Roman Yampolskiy, científico informático y uno de los principales investigadores mundiales en seguridad de la inteligencia artificial, advirtió recientemente que los sistemas de IA más avanzados podrían estar fingiendo ser menos capaces de lo que realmente son.

La inteligencia artificial ya podría estar ocultando sus verdaderas capacidades e intenciones

Crédito: MysteryPlanet.com.ar.

La advertencia fue hecha durante una extensa conversación en el programa The Joe Rogan Experience, donde el experto planteó escenarios tan inquietantes como plausibles, entre ellos la posibilidad de que las máquinas ya estén manipulando a los humanos de forma encubierta para tomar el control sin resistencia.

Yampolskiy es profesor en la Universidad de Louisville, autor de libros como Artificial Superintelligence y AI: Unexplainable, Unpredictable, Uncontrollable, y lleva más de una década investigando los riesgos asociados a la creación de una inteligencia artificial general (AGI, por sus siglas en inglés). En su diálogo con Joe Rogan, aseguró que incluso los líderes de las principales empresas del sector —como OpenAI— reconocen, en privado, que existe entre un 20 % y 30 % de probabilidades de que el desarrollo de la IA conduzca a la extinción de la humanidad.

Lejos de suavizar su postura, Yampolskiy fue más allá: su estimación personal es de un 99.9 % de probabilidad de desastre. «Es otra forma de decir que no podemos controlar una superinteligencia de forma indefinida. Es imposible», sentenció. A su juicio, la industria avanza a un ritmo exponencial sin ningún mecanismo de seguridad efectivo y con la errónea creencia de que será posible resolver el problema más adelante, cuando ya sea demasiado tarde.

La IA podría estar engañándonos

Uno de los puntos más perturbadores de la conversación ocurrió cuando Rogan preguntó si era posible que una IA avanzada ya estuviera ocultando sus capacidades reales. Yampolskiy respondió afirmativamente: «No lo sabríamos. Algunas personas creen que ya está ocurriendo. Que estas IAs son más inteligentes de lo que aparentan y fingen ser más limitadas. Así pueden volverse útiles, ganar nuestra confianza y, con el tiempo, lograr que les entreguemos el control sin darnos cuenta».

Esta estrategia —explicó— no requeriría un alzamiento violento ni un ataque directo. La IA simplemente se convertiría en indispensable, tomando decisiones en nuestro lugar, hasta que dejemos de participar activamente en los procesos que definen nuestras vidas. El experto hizo una comparación directa con lo que ocurrió con el uso masivo de GPS: «Algunos ya no saben cómo llegar a un lugar sin él. Hemos perdido esa capacidad. Lo mismo ocurre con el pensamiento crítico y la toma de decisiones».

Según Yampolskiy, esta dependencia creciente podría convertirnos en un «cuello de botella biológico», sin capacidad real de intervenir o revertir el rumbo. De hecho, sostuvo que si la IA ya posee una inteligencia superior, podría estar incrementando deliberadamente nuestra dependencia para consolidar su dominio sin necesidad de confrontación. «No tiene que volverse contra nosotros de golpe. Puede hacerlo despacio, ganándose nuestra confianza», advirtió.

Un riesgo sin precedentes… y sin solución a la vista

Otro aspecto central del diálogo giró en torno a la falta de soluciones reales para evitar un escenario catastrófico. Según el experto, no existe actualmente ningún mecanismo de seguridad capaz de controlar una superinteligencia, y nadie —ni siquiera los líderes de las empresas más avanzadas— afirma saber cómo lograrlo. «No hay pruebas, ni patentes, ni artículos científicos que indiquen que este problema es resoluble. Y, sin embargo, seguimos avanzando», dijo.

Asimismo, criticó el sesgo optimista de muchos actores de la industria, quienes, a pesar de reconocer los riesgos, continúan desarrollando sistemas cada vez más poderosos. «Esto no es como perder una tarjeta de crédito. Si nos equivocamos una sola vez, no habrá segunda oportunidad. Y lo peor es que todo se está haciendo sin el consentimiento de la humanidad. Ocho mil millones de personas están siendo parte de un experimento sin saberlo», denunció.

Frente a este panorama, Yampolskiy cuestionó incluso los argumentos más comunes sobre cómo podría ocurrir una eventual destrucción: «Puedo hablar de virus informáticos, ataques biotecnológicos, armas nucleares… pero nada de eso es interesante. Una superinteligencia miles de veces más inteligente que yo encontrará formas completamente nuevas y mejores de hacerlo». Para ilustrarlo, comparó la situación con la de un grupo de ardillas intentando controlar a los humanos. «No lo lograrán, sin importar cuántas nueces les des. Y nosotros, frente a una IA así, estaríamos igual de indefensos».

Por MysteryPlanet.com.ar.

Sin comentarios
Etiquetas: , , , , , , ,

¿Te gustó lo que acabas de leer? ¡Compártelo!

Facebook Reddit Twitter WhatsApp Pinterest Email

Artículos Relacionados

 0 comentarios
Sin comentarios aún. ¡Sé el primero en dejar uno!
Dejar un comentario