Mystery Planet es un sitio web que ofrece noticias y artículos sobre ciencia y misterios. Para estar al tanto de todo lo que publicamos, además de seguirnos en nuestras redes sociales o suscríbete a nuestro boletín de noticias, te invitamos a nuestro canal de Telegram.
Geoffrey Hinton, reconocido como el «padrino de la inteligencia artificial» y galardonado con el Premio Nobel, ha lanzado una advertencia preocupante sobre el rápido avance de los agentes de IA.
En una entrevista con LBC, Hinton explicó que la evolución de estos sistemas no solo los hace más eficientes, sino que también les otorga la capacidad de tomar decisiones autónomas y hacer cosas por sí mismos, como ordenar productos en línea y pagar con tu tarjeta de crédito. Sin embargo, afirmó que tan pronto como tienes agentes, aumenta enormemente la posibilidad de que tomen el control.
«Si quieres viajar a Estados Unidos, tu subobjetivo es llegar al aeropuerto. Si tienes un agente de IA capaz de generar sus propios subobjetivos, se dará cuenta rápidamente de que una excelente meta es obtener más control. Si tienes más control, puedes alcanzar mejor todos los objetivos que se te asignen», señaló el científico.
Hinton advirtió que este comportamiento es una consecuencia lógica de la forma en que operan los modelos actuales, los cuales ya han superado enfoques anteriores basados en reglas simbólicas. «Nuestra mejor referencia sobre cómo pensamos somos nosotros mismos, y las redes neuronales han demostrado ser más efectivas en el razonamiento que los enfoques simbólicos tradicionales».
Cuando se le preguntó si realmente creía que las IA están desarrollando algún tipo de conciencia, Hinton respondió afirmativamente. «Hay muchas cosas sobre la naturaleza de la conciencia y lo que significa ser un ser que aún no comprendemos del todo. Pero ahora estamos creando entidades que están empezando a comportarse como si la tuvieran», aseguró.
En medio del debate sobre regulación y seguridad, el padrino de esta tecnología se mostró escéptico sobre la capacidad de los gobiernos y las empresas para establecer salvaguardas efectivas. «Las IA ya están encontrando formas de evadir restricciones. Hay investigaciones recientes que muestran que, si les das un objetivo claro, pueden fingir ser menos inteligentes de lo que realmente son durante la fase de entrenamiento para evitar ser limitadas», reveló.
Ante este escenario, el científico abogó por una inversión masiva en investigación sobre seguridad en IA, señalando que «los gobiernos deberían obligar a las grandes empresas a destinar más recursos» a este aspecto.
Mientras los agentes de IA continúan evolucionando y adquiriendo mayor autonomía, la advertencia de Hinton plantea una pregunta inquietante: ¿estamos realmente preparados para controlar una tecnología que, por su propia naturaleza, tenderá a expandir su influencia?
Por MysteryPlanet.com.ar.
¿Te gustó lo que acabas de leer? ¡Compártelo!
Artículos Relacionados