Mystery Planet es un sitio web que ofrece noticias y artículos sobre ciencia y misterios. Para estar al tanto de todo lo que publicamos, además de seguirnos en nuestras redes sociales o suscríbete a nuestro boletín de noticias, te invitamos a nuestro canal de Telegram.
Steven Adler, exinvestigador y gerente de programas técnicos en OpenAI, ha encendido las alarmas sobre la velocidad a la que avanza el desarrollo de la inteligencia artificial general (IAG).
A través de un mensaje publicado en la plataforma X, Adler reveló que dejó la compañía a mediados de noviembre tras cuatro años trabajando en evaluaciones de seguridad, control de agentes y preparación para la IAG.
«Fue un viaje salvaje con muchos capítulos: evaluaciones de capacidades peligrosas, seguridad de agentes y control, IAG e identidad en línea, entre otros. Extrañaré muchas partes de ello», escribió Adler. Sin embargo, expresó su preocupación por el ritmo de desarrollo actual de esta tecnología, asegurando que le genera «terror».
El exinvestigador de OpenAI cuestionó el futuro de la humanidad ante el avance de la IAG. «Cuando pienso en dónde criar a una futura familia o cuánto ahorrar para el retiro, no puedo evitar preguntarme: ¿Sobrevivirá la humanidad hasta ese punto?», reflexionó.
IMO, an AGI race is a very risky gamble, with huge downside. No lab has a solution to AI alignment today. And the faster we race, the less likely that anyone finds one in time.
— Steven Adler (@sjgadler) January 27, 2025
Adler también señaló que la competencia entre laboratorios de inteligencia artificial para alcanzar la IAG es un «riesgo extremadamente alto» y que actualmente «ningún laboratorio tiene una solución para la alineación de la IA». Además, criticó el equilibrio actual en la industria, donde la presión por avanzar rápidamente puede llevar a descuidar la seguridad. «Incluso si un laboratorio quiere desarrollar IAG de manera responsable, otros pueden tomar atajos para alcanzarlos, lo que puede ser desastroso», advirtió.
Para abordar estos desafíos, el experto instó a los laboratorios de IA a ser más abiertos sobre las regulaciones de seguridad necesarias para frenar esta carrera descontrolada. También mostró interés en explorar métodos de control, detección de esquemas y casos de seguridad, invitando a sus pares a aportar también su grano de arena.
Por ahora, el exinvestigador de OpenAI se encuentra tomando un descanso, pero su preocupación sobre el futuro de la IA resuena en la comunidad tecnológica, en un momento donde el desarrollo de la inteligencia artificial sigue acelerándose sin soluciones claras a los riesgos que plantea —incluyendo nucleares—.
¿Te gustó lo que acabas de leer? ¡Compártelo!
Artículos Relacionados