Una carta abierta firmada por cientos de destacados expertos en inteligencia artificial, empresarios tecnológicos y científicos pide una pausa en el desarrollo y las pruebas de tecnologías de IA más potentes que el modelo de lenguaje GPT-4 de OpenAI para que los riesgos que puede plantear se estudien adecuadamente.

Crédito: MysteryPlanet.com.ar.

El documento (disponible AQUÍ) advierte que los modelos de lenguaje como GPT-4 ya pueden competir con los humanos en una gama cada vez mayor de tareas y podrían usarse para automatizar trabajos y difundir información errónea. También plantea la perspectiva lejana de los sistemas de inteligencia artificial que podrían reemplazar a los humanos y rehacer la civilización.

«Hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4 (incluido el GPT-5 que se está entrenando actualmente)», afirma la carta, cuyos firmantes incluyen a Yoshua Bengio, un profesor de la Universidad de Montreal considerado un pionero de la IA moderna, el historiador Yuval Noah Harari, el cofundador de Skype Jaan Tallinn y el CEO de Twitter, Elon Musk.

La carta, que fue escrita por Future of Life Institute, una organización enfocada en los riesgos tecnológicos para la humanidad, agrega que la pausa debe ser «pública y verificable» y debe involucrar a todos aquellos que trabajan en modelos avanzados de IA como GPT-4. No sugiere cómo podría verificarse un alto en el desarrollo, pero agrega que «si tal pausa no puede promulgarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria» —algo que parece poco probable que suceda dentro de seis meses—.

Microsoft y Google no respondieron oficialmente a las solicitudes de comentarios sobre la carta. No obstante, Hannah Wong-Silva, portavoz de OpenAI, dijo recientemente que la empresa pasó más de seis meses trabajando en la seguridad y alineación de GPT-4 después de entrenar el modelo. Y negó que OpenAI actualmente esté entrenando una versión GPT-5.

Ritmo frenético

La carta llega cuando los sistemas de IA dan saltos cada vez más audaces e impresionantes. GPT-4 se anunció hace solo dos semanas, pero sus capacidades han despertado un entusiasmo considerable y una gran preocupación. El modelo de lenguaje, que está disponible a través de ChatGPT, el popular chatbot de OpenAI, obtiene una alta puntuación en muchas pruebas académicas y puede resolver correctamente preguntas difíciles que generalmente se cree que requieren una inteligencia más avanzada que la que los sistemas de IA han demostrado anteriormente.

Sin embargo, GPT-4 también comete muchos errores lógicos y triviales. Y, como sus predecesores, a veces «alucina» con información incorrecta, traiciona prejuicios sociales arraigados y puede ser incitado a decir cosas odiosas o potencialmente dañinas.

Parte de la preocupación expresada por los firmantes de la carta es que OpenAI, Microsoft y Google han comenzado una carrera impulsada por las ganancias para desarrollar y lanzar nuevos modelos de IA lo más rápido posible. A tal ritmo, argumenta la carta, los desarrollos están ocurriendo más rápido de lo que la sociedad y los reguladores pueden aceptar.

Steve Wozniak, Elon Musk y Yuval Noah Harari figuran entre las figuras más célebres que firmaron la carta abierta.

El ritmo del cambio y la escala de inversión son significativos. Microsoft ha invertido $ 10 mil millones en OpenAI y está utilizando su IA en su motor de búsqueda Bing, así como en otras aplicaciones. Aunque Google desarrolló parte de la IA necesaria para construir GPT-4, y previamente creó poderosos modelos de lenguaje propios, hasta este año decidió no lanzarlos debido a preocupaciones éticas.

Pero el entusiasmo por ChatGPT y las maniobras de búsqueda de Microsoft parecen haber empujado a Google a acelerar sus propios planes. La compañía presentó recientemente Bard, un competidor de ChatGPT, y ha creado un modelo de lenguaje llamado PaLM —que es similar a las ofertas de OpenAI— disponible a través de una API.

«Parece que nos estamos moviendo demasiado rápido», comentó Peter Stone, profesor de la Universidad de Texas en Austin y presidente del Estudio de Cien Años sobre Inteligencia Artificial (AI100), un informe destinado a comprender las implicaciones a largo plazo de la IA.

Stone, que no fue signatario de la carta, dijo que no está de acuerdo con todo lo que contiene y que no está personalmente preocupado por los peligros existenciales. Pero admitió que los avances están ocurriendo tan rápido que la comunidad de IA y el público en general apenas tuvieron tiempo de explorar los beneficios y posibles usos indebidos de ChatGPT antes de que se actualizara con GPT-4.

«Creo que vale la pena obtener un poco de experiencia sobre cómo se pueden usar y mal usar antes de competir para construir el próximo. Esto no debería ser una carrera para construir el próximo modelo y sacarlo antes que los demás», concluyó.

Hasta la fecha, la carrera ha sido frenética. OpenAI anunció su primer modelo de lenguaje grande, GPT-2 en febrero de 2019. Su sucesor, GPT-3, se presentó en junio de 2020. ChatGPT, que introdujo mejoras además de GPT-3, se lanzó en noviembre de 2022.

Fuente: Wired. Edición: MP.

Sin comentarios
Etiquetas: , , , , , , , , , , , ,

¿Te gustó lo que acabas de leer? ¡Compártelo!

Facebook Reddit Twitter WhatsApp Pinterest Email

Artículos Relacionados

 0 comentarios
Sin comentarios aún. ¡Sé el primero en dejar uno!
Dejar un comentario