El avance sugiere que la tecnología detrás de ChatGPT y Bard puede generar información que va más allá del conocimiento humano.

Crédito: DeepMind/MysteryPlanet.com.ar.

El hallazgo surgió de Google DeepMind, donde los científicos investigan si los modelos de lenguaje grande (LLM), que sustentan los chatbots modernos como ChatGPT de OpenAI y Bard de Google, pueden hacer más que reempaquetar información aprendida durante el entrenamiento y presentar nuevas perspectivas.

«Cuando empezamos el proyecto, no había indicación de que produciría algo genuinamente nuevo», dijo Pushmeet Kohli, jefe de IA para ciencia en DeepMind. «Hasta donde sabemos, esta es la primera vez que un LLM hace un descubrimiento científico genuino y nuevo».

Los modelos de lenguaje grande son poderosas redes neuronales que aprenden los patrones del lenguaje —incluido el código informático— a partir de enormes cantidades de texto y otros datos. Desde la llegada arrolladora de ChatGPT el año pasado, la tecnología ha depurado software defectuoso y ha producido desde ensayos universitarios e itinerarios de viaje hasta poemas sobre el cambio climático al estilo de Shakespeare.

Sin embargo, aunque los chatbots han resultado extremadamente populares, no generan nuevo conocimiento y son propensos a la confabulación, lo que lleva a respuestas que son fluidas y plausibles pero gravemente defectuosas.

FunSearch

Para construir «FunSearch» (abreviación para «búsqueda en el espacio de funciones»), DeepMind utilizó un LLM para escribir soluciones a problemas en forma de programas de computadora. El LLM está emparejado con un «evaluador» que clasifica automáticamente los programas según su desempeño. Los mejores programas se combinan y se devuelven al LLM para mejorar. Esto impulsa al sistema a evolucionar de manera constante desde programas deficientes hacia otros más potentes que pueden revelar nuevos conocimientos.

Los investigadores configuraron FunSearch con dos acertijos. El primero era un desafío prolongado y algo arcano en matemáticas puras conocido como el problema del conjunto tapa, el cual plantea la cuestión de cuántos puntos se pueden colocar en un espacio vectorial para que no haya tres puntos en la misma línea recta. FunSearch generó programas que crean nuevos conjuntos tapa grandes que superan lo mejor que los matemáticos han ideado.

El segundo acertijo fue el problema de la distribución binaria, que busca la mejor manera de empacar objetos de diferentes tamaños en contenedores. Si bien se aplica a objetos físicos, como la forma más eficiente de organizar cajas en un contenedor de envío, las mismas matemáticas se aplican en otras áreas, como la programación de trabajos informáticos en centros de datos. Según los resultados publicados en Nature, FunSearch encontró un enfoque mejor que evitaba dejar espacios pequeños que probablemente nunca se llenarían.

Crédito: Google DeepMind.

«En los últimos dos o tres años ha habido algunos ejemplos emocionantes de matemáticos humanos colaborando con la IA para obtener avances en problemas sin resolver», comentó Sir Tim Gowers, profesor de matemáticas en la Universidad de Cambridge, quien no estuvo involucrado en la investigación. «Este trabajo potencialmente nos da otra herramienta muy interesante para tales colaboraciones, permitiendo a los matemáticos buscar de manera eficiente construcciones ingeniosas e inesperadas. Mejor aún, estas construcciones son interpretables para los seres humanos».

Los autores del estudio ahora exploran el rango de problemas científicos que FunSearch puede abordar. Un factor limitante importante es que los problemas deben tener soluciones que puedan ser verificadas automáticamente, lo que excluye muchas preguntas en biología, donde las hipótesis a menudo necesitan ser probadas con experimentos de laboratorio.

El proceso de FunSearch. Crédito: Google DeepMind.

El impacto más inmediato puede ser para los programadores. Durante los últimos 50 años, la codificación ha mejorado principalmente mediante la creación de algoritmos cada vez más especializados. «Esto realmente será transformador en la forma en que las personas abordan la ciencia de la computación y el descubrimiento algorítmico», dijo Kohli. «Por primera vez, estamos viendo que los LLMs no toman el control, sino que ayudan a ampliar los límites de lo que es posible en algoritmos».

Jordan Ellenberg, profesor de matemáticas en la Universidad de Wisconsin-Madison y coautor del artículo, añadió que lo encuentra emocionante.

«Aún más que los resultados específicos que encontramos, son las perspectivas que sugiere para el futuro de la interacción humano-máquina en matemáticas», dijo.

«En lugar de generar una solución, FunSearch genera un programa que encuentra la solución. Una solución a un problema específico puede no darme idea de cómo resolver otros problemas relacionados. Pero un programa que encuentra la solución, eso es algo que un ser humano puede leer e interpretar y, con suerte, generar ideas para el próximo problema y el siguiente y el siguiente», concluyó.

Fuente: DeepMind/TG. Edición: MP.

Sin comentarios
Etiquetas: , , , , , , , , , ,

¿Te gustó lo que acabas de leer? ¡Compártelo!

Facebook Reddit Twitter WhatsApp Pinterest Email

Artículos Relacionados

 0 comentarios
Sin comentarios aún. ¡Sé el primero en dejar uno!
Dejar un comentario