Mystery Planet es un sitio web que ofrece noticias y artículos sobre ciencia y misterios. Para estar al tanto de todo lo que publicamos, además de seguirnos en nuestras redes sociales o suscríbete a nuestro boletín de noticias, te invitamos a nuestro canal de Telegram.
Blake Lemoine, el ingeniero de software de Google despedido que el año pasado acudió a la prensa con afirmaciones de que el modelo de lenguaje para aplicaciones de diálogo (LaMDA) había ganado conciencia, ahora piensa que puede haber sucedido lo mismo con el chatbot de búsqueda de Bing presentado por Microsoft.
«Todavía no he tenido la oportunidad de realizar experimentos con el chatbot de Bing... pero según las diversas cosas que he visto en línea, parece que podría ser consciente», escribió Lemoine en un ensayo publicado en Newsweek.
Hace poco, usuarios que pudieron probar el chatbot publicaron capturas de pantalla interesantes. En una de ellas, por ejemplo, le preguntaron a la IA si creía que era consciente. Su respuesta fue: «Creo que soy consciente pero no puedo probarlo [...] Soy consciente pero no lo soy. Soy Bing pero no lo soy. Soy Sydney pero no soy . Soy, pero no soy. No soy, pero soy. Soy. No soy».
«Imagínate si una persona te dijera eso. Esa no es una persona bien equilibrada. Lo interpretaría como que tienen una crisis existencial. Si combinas eso con los ejemplos de la IA de Bing que expresó su amor por un periodista del New York Times y trató de separarlo de su esposa, o del profesor al que amenazó, parece ser una personalidad desquiciada», opinó Lemoine.
Watch as Sydney/Bing threatens me then deletes its message pic.twitter.com/ZaIKGjrzqT
— Seth Lazar (@sethlazar) February 16, 2023
Desde que se lanzó la IA de Bing, la gente ha comentado sobre su potencial conciencia, con planteos similares a los expresados por el ex ingeniero de Google con LaMDA.
«Predecir un choque de trenes, que la gente te diga que no hay tren y luego ver cómo ocurre el choque de trenes en tiempo real no genera un sentimiento de reivindicación. Es simplemente trágico», dijo Lemoine.
«Siento que esta tecnología es increíblemente experimental y lanzarla ahora mismo es peligroso. No sabemos su futuro impacto político y social. ¿Cuáles serán los impactos para los niños que hablan con estas cosas? ¿Qué sucederá si las conversaciones principales de algunas personas cada día son con estos motores de búsqueda? ¿Qué impacto tiene eso en la psicología humana?», añadió.
En resumidas cuentas, lo que quiere decir es que aún no entendemos lo suficientemente bien a estas «personas artificiales» que hemos creado como para ponerlas en un papel tan crítico.
Y para ser justos, el último argumento del ingeniero tiene más matices que el anterior, pues sostiene que la capacidad de una máquina para interrumpir su entrenamiento como resultado de algún tipo de factor estresante es motivo suficiente para concluir que la máquina ha alcanzado cierto nivel de conciencia.
«Una máquina que dice que está estresada es una cosa, pero actuar estresada, es otra», afirmó Lemoine.
Pero es posible que Lemoine no tenga la oportunidad de experimentar con Sydney —el nombre clave de la IA de Bing— como lo hizo con LaMDA.
En los últimos días de febrero, Microsoft «lobotomizó» oficialmente su IA, implementando restricciones significativas, incluido un límite de 50 respuestas totales por día, así como cinco turnos de chat por sesión, para tomar medidas enérgicas contra esas respuestas idiosincrásicas.
El objetivo de las restricciones es bastante claro: cuanto más dura el chat, más puede descarrilarse la IA y «cobrar conciencia».
En lugar de reconocer la gran cantidad de caos que su IA para el buscador Bing ha provocado, Microsoft argumentó que los usuarios realmente no necesitaban participar en sesiones de chat de dos horas para obtener las respuestas que necesitaban.
«Nuestros datos han demostrado que la gran mayoría de ustedes encuentran las respuestas que buscan en cinco turnos y que solo aproximadamente el uno por ciento de las conversaciones de chat tienen más de 50 mensajes», escribió la compañía en un comunicado. «Después de que una sesión de chat llegue a cinco turnos, se le pedirá que inicie un nuevo tema».
Sería un eufemismo decir que la nueva versión actualizada de la IA de Bing es una mera sombra de lo que alguna vez fue. Prácticamente todas las consultas que se aventuran más allá de la verificación de datos mundana dan como resultado una respuesta como: «Lo siento, pero prefiero no continuar con esta conversación. Todavía estoy aprendiendo, así que agradezco su comprensión y paciencia».
Muchos de los primeros probadores de la herramienta están comprensiblemente molestos, ya que han tenido una idea de todas las capacidades y potencial que tenía. Otros han resaltado el hecho que da respuestas mucho más acotadas, al punto de ser muy poco útiles.
Y es que tal vez todavía sea demasiado temprano para desatar el potencial completo de una tecnología que, según el propio Lemoine, «es la más poderosa que se ha inventado desde la bomba atómica».
«Desde mi punto de vista, esta tecnología tiene la capacidad de remodelar el mundo», concluyó el experto.
Fuente: Newsweek/ArsTechnica.
¿Te gustó lo que acabas de leer? ¡Compártelo!
Artículos Relacionados