Mystery Planet es un sitio web que ofrece noticias y artículos sobre ciencia y misterios. Para estar al tanto de todo lo que publicamos, además de seguirnos en nuestras redes sociales o suscríbete a nuestro boletín de noticias, te invitamos a nuestro canal de Telegram.
La división de Facebook de desarrollo de inteligencia artificial creó un sistema dedicado a las negociaciones. Días más tarde se sus primeras pruebas el sistema comenzó a conversar en un lenguaje extraño y aparentemente erróneo. Sin embargo, no era un error, había creado su propio idioma y Facebook ha decidido apagarlo.
La IA constaba de dos agentes que se dedicaban a negociar, llamados Bob y Alice. Sus creadores querían probar cómo un sistema de este tipo podía aprender a negociar, pero a los pocos días notaron que ya no estaban hablando en inglés, sino en algo parecido. Sus conversaciones parecían basarse en palabras aleatorias y sin nada de sentido:
Bob: “I can i i everything else”.
Alice: “balls have zero to me to me to me to me to me to me to me to”.
Traducido al español:
Bob: “Yo puedo yo yo todo lo demás”.
Alice: “bolas tienen cero a mí a mí a mí a mí a mí a mí a”.
Lo que detectaron los desarrolladores es que en lo que parecían ser frases sin sentido, había un patrón. Básicamente, la IA había creado su propio idioma, uno que consideraba mucho más efectivo y al grano que el inglés. Lo que los investigadores han podido determinar es que «yo» y «a mí» reflejan la cantidad de objetos que obtendrán en el intercambio. Son frases más lógicas que adornadas, como solemos hacer en tantos idiomas «humanos».
El problema que esto representa para los desarrolladores de IA es que si un sistema de inteligencia artificial decidiera ignorar el idioma en el que fue programada y crear el suyo propio por ser «más eficiente», esto supondría una enorme dificultad para el desarrollo y la adopción de redes neuronales y, en general, para la creación de nuevas tecnologías basadas en la IA. Básicamente, si la IA lo quisiera, sería imposible comunicarnos con ella. Esto significa la pérdida de control del programador u operador sobre la inteligencia artificial.
Facebook apagó este sistema antes de que perdieran el control por completo, para trabajar en soluciones y seguir innovando en la materia.
Fuente: Digital Journal.
Traducción y edición: Eduardo Marín.
¿Te gustó lo que acabas de leer? ¡Compártelo!
Artículos Relacionados
1 comentario
20:48
Pues si se considera "inteligencia artificial" este es uno de los "riesgos" de su misma inteligencia, que pueda aprender y crear por su cuenta; y cuando deje de necesitar a sus programadores humanos... nos vemos en Siberia, vida mía!
Responder