Mystery Planet es un sitio web que ofrece noticias y artículos sobre ciencia y misterios. Para estar al tanto de todo lo que publicamos, además de seguirnos en nuestras redes sociales o suscríbete a nuestro boletín de noticias, te invitamos a nuestro canal de Telegram.
Un sistema de inteligencia artificial (IA) no invasivo, único en el mundo, puede convertir pensamientos en texto sin necesidad de hablar o implantarse algo en el cerebro, solo usando un gorro ajustado.
La investigación fue liderada por el profesor CT Lin, director del Centro GrapheneX-UTS HAI, junto con el primer autor Yiqun Duan y el compañero candidato a doctorado Jinzhou Zhou.
En el estudio, los participantes leyeron en silencio pasajes de texto mientras llevaban un gorro que registraba la actividad eléctrica cerebral a través de su cuero cabelludo utilizando un electroencefalograma (EEG).
Las ondas del EEG se dividen en unidades distintas que capturan características y patrones específicos del cerebro humano. Esto lo realiza un modelo de inteligencia artificial llamado DeWave desarrollado por los investigadores, el cual traduce señales del EEG en palabras y frases al aprender de grandes cantidades de datos.
«Esta investigación representa un esfuerzo pionero en la traducción directa de ondas EEG en lenguaje, marcando un avance significativo en el campo», dijo el profesor Lin. «Es la primera en integrar técnicas de codificación discreta en la traducción de señales cerebrales a texto, lo que representa un enfoque innovador en la decodificación neuronal. Además, su integración con modelos de lenguaje grande (LLM) está abriendo nuevos horizontes en los campos de la neurociencia y la inteligencia artificial».
Tecnologías anteriores para traducir señales cerebrales al lenguaje han requerido cirugía para implantar electrodos en el cerebro —como Neuralink de Elon Musk— o escaneos en una máquina de resonancia magnética —que es grande, costosa y difícil de usar en la vida diaria—.
Estos métodos también han tenido dificultades para transformar las señales cerebrales en segmentos a nivel de palabras sin ayudas adicionales como el seguimiento ocular, lo que limita la aplicación práctica de los antedichos sistemas. En cambio, la nueva tecnología puede usarse tanto con como sin seguimiento ocular.
La investigación se llevó a cabo con 29 participantes. Esto sugiere que es probable que sea más sólida y adaptable que las tecnologías de decodificación previas que solo se probaron en uno o dos individuos, ya que las ondas del EEG difieren entre las personas.
El uso de señales del EEG recibidas a través de un gorro, en lugar de electrodos implantados en el cerebro, significa que la señal es más ruidosa. Aún así, en cuanto a la traducción del EEG, el estudio informó un rendimiento de última generación, superando los puntos de referencia anteriores.
«El modelo es más hábil para emparejar verbos que sustantivos. Sin embargo, cuando se trata de sustantivos, observamos una tendencia hacia pares sinónimos en lugar de traducciones precisas, como “el hombre” en lugar de “el autor”», señaló Duan.
«Pensamos que esto se debe a que cuando el cerebro procesa estas palabras semánticamente similares, podrían producir patrones de ondas cerebrales similares. A pesar de los desafíos, nuestro modelo arroja resultados significativos, alineando palabras clave y formando estructuras de oraciones similares», añadió.
La puntuación de precisión de traducción es actualmente alrededor del 40 % en BLEU-1. El puntaje BLEU es un número entre cero y uno que mide la similitud del texto traducido por la máquina con un conjunto de traducciones de referencia de alta calidad. Los investigadores esperan que esto mejore a un nivel comparable a la traducción de lenguaje tradicional o programas de reconocimiento de voz, que está más cerca del 90 %.
¿Te gustó lo que acabas de leer? ¡Compártelo!
Artículos Relacionados
0 comentarios