Mystery Planet es un sitio web que ofrece noticias y artículos sobre ciencia y misterios. Para estar al tanto de todo lo que publicamos, además de seguirnos en nuestras redes sociales o suscríbete a nuestro boletín de noticias, te invitamos a nuestro canal de Telegram.
El nuevo sistema que integra una interfaz cerebro-máquina con inteligencia artificial es tres veces mejor a la hora de traducir la actividad cerebral en habla, con una velocidad de 62 palabras por minuto.
Pat Bennett solía ser una entusiasta ecuestre, hacía jogging a diario, y se desempeñaba en el campo de recursos humanos. Sin embargo, en 2012, la misma enfermedad que afectó y le arrebató la vida a Stephen Hawking, la esclerosis lateral amiotrófica (ELA), le quitó la capacidad del habla.
Pero ahora algo de esperanza ha surgido en el horizonte, gracias a la implementación de cuatro diminutos sensores —apenas del tamaño de una aspirina para bebés— que han sido implantados en su cerebro. Este innovador procedimiento forma parte de un ensayo clínico llevado a cabo en la prestigiosa Universidad de Stanford.
Gracias a estos chips, Bennett ha logrado recuperar la capacidad de comunicar sus pensamientos directamente desde su mente hacia un monitor de computadora. Y lo más impresionante es que ha logrado alcanzar una velocidad de escritura asombrosa: 62 palabras por minuto. Esta velocidad supera en más de tres veces a la mejor tecnología previamente disponible —y está más cerca que nunca de la velocidad natural de la conversación humana, que es de 160 palabras por minuto—.
El avance ha dejado boquiabiertos no solo a los científicos cognitivos y médicos investigadores dentro de la Universidad de Stanford, sino también a expertos externos. Entre ellos se encuentra el profesor Philip Sabes, de la Universidad de California en San Francisco, quien se especializa en el estudio de las interfaces cerebro-máquina y además es cofundador de Neuralink, la empresa de Elon Musk. El profesor Sabes ha calificado este nuevo estudio como un «enorme progreso» en el campo, subrayando su impacto significativo.
La noticia llega apenas unos meses después de que la FDA otorgara la aprobación a Neuralink, permitiendo que la empresa iniciara ensayos clínicos en humanos para su propia tecnología de implante de chips cerebrales, que compite directamente con el actual avance de Stanford.
Los resultados también tienen lugar en una fecha cercana a los esfuerzos de la UNESCO por desarrollar propuestas sobre cómo regular la tecnología de chips cerebrales, ante el temor de que esta pueda ser utilizada de manera abusiva para el «neuroseguimiento» o incluso la «reeducación forzada», poniendo en peligro los derechos humanos a nivel mundial.
Sin embargo, para Bennett, esta investigación emergente ha resultado ser más cercana a lo milagroso que a lo distópico.
A lo largo de 26 sesiones, cada una con una duración aproximada de cuatro horas, la mujer colaboró con un algoritmo de inteligencia artificial, contribuyendo a entrenarlo para que identificara qué actividad cerebral se corresponde con 39 fonemas clave, o sonidos, utilizados en el inglés hablado.
Mediante la tecnología de sensores cerebrales, que los investigadores de Stanford denominan interfaz cerebro-computadora intracortical (iBCI), Bennett intentó comunicarse eficazmente, en cada sesión de entrenamiento, con aproximadamente 260 a 480 oraciones dirigidas a la IA.
Las oraciones se seleccionaron al azar de un amplio conjunto de datos llamado SWITCHBOARD, recopilado en la década de 1990 por el fabricante de calculadoras Texas Instruments a partir de conversaciones telefónicas, con el fin de llevar a cabo investigaciones lingüísticas.
Las oraciones casuales incluían ejemplos como «Me fui justo en medio de eso» y «Solo ha sido así en los últimos cinco años».
Durante las sesiones en las que las opciones de oraciones se limitaron a un vocabulario de 50 palabras, Bennett y el equipo de Stanford que trabajó con ella lograron reducir la tasa de error del traductor de IA al 9.1 por ciento. Cuando se amplió el límite de vocabulario a 125.000 palabras —más cercano al número total de palabras en inglés de uso común—, la IA de habla prevista por la iCBI tuvo un aumento en sus errores de traducción. La tasa aumentó al 23.8 por ciento.
Si bien esta tasa de error deja algo que desear, los investigadores creen que las mejoras podrían continuar con más entrenamiento y una interfaz más amplia, es decir, más implantes que interactúen entre el cerebro y la IA de iBCI.
«Hemos demostrado que es posible decodificar el habla intencionada registrando la actividad de una zona muy pequeña de la superficie del cerebro», dijo la Dra. Jaimie Henderson, cirujana que realizó la delicada instalación de los electrodos iBCI en la superficie del cerebro de la mujer afectada por ELA.
«Estos resultados iniciales han demostrado el concepto y, finalmente, la tecnología se pondrá al día para hacerlo fácilmente accesible para las personas que no pueden hablar», testificó por escrito en un correo electrónico la propia Bennet. «Para aquellos que no son verbales, esto significa que pueden permanecer conectados con el mundo, quizás continuar trabajando, manteniendo relaciones familiares y de amigos».
El estudio detallando los resultados ha sido publicado en Nature.
¿Te gustó lo que acabas de leer? ¡Compártelo!
Artículos Relacionados
0 comentarios