Una mujer cuadripléjica habló tras 18 años gracias a un implante con IA

El implante cerebral utiliza inteligencia artificial para transformar sus pensamientos en palabras casi en tiempo real. Por el momento su vocabulario es limitado a 1024 palabras.
Por: #BorderPeriodismo

Un equipo de investigadores estadounidenses anunció un hito en la neurociencia. Un implante cerebral basado en inteligencia artificial permitió que una mujer cuadripléjica volviera a hablar tras 18 años. El dispositivo, que traduce ondas cerebrales en sonido, genera esperanzas para quienes perdieron la capacidad de comunicarse.

El equipo, con sede en California, ya había desarrollado una interfaz cerebro-ordenador (BCI, por sus siglas en inglés) que lograba decodificar los pensamientos de Ann, una mujer de 47 años, y convertirlos en habla.

Sin embargo, la versión anterior tardaba hasta ocho segundos en producir sonido, lo que hacía imposible mantener una conversación fluida. Ann, quien fue profesora de matemáticas en secundaria antes de quedar cuadripléjica por un accidente cerebrovascular, llevaba casi dos décadas sin poder hablar.

Todo cambió con la nueva versión del dispositivo, presentada en la prestigiosa revista Nature Neuroscience. Este modelo mejorado logró convertir los pensamientos de Ann en palabras con un retraso de apenas 80 milisegundos, una velocidad similar a la del habla natural.

"Nuestro nuevo enfoque en tiempo real convierte las señales cerebrales en su voz personalizada casi inmediatamente, en menos de un segundo desde que intenta hablar", explicó Gopala Anumanchipalli, de la Universidad de California en Berkeley y autor principal del estudio.

Además, reveló que Ann sueña con convertirse en consejera universitaria. "Aunque todavía estamos lejos de lograr eso para ella, este avance nos acerca a mejorar la calidad de vida de quienes han perdido la voz", agregó.

Durante las pruebas, Ann leía mentalmente frases en una pantalla, como "Entonces me amas". Sus ondas cerebrales fueron convertidas en sonido, recreando su voz original gracias a grabaciones previas a su accidente. "Estaba muy emocionada al escuchar su voz nuevamente", contó Anumanchipalli.

El sistema utiliza un algoritmo de aprendizaje profundo, entrenado con miles de frases que Ann intentó pronunciar mentalmente. Aunque el modelo no es totalmente preciso y su vocabulario se limita a 1024 palabras, el avance es notable.

Para Edward Chang, otro de los científicos principales, esta tecnología "tiene un enorme potencial" para quienes padecen parálisis grave. "Es emocionante que los últimos avances en IA estén acelerando el desarrollo de interfaces cerebro-ordenador para su uso en el mundo real", destacó.

El proceso para entrenar la IA comenzó con Ann observando frases en una pantalla y pronunciándolas mentalmente. Los investigadores registraron su actividad cerebral con electrodos implantados sobre su corteza sensomotora del habla, y luego entrenaron una red neuronal de aprendizaje profundo para descifrar esas señales.

El sistema no solo interpretó las frases en tiempo real, sino que también reprodujo la voz de Ann a partir de clips grabados antes de su accidente. "Básicamente, interceptamos las señales en las que el pensamiento se traduce en articulación", explicó Cheol Jun Cho, otro de los científicos involucrados.

En esa línea, concluyó: "Estamos descifrando lo que sucede después de que la persona decide qué decir y cómo mover los músculos del tracto vocal".

Suscribite a nuestro newsletter
* Recibirás emails de cada publicación semanal
Notas relacionadas
Con tu suscripción al Newsletter de Border Periodismo recibirás emails de cada publicación semanal.
* Recibirás emails de cada publicación semanal