Elecciones 2024
Elecciones 2024
Logran traducir señales eléctricas del cerebro en palabras

Un grupo de investigadores alemanes y estadounidenses ha logrado convertir las ondas cerebrales en palabras, con un alto grado de acierto. A través de una técnica conocida como electrocorticografía (ECoG) intracraneal y una interfaz cerebro-máquina, lograron corresponder cada cambio eléctrico en el cerebro con un fono, segmento básico del sonido y que se puede equiparar a una letra.

De esta manera, la interfaz logró decodificar hasta el 50 por ciento de las palabras de una frase.

“Nuestro sistema descodifica frases completas”, afirmó Christian Herff, investigador del Laboratorio de Sistemas Cognitivos del Instituto Tecnológico de Karlsruhe (Alemania) y coautor de la investigación.

“Logramos descodificar una media de 7.5 palabras de cada 10 pero solo cuando había 10 palabras a escoger. Si el sistema podía elegir entre 100, conseguimos tener cuatro de diez correctas, precisa.  En cuanto a los fonos, el sistema reconocía alrededor del 50 por ciento. Pero no hace falta un acierto del 100 por ciento. Al usar un diccionario que nos muestra cómo se producen las palabras (por ejemplo, hola es h o l a) y un modelo de lenguaje, esto nos ofrece la probabilidad de la siguiente palabra”, explicó.

Además de que no es perfecto, este sistema tiene un gran inconveniente, es totalmente invasivo al necesitar colocar electrodos dentro de la cabeza de los sujetos de prueba.

Logran traducir señales eléctricas del cerebro en palabras - images4
La interfaz logró decodificar hasta el 50 por ciento de las palabras de una frase

Las pruebas

Siete voluntarios, todos con epilepsia aguda y a los que se les iba a intervenir quirúrgicamente para extirparles el foco epiléptico, aceptaron someterse a una sesión de ECoG donde les colocaron diodos dentro de su cerebro.

Para realizar la prueba, los voluntarios leyeron textos históricos y los investigadores grabaron tanto el audio como la actividad que se registraba en su cerebro mientras leían en voz alta. Después, a través de la interfase, buscaron correspondencias entre la actividad cerebral y los sonidos.

“De las cinco ondas cerebrales que emite la actividad eléctrica del cerebro, las gamma son las de mayor frecuencia y menor amplitud y reflejarían picos de gran actividad cerebral como la producida durante el habla”, explicó Herff.

Para los investigadores esto representa un primer paso para la comunicación mental entre humanos y máquinas.

“Un sistema que use patrones de habla podría permitir a los pacientes incomunicados relacionarse de nuevo con su entorno, sin embargo, aún falta tiempo para esto”, señaló Herff.

Por su parte, Giulio Ruffini, investigador de la empresa Starlab, indicó que el avance definitivo será cuando se logre decodificar, sin que el voluntario lea, los pensamientos.

“Si se consiguiera, ya estaríamos más cerca de poder decir que estamos leyendo la mente”, concluyó.

Con información de El País.