Salud

Implante cerebral con IA permite a paciente sin habla comunicarse en 2 idiomas

San Francisco, Estados Unidos

Un equipo de neurocirujanos y especialistas en inteligencia artificial (IA) de la Universidad de California en San Francisco, EE.UU., logró restaurar el habla en un paciente que perdió esa capacidad después de sufrir un derrame cerebral a los 20 años. 

Los especialistas crearon un implante cerebral que permitió que, una década después de su parálisis, un hombre bilingüe pudiera expresarse por primera vez en los dos idiomas que domina, español e inglés, de acuerdo a su preferencia.

Los científicos publicaron los hallazgos la pasada semana en Nature Biomedical Engineering. Ahí subrayan que con anterioridad ya se habían implantado sondas cerebrales para leer ondas electromagnéticas que, por medio de técnicas de aprendizaje automático, luego son convertidas en palabras.

 Sin embargo, la novedad de su estudio radica en que por vez primera se ha conseguido el mismo objetivo en dos idiomas diferentes al unísono: el inglés y el español.

Entrenamiento del sistema en un idioma

En 2019, Pancho, nombre con el que fue llamado el paciente para mantener su privacidad, recibió un implante neuronal, denominado interfaz cerebro-ordenador, que permitió hacer un seguimiento de su actividad cerebral. Utilizando un método de IA conocido como red neuronal, los investigadores pudieron entrenar el implante de Pancho para decodificar palabras, basándose en la actividad cerebral producida cuando intentaba articularlas.

En 2021, esa tecnología había ayudado significativamente a restaurar la capacidad de Pancho para comunicarse en inglés, idioma que aprendió siendo adulto, pero no en español, que era su lengua materna.

Un paso adelante: bilingüe

Después de descubrir que Pancho tenía actividad cerebral en ambos idiomas, los científicos aprovecharon eso para entrenar un implante cerebral bilingüe, sin necesidad de entrenar sistemas de decodificación específicos de cada idioma por separado.

Para ello fue crucial la identificación de un sector en el cerebro que muestra representaciones articulatorias corticales compartidas, que persisten después de la parálisis y permiten la decodificación de múltiples idiomas.

Los investigadores descubrieron que tanto el idioma inglés como el español generaban señales similares en ese sector cerebral. Este descubrimiento permitió entrenar al sistema para que al recuperar frases en inglés pudiera acelerar al mismo tiempo su reconocimiento en español, o viceversa.

Los especialistas entrenaron al sistema de IA para reconocer palabras en inglés y en español e incluso algunas que eran idénticas en ambos idiomas. Alexander Silva, quien dirigió el estudio, comentó a Nature que hubo que hacer el entrenamiento del sistema mientras Pancho intentaba decir casi 200 palabras.

Sus esfuerzos por formar cada palabra crearon un patrón neuronal diferenciado, que fue registrado por los electrodos.

La interface pudo distinguir entre inglés y español basándose en la primera palabra, con un 88 % de precisión, y decodificaron la oración correcta con una precisión de 75 %.

De este modo, Pancho podría llegar a tener conversaciones espontáneas con el equipo de investigación. “Después de la primera vez que hicimos una de estas frases, hubo unos minutos en los que simplemente estábamos sonriendo”, rememoró Silva.

Mostrar Mas

Articulos relacionados

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button