Impresionantes avances en la tecnología de interfaz cerebro-computadora han permitido a pacientes con trastornos del habla, derivados de enfermedades como derrames cerebrales y Esclerosis Lateral Amiotrófica (ELA), comunicarse a través de avatares digitales.
Los logros, publicados en la prestigiosa revista Nature y desarrollados por equipos de investigación independientes, despiertan gran interés a nivel mundial, aunque se reconocen distancia para su aplicabilidad generalizada. Las investigaciones se centraron en dos participantes, uno perdió su habla debido a un derrame cerebral y el otro a causa de la ELA.
¿PUEDEN GRABAN LO QUE PIENSA EL CEREBRO?
En ambos casos, se les implantó un dispositivo de grabación cerebral, permitiendo que hablaran a aproximadamente 60 a 70 palabras por minuto, alrededor de la mitad de la velocidad normal de habla, pero más del cuádruple de la velocidad previamente reportada. Además de la voz, los investigadores, liderados por Edward Chang, neurocirujano de la Universidad de California en San Francisco, capturaron las señales cerebrales que controlan los pequeños movimientos que generan las expresiones faciales.
Esto permitió crear un avatar que representaba la voz del participante casi en tiempo real. Los implantes utilizados no registran pensamientos. En su lugar, y con una capacidad de recogida de información superior gracias al doble de electrodos comparado con los estudios previos, capturan las señales eléctricas que controlan los movimientos musculares implicados en el habla.
IMPLANTES CEREBRALES
Estas señales son luego transferidas a una computadora mediante un puerto en el cuero cabelludo, donde algoritmos de inteligencia artificial los decodifican y un modelo de lenguaje proporciona habilidades de autocorrección para incrementar la precisión de la comunicación. En el caso de la paciente afectada por un derrame cerebral, se tradujo la actividad cerebral en palabras escritas a un ritmo de 78 palabras por minuto con un error del 23 %. "El habla no es solo sobre comunicar palabras, sino también sobre quiénes somos. Nuestra voz y expresiones son parte de nuestra identidad", comentó Chang.
El equipo incluso replicó la voz de la paciente utilizando una grabación de su boda, añadiendo un toque personal a su avatar. El caso de la paciente con ELA, llamada Pat, estuvo liderado por investigadores de Stanford. Ella participó en 25 sesiones de entrenamiento para ayudar a perfeccionar el sistema, leyendo sílabas, palabras y oraciones.
PUEDEN MEJORAR RESULTADOS
Su tasa de error fue de aproximadamente el 9 % con un vocabulario de 50 palabras, pero aumentó al 24 % cuando el equipo amplió el vocabulario a 125 mil palabras. Los científicos están convencidos de que pueden mejorar estos resultados. "Lo interesante es que a medida que se añaden más electrodos de este tipo, el rendimiento del decodificador sigue aumentando", afirma Francis Willett, neurocientífico y autor del artículo de Stanford. "Si podemos conseguir más electrodos y más neuronas, entonces deberíamos poder ser aún más precisos".
Estos avances son alentadores, pero los expertos advierten que aún queda un largo camino por recorrer antes de que esta tecnología esté disponible para el público en general. Sin embargo, los resultados de los estudios mencionados representan un gran paso en el camino hacia la recuperación de la voz para las personas con trastornos del habla.