Unos electrodos devuelven el habla a un paciente con ELA
La tecnología traduce los impulsos eléctricos del cerebro en tiempo real
La tecnología
«No poder comunicarse es muy frustrante y desmoralizador. Es como estar atrapado». Estas son palabras pronunciadas por Casey Harrell a través de un ordenador que le permite decir lo que piensa. Este hombre de 45 años padece desde hace varios años esclerosis lateral amiotrófica, conocida como ELA. Hasta hace unos días, este paciente se comunicaba con sus seres queridos mirando a una pantalla que convertía en voz los movimientos de los ojos. Sin embargo, ahora, tras un proceso experimental, un ordenador traduce en tiempo real los impulsos eléctricos y movimientos de su cerebro.
La ELA es una enfermedad neurodegenerativa que afecta a las células nerviosas que controlan el movimiento de todo el cuerpo. La enfermedad conduce a una pérdida gradual de la capacidad para estar de pie, caminar y utilizar las manos. Además, en la gran mayoría de casos, provoca que una persona pierda el control de los músculos utilizados para hablar, lo que conduce a una pérdida del habla comprensible. Cerca del 80% de los pacientes con ELA experimentan articulación del habla poco clara y difícil. Unos síntomas que empeoran con el paso de los meses hasta perder definitivamente esta facultad. Ahora, gracias a los avances tecnológicos, la voz vuelve, aunque sintetizada. «Nuestra solución ha ayudado a un hombre con parálisis a comunicarse con sus amigos, familiares y comunicadores», señala David Brandman, neurocirujano de la UC Davis Health.
Este profesor del Departamento de Cirugía Neurológica de la universidad estadounidense ha desarrollado junto con su equipo un sistema capaz de traducir los impulsos eléctricos y movimientos del cerebro para permitir a los pacientes con ELA la posibilidad de comunicarse con otras personas. «Nuestro trabajo demuestra la neuroprótesis (dispositivo) del habla más precisa de la que se tiene constancia», destaca.
En julio de 2023, Brandman implantó a Harrel en su cerebro cuatro conjuntos de microelectrodos para registrar la actividad cerebral. «Con ellos somos capaces de detectar los intentos del paciente de mover los músculos y hablar», detalla Sergey Stavisky, coinvestigador principal del estudio y también codirector del Laboratorio de Neuroprótesis de la UC Davis.
Con este dispositivo, los investigadores son capaces, explican, de ‘grabar’ la parte del cerebro que envían las órdenes a los músculos. «Básicamente, escuchamos y traducimos esos patrones en un fonema, una sílaba o una unidad del habla», explica Stavisky. «Luego eso se convierte en palabras que intentan decir», añade.
Una vez asignado cada impulso a un fonema o sílaba, el software desarrollado por los investigadores de la UC Davis muestra las palabras decodificadas en una pantalla. «Esto se produce en tiempo real y se hacen actualizaciones continuas del sistema para que siga funcionando con precisión», afirman. Eficacia total Según los datos hechos públicos por los miembros BrainGate, así se llama el proyecto que ha permitido devolver la facultad de comunicarse a este paciente, en la revista científica New England Journal of Medicine , en la primera sesión de entrenamiento con datos de voz el sistema tardó 30 minutos en alcanzar una precisión del 99,6% con un vocabulario de 50 palabras.
En la segunda sesión, el tamaño del vocabulario aumentó a 125.000 palabras. Con sólo 1,4 horas adicionales de datos de entrenamiento, el sistema alcanzó un 90,2% de precisión en las palabras con este vocabulario tan ampliado. Tras una recopilación continuada de datos, mantuvo una precisión del 97,5%. «Llegados a este punto, podemos descodificar correctamente lo que Casey intenta decir el 97% de las veces, lo que es mejor que muchas aplicaciones comerciales para teléfonos inteligentes que intentan interpretar la voz de una persona», celebran los responsables de la investigación. «Además, hemos conseguido que el sistema lea en voz alta con el tono de Harrell antes de padecer ELA», comentan. «Hemos logrado entrenar este softwares con audios existentes de su voz», apostilla Brandman.
«La primera vez que probamos el sistema, Harrell lloró de alegría cuando las palabras que intentaba decir correctamente aparecieron en pantalla. Todos lo hicimos», afirma Stavisky. Tras 84 sesiones y 248 horas repartidas en 32 semanas, la voz de Casey Harrell «volvió a ser escuchada», explican los autores. «Espero que una tecnología como esta ayude a futuros pacientes a hablar con sus familiares y amigos».