Mujer con parálisis volvió a hablar y gesticular gracias a IA y a un avatar

Por primera vez, en una paciente con una grave lesión cerebral (parálisis), se logró decodificar el habla (la voz) y las expresiones faciales a partir de señales impulsadas por una cerebro – computadora basada en inteligencia artificial (IA). Los científicos las universidades de San Francisco y Berkeley, ahora trabajan para que más personas como Ann en el futuro, se comuniquen de manera más natural por medio de un avatar. ¿Cómo lograron este hito de la ingeniería médica?


Ann sufrió un derrame cerebral a sus 30 años que le causó una parálisis de los músculos del cuerpo y el rostro. Le tomó varios años de fisioterapia mover los músculos de la boca, pero aún sin poder emitir palabras. “De la noche a la mañana me quitaron todo. Tenía una hija de trece meses, un hijastro de ocho años y un matrimonio de dos años”.

Después de quince años del accidente cerebral, Ann experimenta cambios importantes en su vida. Ella dicidió participar en un estudio de la UC San Francisco y UC Berkeley, con el objetivo de desarrollar una nueva tecnología que le permite comunicarse a ella y a personas con sus limitaciones.

Tras pruebas, es la primera vez que la ingeniería médica logra sintetizar el habla (la voz) y la expresiones faciales (gesticulación) visto a través de un avatar digital. El sistema también puede decodificar las señales que emite el cerebro de Ann en texto, a casi 80 palabras por minuto. O sea 66 palabras más en velocidad que el dispositivo que utilizaba.

Te puede interesar: ¡Ojo! El tiempo que pasan los niños menores de 5 años en pantallas afecta el desarrollo de la comunicación

“Nuestro objetivo es restaurar una forma de comunicación plena y encarnada, que es más natural al hablar con los demás. Estos avances nos acercan mucho a la solución real para este tipo de pacientes”, explicó Edward Chang, presidente de cirugía neurológica de la UCSF.

Antes de su lesión en 2005, Ann ejercía como profesora de matemáticas en una escuela de Canadá. Se enteró del estudio en 2021 al leer un artículo sobre un hombre paralítico que ayudó a traducir señales en texto mientras intentaba hablar.

Ann ahora tiene un chip de 253 electrodos implantado en la superficie del cerebro, sobre las áreas críticas que le impiden hablar. Los electrodos interceptaron las señales cerebrales que van a hacia sus labios, lengua, laringe, la lengua, la mandíbula y su cara. Estas señales fueron conectadas con un con un cable a un banco de computadores y es así como la inteligencia artificial (IA) ahora le hace hablar por medio de un avatar 3D.

Te puede interesar: Esto descubrió una chilena que ayudó a la NASA a encontrar nuevos planetas: “Un Chile bonito pero más bien inventado”

Durante semanas, Ann entrenó los algoritmos de IA para que el sistema reconociera sus señales cerebrales. Esto implicó repetir diferentes frases de un vocabulario conversacional de 1.024 palabras, hasta crear los patrones asociados de habla.

“La precisión, la velocidad y el vocabulario (en inglés) son cruciales para el desarrollo de esta tecnología. Es lo que le dará a Ann un potencial que con el tiempo, le permitirá comunicarse tan rápido como nosostros”, explica Sean Metzger, quien desarrolló de texto junto a Alex Silva, ambos estudiantes del Programa de Bioingeniería de Berkeley.
El paso a seguir para el equipo de científicos es crear una versión inalámbrica que no requiera conexión por cableado a la BCI.

Digna Irene Urrea

Digna Irene Urrea

Comunicadora social y periodista apasionada por las buenas historias, el periodismo literario y el lenguaje audiovisual. Aficionada a la tecnología, la ciencia y la historia.

View all posts

Archivos