
Image by Freepik
La Inteligencia Artificial de Mente a Voz Traduce las Ondas Cerebrales en Habla
Los científicos han logrado un importante avance en la restauración del habla natural para las personas con parálisis, utilizando implantes cerebrales impulsados por la inteligencia artificial para convertir las ondas cerebrales en palabras habladas en tiempo real.
¿Apurada? Aquí están los datos rápidos:
- El sistema descifra las ondas cerebrales y las convierte en un habla natural y casi instantánea.
- El sistema utiliza la voz del paciente previa a la lesión para crear una síntesis de voz personalizada que permite una comunicación auténtica.
- El modelo de IA decodifica las señales de habla en 80 milisegundos, reduciendo significativamente los retrasos anteriores.
Científicos de la Universidad de Radboud, junto con UMC Utrecht, desarrollaron una tecnología de implantes cerebrales con IA que traduce señales neuronales en palabras habladas con tasas de precisión entre el 92-100%, según informó Neuroscience News. La investigación publicada esta semana en Nature Neuroscience busca desarrollar herramientas de comunicación para personas paralizadas.
La investigación utilizó pacientes con epilepsia con implantes cerebrales a corto plazo para crear asociaciones entre señales neurales y expresiones verbales. El desarrollo reduce el retraso anterior que dificultaba la comunicación para las personas con dificultades del habla.
“Nuestro enfoque de transmisión proporciona la misma capacidad rápida de descodificación del habla de dispositivos como Alexa y Siri a las neuroprótesis”, explicó Gopala Anumanchipalli, co-investigador principal del estudio, según informó New Atlas. “Utilizando un tipo similar de algoritmo, descubrimos que podíamos decodificar datos neurales y, por primera vez, permitir la transmisión de voz casi sincrónica”, agregó.
El sistema funciona capturando la actividad cerebral a través de electrodos de alta densidad colocados en la superficie del cerebro. La IA luego descifra estas señales, reconstruyendo palabras y frases con una precisión notable.
Además, un modelo de texto a voz entrenado con la voz del paciente antes de la lesión garantiza que el habla generada suene natural y se parezca mucho a su voz original.
Una de las autoras del estudio, Cheol Jun Cho, explicó cómo el sistema procesa los pensamientos en el habla: “Lo que estamos decodificando ocurre después de que un pensamiento ha sucedido, después de que hemos decidido qué decir, después de que hemos decidido qué palabras usar y cómo mover nuestros músculos del tracto vocal”, según se informó en New Atlas.
El avance mejora significativamente las tecnologías anteriores. Además, este sistema impulsado por la inteligencia artificial ahora proporciona la iniciación del habla en un segundo, lo que permite conversaciones fluidas e ininterrumpidas. Esta tecnología podría cambiar la vida de las personas con parálisis severa, síndrome de enclaustramiento o condiciones como la ELA, al permitirles comunicarse de manera natural con los demás.
Sin embargo, a pesar de estos avances, la tecnología aún enfrenta desafíos. Como se explicó en Neuroscience News, este IA requiere un entrenamiento exhaustivo en los datos neuronales de una persona y puede que no funcione de manera efectiva para aquellos que carecen de grabaciones de voz previas.
Aunque el sistema puede descodificar palabras, lograr un ritmo y una expresión completamente naturales sigue siendo difícil. Además, los modelos actuales tienen dificultades para predecir frases y párrafos completos, enfocándose principalmente en palabras individuales.
Además, las versiones no invasivas que utilizan cascos EEG tienen una precisión menor, alrededor del 60%, en comparación con los electrodos implantados, según se señala en New Scientist.
Avanzando, los investigadores buscan mejorar la velocidad del habla del sistema y su expresividad, haciendo que las conversaciones se sientan aún más reales.
Dejar un comentario
Cancelar