viernes, 19 diciembre 2025

Un implante cerebral traduce el pensamiento en voz en tiempo real

El dispositivo permite a un hombre hablar expresivamente y cantar

Al azar

Un hombre con una grave discapacidad del habla ha vuelto a comunicarse con fluidez gracias a un implante cerebral que convierte su actividad neuronal en palabras habladas, casi en tiempo real. Este avance tecnológico, publicado en Nature, marca un hito en el desarrollo de las interfases cerebro-computadora al lograr no solo traducir las palabras pensadas por el usuario, sino también replicar elementos esenciales de la expresión natural del lenguaje, como el tono, la entonación y el énfasis.

La tecnología detrás de la voz

Este sistema pionero utiliza inteligencia artificial (IA) para decodificar la actividad eléctrica del cerebro cada 10 milisegundos, una velocidad sin precedentes. A diferencia de versiones anteriores, que tardaban segundos o dependían de que el usuario completara frases completas antes de procesarlas, esta nueva interfaz permite habla espontánea, continua y expresiva, una verdadera revolución en este campo.

Perdió la capacidad de hablar por ELA

El protagonista de este estudio es un hombre de 45 años que perdió la capacidad de hablar con claridad tras desarrollar esclerosis lateral amiotrófica (ELA), una enfermedad neurodegenerativa que afecta las neuronas motoras. Aunque aún podía emitir sonidos y mover la boca, su habla era tan lenta y confusa que se volvió ineficaz para la comunicación cotidiana.

Cinco años después del inicio de sus síntomas, se le implantaron 256 electrodos de silicio en una región cerebral clave para el control del movimiento. Estos electrodos captan las señales cerebrales asociadas con la intención de hablar. Luego, un sistema de aprendizaje profundo fue entrenado para traducir esas señales directamente en sonidos.

Más allá de las palabras: emoción y autenticidad

Uno de los aspectos más innovadores de este avance es que no se limita a descodificar palabras específicas o fonemas (las unidades mínimas del habla), sino que es capaz de interpretar expresiones no verbales como “ah”, “oh” o “hmm”, y hasta palabras inventadas. Esto permite una comunicación más natural y abierta, sin estar restringida por un vocabulario predeterminado.

Además, los investigadores lograron personalizar la voz sintética para que sonara como la del paciente antes de enfermar, utilizando grabaciones antiguas de entrevistas. Esta personalización tuvo un profundo impacto emocional: el participante expresó que escuchar su “voz real” lo hizo sentirse feliz y más conectado consigo mismo.

Lenguaje con matices humanos

El sistema también fue capaz de detectar si una oración era pronunciada como una pregunta o como una afirmación, e identificar qué palabra se enfatizaba dentro de una frase. Esto representa un gran salto respecto a interfases cerebro-computadora anteriores, que solo producían voces robóticas y monótonas. Las nuevas están incorporando elementos fundamentales del habla humana que son clave para comunicar emociones y significados.

Un futuro cercano para quienes no pueden hablar

Los expertos consideran este avance un cambio de paradigma, pues acerca estas tecnologías a un uso real y cotidiano por parte de personas con discapacidades severas del habla. La fluidez, naturalidad y personalización logradas por este sistema podrían hacerlo lo suficientemente intuitivo y emocionalmente satisfactorio como para integrarse en la vida diaria.

Este logro no solo representa un triunfo de la neurociencia y la ingeniería, sino también un acto profundamente humano: restaurar la voz a quien la ha perdido. La tecnología nos acerca a una comunicación auténtica, rápida y emocionalmente rica, directamente desde el cerebro.


Referencia

Wairagkar, M. et al., Naturehttps://doi.org/10.1038/s41586-025-09127-3 (2025).

Relacionados

Dejar un comentario

Lo más visto últimamente

Lo más visto desde siempre

Descubre más desde TRIPLENLACE

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo