Pancho (cuyo verdadero nombre ha sido reservado) es un hombre que sufrió un derrame cerebral a los 20 años, por lo que perdió la capacidad de articular palabras. Los sonidos que emanan de él se limitan a gruñidos y gemidos. Sin embargo, él puede entender tanto el español como el inglés. Su cerebro es bilingüe. Hace unos años, se sometió a una cirugía cerebral para que le implantaran electrodos con la promesa de contribuir a la ciencia y mejorar su calidad de vida. Hoy, una inteligencia artificial (IA) interpreta las palabras que él piensa en tiempo real, las traduce a otro idioma y las convierte en texto en una pantalla.
El paciente de la Universidad de California, con nombre clave ‘Pancho’ y cuya lengua materna es el español, acaba de inaugurar el primer sistema de decodificación bilingüe en tiempo real. Este hito tecnológico de interfaz cerebro-maquina, liderado por los doctores Alexander Silva, Edward Chang y Jessie Liu, fue publicado en la revista Nature Biomedical Engineering.
Los idiomas y las traducciones cerebrales
Para 2024 no son pocos los estudios que investigan la decodificación del habla a partir de la actividad cerebral. La mayoría de las investigaciones funcionan mediante la interpretación de señales neuronales utilizando el aprendizaje profundo para luego mostrar esos impulsos como información digital en una pantalla. Dichos sistemas auxiliares de comunicación son muy prometedores: pueden plasmar hasta 78 palabras por minuto, mientras que una conversación normal tiene un ritmo promedio de 160 palabras por minuto.
Casi todos los estudios se han centrado en el idioma inglés. Para que estos dispositivos puedan aplicarse a la población en general, es fundamental que se prueben con pacientes que hablen otras lenguas maternas. Según el Instituto Cervantes, para 2023, el español era la segunda lengua materna más hablada del planeta, con cerca de 500 millones de usuarios.
Después de un largo proceso de entrenamiento bilingüe utilizando el cerebro del paciente, la computadora y a Pancho escribieron “My family is outside”, pero él pensó directamente “mi familia está afuera”. El dispositivo no requirió que el hombre realizara el proceso de traducción internamente. La IA ya sabía cómo se veía la actividad cerebral del concepto “familia” tanto en español como en inglés.
Según los resultados del modelo predictivo bilingüe, ahora el paciente puede formular oraciones complejas con un 88% y 75% de precisión, así como mantener conversaciones espontáneas con sus compañeros de habitación. Alexander Silva afirmó en Nature que la primera vez que escucharon una frase traducida directamente de la mente de Pancho, se quedaron sonriendo de satisfacción durante minutos.
Interfaces cerebro-máquina
Uno de los hallazgos inesperados del estudio es la visualización del cerebro bilingüe. Hasta ahora, se creía que hablar dos idiomas diferentes implicaba que el cerebro trabajaba en áreas distintas. Sin embargo, las señales recibidas por el sistema de traducción de la Universidad de California indican que gran parte de la actividad en español o en inglés proviene de la misma área. Para continuar explorando la complejidad del cerebro, el sistema de traducción debe replicarse con hablantes de otros idiomas en contextos diferentes, como aquellos basados en ideogramas que se leen de derecha a izquierda, entre los que destacan el japonés o el mandarín.
Las interfaces cerebro-máquina comienzan a ser una tendencia en el campo de las innovaciones médicas. Noland Arbaugh es la primera persona en usar un dispositivo cerebral de Neuralink, la compañía de Elon Musk. A pesar de ser cuadripléjico, gracias a su implante puede controlar una computadora o jugar videojuegos con su mente.