Imagina que un día te despiertas y no puedes mover tu cuerpo, salvo por tus ojos. No puedes hablar, ni sonreír, ni ir a trabajar, ni expresar tus sentimientos. Estás consciente de todo lo que pasa a tu alrededor, pero no puedes decirle a nadie lo que piensas. Estás solo en tu mente, sin poder salir de tu cuerpo.
Esta es la realidad de las personas que sufren el síndrome de enclaustramiento, una condición neurológica que se produce por una lesión en el tallo cerebral, que gracias al desarrollo de nuevas tecnologías no es una situación sin esperanza.
¿Cómo podrían las máquinas ayudar a los pacientes incomunicados?
La llegada de las interfaces cerebro-máquina, también conocidas como implantes cerebrales, ha alimentado la esperanza de devolver la comunicación a las personas en este estado, permitiéndoles reconectar con el mundo exterior.
La mayoría de estas tecnologías utilizan un dispositivo implantado en el cerebro para registrar las ondas cerebrales asociadas al habla y emplean algoritmos informáticos para traducir todos los mensajes.
Lo más interesante de estos avances en los implantes cerebrales es que no requieren parpadeo, seguimiento ocular ni intentos de vocalización, sino que capturan y transmiten las letras o palabras que una persona dice en silencio en su cabeza.
Esta tecnología tiene el potencial de ayudar a las personas que ya no pueden comunicarse en absoluto y está siendo desarrollada por científicos estudiantes de posgrado del Caltech, en Pasadena, California, quienes han aportado las primeras pruebas de que las interfaces cerebro-máquina pueden decodificar el habla interna.
¿Cómo funcionan las interfaces cerebro-máquina?
El primer paso para crear una interfaz cerebro-máquina es decidir qué parte del cerebro se va a utilizar; esto debido a que aún no se ha descubierto una región del cerebro responsable del lenguaje interno y varias regiones diferentes podrían ser viables.
Imagina que tu cerebro es el campo de futbol y que cada neurona es un jugador en el campo. Los electrodos son las cámaras que se colocan en el campo para poder grabar el partido, pero ¿las ponemos cerca del árbitro, de un comentarista o de algún jugador que creemos sabe lo que realmente está pasando?
¿Desde qué ángulo podemos entender todo lo que ocurre en el partido? Cuando vemos el grito de la afición, ¿es un gol? ¿Fue una jugada de tiro? ¿Le han hecho una falta al delantero?
Es decir, a través de los electrodos los científicos intentan entender las reglas del juego, y cuanta más información puedan obtener, mejor será el dispositivo.
Esto es posible gracias a que los pequeños aparatos que se insertan en el cerebro se ubican en zonas donde interactúan las neuronas. Estos aparatos pueden ver y escuchar lo que las neuronas se dicen unas a otras, a través de una especie de chispas o explosiones químicas que viajan entre ellas.
Es decir, cada vez que una neurona se activa y manda una chispa a otra neurona, los aparatos las graban y las convierten en archivos, que muestran lo que las personas quieren hacer o decir.
Cabe destacar que cuando el equipo de científicos de Caltech entrenaron su interfaz cerebro-máquina intentando reconocer los patrones cerebrales producidos por un participante tetrapléjico, lo hicieron decir internamente seis palabras (campo de batalla, vaquero, serpiente, cuchara, natación, teléfono).
Tras solo 15 minutos de entrenamiento, y utilizando un algoritmo de decodificación, el dispositivo pudo identificar las palabras con una precisión superior al 90%.
El mayor reto de los implantes cerebrales
En la actualidad, cerca de 40 personas de todo el mundo llevan implantadas matrices de microelectrodos, y cada vez hay más. Muchos de estos voluntarios pasan horas conectados a computadoras, ayudando a los investigadores a desarrollar nuevas interfaces que permitan a otros, algún día, recuperar las funciones que han perdido.
Aunque hay mucho entusiasmo por estos resultados en la comunidad científica, advierten que aún queda mucho camino por recorrer antes de su aplicación práctica.
Mientras tanto, otras investigaciones están centradas en el diseño de interfaces cerebro-máquina que no requieran cirugía cerebral.
Estos enfoques, en su mayoría, han fracasado porque cuando tratan de darle sentido a las señales a través de capas de tejido y hueso, es como si intentaran ver un partido desde el estacionamiento.
En este sentido, quizá el mayor reto sea codificar el habla interna que varía, según el individuo o la situación. Y quizá la mejor aliada a la hora de adaptar estos dispositivos a cada uno de los individuos, será la inteligencia artificial.