Público
Público

Máquinas que leen la mente

Un nuevo sistema de inteligencia artificial puede reconstruir los pensamientos de una persona con gran exactitud a partir del escaneo de su cerebro con fMRI.

Una resonancia magnética muestra un cerebro humano
Una resonancia magnética muestra un cerebro humano. Pixabay

Metidos cada uno en un escáner de resonancia magnética funcional, tres voluntarios escucharon pacientemente varias historias –en concreto, de un podcast famoso en Estados Unidos–. Mientras, un modelo de lenguaje (LLG, siglas en inglés de Large Language Model), el GPT-1, al que los investigadores se refieren como "descodificador", iba analizando sus patrones de actividad cerebral en distintas regiones del córtex, buscando correlaciones entre esos datos y el contenido de los mensajes que estaban escuchando. Durante 16 horas –¡no seguidas!– entrenaron al programa para que fuera capaz de traducir la forma en que el cerebro reproducía las historias mientras las escuchaba.

En la siguiente fase del experimento, los voluntarios escuchaban una nueva historia, también dentro del escáner, mientras el decodificador iba generando texto solo a partir de la actividad cerebral registrada por las imágenes neuronales. El éxito fue sorprendente: alrededor del 50% de las veces, el mensaje producido era semánticamente parecido, cuando no idéntico, al original. Lo mismo ocurría cuando, en vez de reproducir un audio, se les ponía un vídeo corto en silencio. El programa era capaz de crear sinopsis de su contenido, solo a partir del escáner cerebral.

¿Funcionaría también para adivinar el pensamiento del voluntario, sin que este escuchara nada? Los investigadores comprobaron que sí. En la siguiente prueba, se les pedía a los participantes que imaginaran una idea o un mensaje bajo el escaneo del fMRI. Y el decodificador fue, de nuevo, capaz de transcribir la actividad cerebral a palabras con bastante precisión en cuanto al contenido semántico.

Por ejemplo, cuando un voluntario pensó: "Busco un mensaje de mi mujer diciéndome que ha cambiado de opinión y que quiere volver conmigo", el GPT tradujo: "Al verla pensé que volvería conmigo y me diría que me echa de menos".

Y es que el decodificador funciona con ideas, significados y semántica, no con las palabras exactas, según explica el inventor de esta joya, el neurocientífico Alexander Huth. Este investigador en la Universidad de Texas en Austin, llevaba 15 años tratando de encontrar la manera de leer la mente a la gente. No con telepatía ni poderes paranormales, sino un un escáner de resonancia magnética funcional, una herramienta que capta la actividad de nuestras neuronas, retratando los niveles de oxigenación de la sangre en distintas zonas del encéfalo.

Hasta que se le ocurrió contratar los servicios de un programa de inteligencia artificial conversacional, el GPT-1, precursor del que usa el famoso ChatGPT del que todos hablamos. Estos modelos pueden representar mediante secuencias de números el significado de un texto, seleccionando palabras dentro de un mismo campo semántico.

¿Ya no podemos ni pensar en secreto?

La idea es brillante: un interface mente-ordenador que puede traducir lenguaje continuo mediante neuroimágenes no invasivas, generando "secuencias inteligibles de palabras que pueden recuperar el significado de un audio escuchado, un texto imaginado e, incluso, vídeos sin sonido", apunta Huth. La base de todo está en otro detalle que este experimento ha dejado bastante claro: pensamos e imaginamos las cosas con frases y palabras. Un terreno en que los GPT son expertos.

"El decodificador tendrá muchas aplicaciones científicas y prácticas", escribían los autores hace un par de semanas en Nature Neuroscience. Es una buena noticia para personas que han perdido el habla por culpa de un infarto o una enfermedad de la neurona motora, a pesar de que implica tener que meterse en una aparatosa y costosa máquina de resonancia magnética cada vez que quieran comunicarse.

Pero es una noticia pésima para quienes luchan contra corriente para proteger su privacidad mental frente a la invasión algorítmica. Aunque los autores del estudio aseguran que no hay que preocuparse y que, para que su experimento funcione, los participantes deben colaborar. Si durante el escaneo cerebral recreaban a propósito imágenes de distracción –pensar en animales, por ejemplo–, el invento no funcionaba para reproducir lo que estaban escuchando en el audio.

Además, aseguran que el modelo no es universal y que funciona solo si se aplica a la persona con la que se le ha entrenado previamente. Sin embargo, otros experimentos similares, como uno publicado en la revista científica Cerebral Cortex en 2017, donde una IA leía imágenes del cerebro de voluntarias bajo un escáner de fMRI, muestran que no es que no funcione con otra persona, sino que su precisión es menor.

En este caso, el índice de aciertos era del 50% si el algoritmo predictivo se aplicaba a la persona con la que había sido entrenado y del 25% si se le aplicaba a otra persona diferente.

El cerebro, la última frontera por conquistar

Sea como sea, el estudio de la Universidad de Texas supone un paso más en una carrera que comenzó hace décadas, la de conectar la mente a la máquina directamente, con logros de película como los de Eric Leuthardt, neurocirujano de la Universidad de Washington en San Luis, que ya en 2014 aseguraba que una verdadera integración entre mente y ordenadores es inevitable: "Es solo cuestión de tiempo. Al paso que vamos, no es inconcebible que dentro de 20 años todo lo que contiene un smartphone quepa en algo más pequeño que un grano de arroz. Podría introducirse en la cabeza de forma mínimamente invasiva y sería capaz de actuar como un verdadero interfaz mente-máquina".

En uno de los experimentos que hizo Leuthardt con pacientes con epilepsia que tenían electrodos implantados dentro del cráneo, les pidió que realizaran ciertas tareas –moverse, hablar, pensar que movían o hablaban– y ver cómo estas quedaban retratadas en un electroencefalograma (EEG) hecho a partir de sus implantes.

Alguno de los pacientes de Leuthardt llegaron a ser capaces de jugar a Space Invaders solo con la mente. Es decir, al pensar que se movían a la derecha, los electrodos implantados en su cabeza captaban la activación de ciertas neuronas de su córtex motor, las enviaban a un ordenador y este seguía las instrucciones "pensadas", traduciéndolas en el movimiento de la nave en el juego. Y esto ocurrió en 2004.

De lo que se ha avanzado hasta ahora, la mitad, ni lo sabemos. Proyectos como el de Neuralink llevan años sobre el tapete, con el objetivo de crear un "lazo neural" que funcione como un miniordenador implantado en el cerebro.

Por si alguien se asusta por las implicaciones éticas y posibles malos usos, Elon Musk, el propietario de Neuralink, nos tranquiliza: "Ya todos somos ciborgs. Nuestro teléfono y todas las aplicaciones que usamos son una extensión de nosotros mismos. De lejos, tenemos más poder y más capacidad aumentadas por la tecnología que el presidente de los Estados Unidos tenía hace 30 años", dice.

¿Te ha resultado interesante esta noticia?