Investigadores de Texas logran traducir los pensamientos de una persona en palabras con IA

Un equipo de especialistas de la universidad de Texas logró transformar las gráficas de un escáner cerebral en frases y textos utilizando un sistema basado en GPT.

Tres sujetos fueron sometidos a oír un podcast del New York Times y monólogos de un programa anglosajón mientras su cerebro era escaneado. Gracias a un descodificador diseñado por ellos mismo, un equipo de científicos estadounidenses logró transformar las gráficas del escáner cerebral en frases completas y textos que reproducían con fidelidad lo que habían oído.

En este sentido algunos resultados compartidos por la revista Nature Neuscience, el descodificador fue bautizado como “semántico” y fue capaz de verbalizar lo que pensaban y, aún más interesante, lo que les pasaba por la cabeza mientras observaban el cine mudo.

Te podria interesar:Ingeniero de Google renunció a su cargo para alertar sobre los “peligros” de la IA

El grupo de investigadores, el cual proviene de la Universidad de Texas (Estados Unidos) utilizó un sistema de inteligencia artificial bastante familiar en nuestra época: GPT, el mismo que se emplea para el bot ChatGPT. En tanto, este modelo de lenguaje usa aprendizaje profundo para poder generar textos.

La investigación en cuestión utilizó el sistema para poder entrenarlo con las imágenes fMRI del cerebro de tres sujetos que oyeron audios de un consultorio del New York Times y del programa The Moth Radio Hour durante 16 horas. Siguiendo este patrón lograron corresponder lo que observaban con la representación en su cabeza. Bajo este esquema, la idea era que cuando volvieran a escuchar otro texto, el sistema lograra ir anticipándolo basándose en patrones anteriormente aprendidos.

pensamientos_inteligencia_artificial.jpg

“Se trata del GPT original, no como el nuevo [ChatGPT se apoya en la última versión de GPT, la 4]. Recopilamos una tonelada de datos y luego construimos este modelo, que predice las respuestas cerebrales a las historias”, explicó Alexander Huth, neurocientífico de la universidad mencionada,en una conferencia via web la semana anterior.

“Lo que pueden descodificar es cómo la persona está tratando de mover la boca para decir algo. Nuestro sistema funciona en un nivel muy diferente. En lugar de fijarnos en el ámbito motor de bajo nivel, trabaja en el nivel de las ideas, de la semántica, del significado. Por eso no registra las palabras exactas que alguien escuchó o pronunció, sino su sentido”, refiere Huth al explicar las formas de funcionar del llamado “semántico”. Para lograr esto, los científicos se centraron en registrar la actividad de zonas cerebrales relacionadas con la audición y el lenguaje.

Ya anticipando los temores que podría generar su descubrimiento, los autores de los experimentos intentaron probar su podían utilizar su sistema para leer la mente de otros sujetos. De esta forma, comprobaron que el modelo entrenado en una persona no acertaba al querer descifrar lo que oía o veía otra.

dia o noche