La inteligencia artificial (IA) está arrasando la tecnología y la economía de todo el mundo y posiblemente será omnipresente en algunos años, pero todavía hay algo que no puede hacer: leer como lee el cerebro humano.
Así lo estableció un estudio de científicos del Technion, la famosa universidad de Haifa, en el norte de Israel, cuyos resultados fueron publicados en la revista especializada Nature Communications.
También le puede interesar: Científicos israelíes logran que un paciente "hable", usando solo el pensamiento
A diferencia de los modelos de lenguaje artificial, que procesan textos largos como un todo, el cerebro humano crea un «resumen» mientras lee, lo que le ayuda a comprender lo que viene a continuación, señalaron los investigadores.
En los últimos años -agregaron-, los large language models (LLM o modelos extensos de lenguaje) como ChatGPT revolucionaron el procesamiento de texto impulsado por IA, lo que permite que las máquinas generen texto, «traduzcan idiomas y analicen sentimientos».
Esos modelos, destacaron desde el Technion, están inspirados en el cerebro humano, pero siguen existiendo diferencias clave.
Textos breves y textos largos
Para demostrar esas diferencias, el estudio analizó imágenes de resonancia magnética funcional del cerebro de 219 participantes mientras escuchaban historias. Los investigadores compararon la actividad cerebral con las predicciones realizadas por LLM existentes.
Así descubrieron que los modelos de IA predijeron con precisión la actividad cerebral para textos breves (unas pocas docenas de palabras). Sin embargo, en el caso de textos más largos, los modelos de inteligencia artificial no lograron predecir con precisión la actividad cerebral.

¿La razón? Mientras que tanto el cerebro humano como los LLM procesan textos cortos en paralelo (analizando todas las palabras a la vez), el cerebro cambia de estrategia para textos más largos.
Como el cerebro no puede procesar todas las palabras simultáneamente, almacena un resumen contextual (una especie de «depósito de conocimiento») que utiliza para interpretar las palabras que aparecen a continuación.
En cambio, los modelos de inteligencia artificial procesan todo el texto de una sola vez, por lo que no requieren el mecanismo de «resumen» que desarrolla el cerebro humano.
Esa diferencia clave explica por qué la IA tiene dificultades para predecir la actividad cerebral humana cuando escucha textos largos, señalaron los investigadores.
Resumiendo información
Para poner a prueba la teoría, el equipo encabezado por los profesores Roi Reichart y Refael Tikochinski desarrolló un modelo de IA mejorado que imita el proceso de «resumen» del cerebro.
En lugar de procesar todo el texto de una sola vez, el modelo creó resúmenes dinámicos y los utilizó para interpretar textos futuros.
Para seguir leyendo: Es uno de los padres de la inteligencia artificial. Y está muy preocupado por el futuro
La variante mejoró significativamente las predicciones de la inteligencia artificial sobre la actividad cerebral, lo que respalda, señalaron desde el Technion, «la idea de que el cerebro humano está constantemente resumiendo información pasada para dar sentido a la nueva información».
Esa capacidad «nos permite procesar grandes cantidades de información a lo largo del tiempo, ya sea en una conferencia, un libro o un podcast«, completaron los voceros de la universidad israelí.