Así como las personas de distintos países hablan distintos idiomas, los modelos de inteligencia artificial (IA) también crean diversos «lenguajes» internos, lo que -hasta ahora- impide que los productos desarrollados por diferentes empresas puedan comunicarse directamente.
Como en una verdadera Torre de Babel informática, este problema provoca que los modelos de IA que provienen de distintos desarrolladores no puedan colaborar ni combinar sus fortalezas para mejorar su rendimiento.
También le puede interesar: United Airlines apuesta a la inteligencia artificial israelí a bordo
Frente a esto, un equipo de investigadores del Instituto Weizmann y de los Intel Labs en Israel diseñó un nuevo conjunto de algoritmos que supera esa barrera, permitiendo a los usuarios beneficiarse de la potencia computacional combinada de los modelos de IA.
Los algoritmos, disponibles para los desarrolladores de inteligencia artificial en todo el mundo, aceleran el rendimiento de los modelos de lenguaje grande (LLM, los principales modelos actuales de IA generativa), en un promedio de 1,5 veces, afirmaron desde el Weizmann.
Se trata de un asunto de gran importancia. Por ejemplo, ChatGPT y Gemini son herramientas potentes pero presentan serios problemas (son lentos y consumen mucha potencia de procesamiento), algo que podría beneficiarse de la colaboración y la división del trabajo.
Eso condujo al desarrollo de un método llamado decodificación especulativa, en el que un modelo pequeño y rápido, con un conocimiento relativamente limitado, presenta una primera respuesta a la consulta del usuario.
Luego, un modelo más grande, más potente pero más lento, revisa y corrige la respuesta si es necesario.
Un problema para las startups
El método fue rápidamente adoptado por los gigantes tecnológicos por su alta precisión. Pero tenía una gran limitación: ambos modelos debían «hablar» el mismo lenguaje digital, lo que significaba que los modelos desarrollados por diferentes empresas no podían combinarse.
Si una startup buscaba beneficiarse de la decodificación especulativa, tenía que entrenar su propio modelo pequeño que se ajustara al modelo de lenguaje grande.
Ese esfuerzo «requiere mucha experiencia y costosos recursos computacionales», explicó Nadav Timor, estudiante de doctorado del equipo del profesor David Harel en el Departamento de Ciencias de la Computación y Matemáticas Aplicadas del Instituto Weizmann.
En cambio, los nuevos algoritmos desarrollados por los investigadores de Intel y de la universidad israelí permiten a los desarrolladores combinar cualquier modelo pequeño con cualquier modelo grande, lo que les permite trabajar en equipo.
«Al principio, nos preocupaba que se perdiera demasiada información en la traducción y que los diferentes modelos no pudieran colaborar eficazmente», dijo Timor.
Sin embargo, destacó, «nuestros algoritmos aceleran el rendimiento de los LLM hasta 2,8 veces, lo que se traduce en un ahorro considerable en potencia de procesamiento».
Decisiones seguras y vehículos autónomos menos peligrosos
Timor subrayó que este nuevo avance es «especialmente importante para los dispositivos periféricos, desde teléfonos y drones hasta coches autónomos, que deben depender de una potencia de cálculo limitada cuando no están conectados a internet».
«Imagine, por ejemplo, un vehículo autónomo guiado por un modelo de IA: en este caso, un modelo más rápido puede marcar la diferencia entre una decisión segura y un error peligroso», completó el investigador.
Para seguir leyendo: En Israel buscan que la inteligencia artificial "hable el idioma" de los médicos
El avance fue reconocido por la International Conference on Machine Learning (ICML) que se celebra esta semana en Vancouver, Canadá: fue seleccionado para su presentación pública, una distinción otorgada solo a alrededor del 1 por ciento de las 15.000 propuestas recibidas este año.
«Logramos solucionar una ineficiencia fundamental de la IA generativa», apuntó Oren Pereg, investigador de Intel Labs y coautor del estudio. «No se trata solo de una mejora teórica: son herramientas prácticas que ya ayudan a crear aplicaciones más rápidas e inteligentes», concluyó.













