Científico de Meta pronostica que en 3 a 5 años los LLMs pasarán de moda y llegará la robótica

dplnews Yann LeCun wef mc240125

Yann LeCun, científico jefe de Inteligencia Artificial (IA) en Meta, pronostica que el paradigma de los grandes modelos de lenguaje (LLM) tendrá una corta existencia, y tendrán que ser reemplazados para dar pie a nuevos sistemas que entiendan el mundo y habiliten nuevas aplicaciones como robótica o mejores asistentes.

Durante un debate sobre tecnología en el ciclo de conferencias de Davos del Foro Económico Mundial, LeCun habló sobre los retos y límites de los actuales grandes modelos de lenguaje utilizados para aplicaciones de Inteligencia Artificial Generativa (GenAI). En ese sentido, admitió que aunque la IA actualmente es “muy útil, y tratamos de hacerla más confiable y aplicable a una gran rango de áreas”, la realidad es que “no está donde quisiéramos”.

En ese sentido, pronostica que durante los próximos tres a cinco años caducará el paradigma actual del LLM como pieza central de la IA Generativa, para dar paso a nuevos sistemas de “comportamiento inteligente” que superen los actuales límites de los modelos basados en texto.

Para ello, enumeró cuatro elementos clave requeridos para estas nuevas arquitecturas que no son posibles con la tecnología actual: entender el mundo real, contar con memoria persistente, y realizar razonamiento y planeación compleja.

Para el científico de Meta, el funcionamiento de un LLM es relativamente simple, ya que derivado del carácter discreto del lenguaje, este sistema básicamente mide la probabilidad de una palabra como continuación de un texto. Esta arquitectura ha permitido que una IA Generativa pueda pasar un examen de Derecho o resolver ecuaciones.

Te puede interesar: Modelos de lenguaje corren el riesgo de colapsar cuando son entrenados con datos generados por IA

Sin embargo, este mismo paradigma no podría ser aplicado en soluciones como robótica, que puedan entender el mundo físico, ya que equivaldría a tratar de predecir video o imágenes en tiempo real. LeCun utilizó la analogía de un niño de cuatro años, que sólo con su sentido de la vista, en su corta vida habría consumido datos cercanos de 10 a la 14 potencia, equivalente al total de información utilizada para entrenar los actuales modelos fundacionales.

El científico indicó que para resolver estos retos, Meta ya está trabajando en técnicas que permitan la creación de “nuevos modelos que podrán razonar y planear, porque tendrán algún modelo mental del mundo que los actuales sistemas no tienen”. 

Gracias a estas nuevas arquitecturas, afirmó que estos sistemas “podrán predecir la consecuencia de sus actos y planear sus actos para alcanzar ciertos objetivos, lo que permitirá Agentes de IA y robótica”.

“En eso estamos trabajando: en que los sistemas construyan modelos mentales del mundo. Si el plan en el que estamos trabajando tiene éxito, con el calendario que esperamos, dentro de tres o cinco años tendremos sistemas que serán un paradigma completamente diferente. Podrán tener cierto nivel de sentido común. Podrán aprender cómo funciona el mundo observándolo y tal vez interactuando con él”, aseguró.

Por otro lado, el directivo destacó la importancia del Open Source o código abierto como la principal base para el desarrollo de la industria de IA, que permita habilitar el acceso a la tecnología a un mayor número de personas, y con una mayor diversidad en términos de lenguajes y cultura.

Asimismo, habló sobre la experiencia de Meta al distribuir Llama como Open Source, pero con cláusulas para evitar que se use en situaciones peligrosas, además de afinar (fine-tune) el modelo para que siga cierta ruta.

Adicionar aos favoritos o Link permanente.