Meta ha presentado una nueva herramienta que permite la generación de imágenes y textos con inteligencia artificial (IA) utilizando para ello la predicción de ciertas partes del contenido e imitando el razonamiento humano.
La compañía ha explicado que esta solución es resultado de una idea del científico jefe de IA de Meta, Yann LeCun, que propuso “una nueva arquitectura destinada a superar las principales limitaciones de los sistemas de IA más avanzados”, según ha puntualizado en un comunicado.
Resultado de su trabajo es el Image Joint Embedding predictive Architecture (I-JEPA), una herramienta que recopila datos del mundo exterior, crea un modelo interno de este y compara representaciones abstractas de imágenes, en lugar de comparar los propios píxeles.
La compañía ha recordado que los humanos “aprenden una enorme cantidad de conocimientos previos sobre el mundo observándolo de forma pasiva”, un aspecto que considera “clave para posibilitar un comportamiento inteligente”.
Por eso, el objetivo de este modelo es predecir la representación de una parte de un contenido, como puede ser una imagen o de un texto, a partir del contexto que le ofrezcan otras partes de la composición.
Una vez I-JEPA recoge toda esta información, se encarga de predecir los píxeles ausentes de una imagen o las palabras que no aparecen en un determinado texto, para darle un sentido natural y realista.
Meta ha comentado también que, a diferencia de otras inteligencias artificiales generativas, la suya utiliza “objetivos de predicción abstractos” para los que se eliminan los detalles innecesarios a nivel de píxel, de modo que permita al modelo aprender características semánticas adicionales.
La compañía ha indicado finalmente que continúa trabajando en ampliar el enfoque de esta herramienta a fin de que aprenda modelos “más generales” en base a modalidades más específicas. Por ejemplo, permitiendo hacer predicciones espaciales y temporales sobre acontecimientos futuros con un vídeo a partir de un contexto simple.