Meta Llama 4, la IA multimodal más avanzada, redefine el procesamiento de datos en múltiples formatos.
ha presentado la última versión de su modelo lingüístico avanzado, Llama 4, que incluye las variantes Llama 4 Scout y Llama 4 Maverick.
Este sistema de inteligencia artificial (IA) es multimodal, lo que significa que puede manejar y combinar múltiples tipos de datos, como texto, video, imágenes y audio, convirtiendo contenido entre estos formatos.
Según Meta, Llama 4 Scout y Llama 4 Maverick son sus “modelos más avanzados hasta la fecha” y destacan por su capacidad de multimodalidad.
Además, Meta ha anunciado que ambos modelos serán de código abierto.
La compañía también está en proceso de previsualizar Llama 4 Behemoth, descrito como “uno de los LLM más inteligentes del mundo y nuestro más potente hasta ahora para servir como maestro para nuestros nuevos modelos”.
En el contexto de un creciente interés en la inteligencia artificial, impulsado por el éxito de ChatGPT de OpenAI, las grandes empresas tecnológicas están invirtiendo fuertemente en infraestructura de IA.
Sin embargo, The Information informó que el lanzamiento de Llama 4 se retrasó debido a que no cumplió con las expectativas técnicas de Meta, especialmente en tareas de razonamiento y matemáticas.
Además, se señaló que Llama 4 tiene dificultades para mantener conversaciones de voz que se asemejen a las humanas, en comparación con los modelos de OpenAI.
En respuesta a la presión de los inversores, Meta planea invertir hasta 65,000 millones de dólares este año para mejorar su infraestructura de IA, buscando demostrar el valor de sus inversiones.