Meta lanza Llama 4, nueva generación de modelos abiertos para una IA multimodal
Según recogen nuestros compañeros de MCPRO, Meta ha anunciado el lanzamiento de Llama 4, su nueva generación de modelos de lenguaje de gran tamaño (LLM), ya disponible en tres variantes: Scout, Maverick y Behemoth. Este nuevo paso en la carrera por la inteligencia artificial viene acompañado de ambiciosas mejoras en rendimiento, escalabilidad y capacidades multimodales, todo ello bajo una arquitectura abierta.
Llama 4 introduce por primera vez en la serie una arquitectura basada en mixture of experts (MoE), en la que solo una parte del modelo se activa para procesar cada token, lo cual permite aumentar drásticamente la cantidad total de parámetros sin comprometer el rendimiento. Así, mientras que Llama 4 Scout y Maverick cuentan con 17 mil millones de parámetros activos, el primero se apoya en 16 expertos (109 mil millones en total) y el segundo en 128 (400 mil millones de parámetros totales), detalla Red Hat.
Scout está diseñado para tareas multimodales, integra una ventana de contexto de 10 millones de tokens y puede ejecutarse en una única GPU NVIDIA H100, lo que lo posiciona como líder en su categoría de acuerdo a las pruebas internas de Meta. Por su parte, Maverick es un modelo generalista que supera a competidores como GPT-4o y Gemini 2.0 Flash, y ya ha alcanzado una puntuación destacada de 1417 en LMArena. Behemoth, aún en fase de desarrollo, apunta a ser el modelo más potente de la familia, con 288 mil millones de parámetros activos.
El lanzamiento de Llama 4 ha venido acompañado de una integración inmediata en entornos de desarrollo desarrollada con la colaboración entre Meta, Red Hat y la comunidad de vLLM, gracias a la cual tanto Scout como Maverick pueden desplegarse desde el primer día mediante vLLM en OpenShift AI, permitiendo a las empresas experimentar con modelos de última generación sin necesidad de esperar actualizaciones oficiales del stack.
En este sentido, destaca especialmente la versión cuantizada FP8 de Llama 4 Maverick, que permite desplegar el modelo completo en un solo nodo con 8 GPUs H100. Esta eficiencia es fruto del uso de herramientas como LLM Compressor, desarrolladas también en código abierto por Red Hat, para optimizar la inferencia sin pérdida significativa de calidad.
Scout y Maverick ya están disponibles para su descarga y uso, tanto por desarrolladores como en productos finales de Meta, como WhatsApp, Messenger o Instagram Direct. Además, otras plataformas como Microsoft Azure AI Foundry han comenzado a integrarlos en sus soluciones gestionadas. Meta AI, por el momento, sigue sin estar disponible en el mercado europeo, más allá de los servicios mencionados.
La única duda en torno a este lanzamiento giraría en torno a la naturaleza de código abierto del modelo, discutida recientemente por la misma Open Source Initiative. De hecho, se está hablando últimamente de Llama con el término open code… Pero Red Hat lo tiene claro: «Este es un gran día para la IA de código abierto».
La entrada Meta lanza Llama 4, nueva generación de modelos abiertos para una IA multimodal es original de MuyLinux