Meta renueva su apuesta en IA con Llama 4: nuevos modelos, arquitectura más eficiente y despliegue limitado

Última actualización:
  • Meta lanza Llama 4 con tres variantes: Scout, Maverick y Behemoth, con enfoque multimodal y código abierto.
  • Los modelos incorporan arquitectura Mixture of Experts (MoE) y ventanas de contexto de hasta 10 millones de tokens.
  • Scout y Maverick ya están disponibles en apps como WhatsApp o Instagram, mientras que Behemoth aún está en desarrollo.
  • La distribución de Llama 4 está restringida fuera de EE.UU. por marcos legales, especialmente en la UE.

modelo llama 4 meta IA

Meta ha dado un nuevo paso en la evolución de su ecosistema de Inteligencia Artificial con el lanzamiento de Llama 4, una colección de modelos que buscan competir con los gigantes actuales del sector como GPT-4 o Gemini. Con una arquitectura renovada y la incorporación de capacidades multimodales, la compañía de Mark Zuckerberg intenta reforzar su posición en una carrera marcada por la innovación y la velocidad de desarrollo.

La familia Llama 4 llega con tres modelos principales: Scout, Maverick y Behemoth, cada uno con características distintas pensadas para cubrir un amplio abanico de necesidades, desde tareas cotidianas hasta usos altamente especializados. Además, la apuesta de Meta sigue siendo clara: mantener el código abierto como elemento diferenciador, lo que sitúa a estos modelos en un lugar destacado dentro del panorama de herramientas accesibles para empresas y desarrolladores individuales. Para estos últimos, el código abierto de Llama 4 puede ofrecer la oportunidad de experimentar y desarrollar aplicaciones personalizadas.

Una nueva arquitectura para una nueva generación

Uno de los aspectos más relevantes de Llama 4 es su arquitectura basada en la técnica Mixture of Experts (MoE). Este enfoque permite que, en lugar de activar todos los parámetros del modelo en cada consulta, solo entren en funcionamiento las partes necesarias para cumplir una tarea determinada. Esto no solo mejora la eficiencia, sino que también reduce la carga computacional y acelera las respuestas. Con el avance en arquitectura, los desarrolladores de IA pueden explorar nuevas posibilidades, como las que se presentan en el artículo sobre Microsoft Loop.

  Datos sintéticos: qué son, cómo se generan y para qué se utilizan

Llama 4 Scout y Maverick comparten una base de 17.000 millones de parámetros activos, aunque se diferencian en el número de expertos que utilizan: Scout recurre a 16, mientras que Maverick emplea 128. Esta configuración diferencia sus capacidades, enfocando a Scout en tareas técnicas como el análisis de código o la síntesis de documentación, y a Maverick en funciones más generales como la escritura creativa o la interpretación de texto e imagen. Para aquellos interesados en el análisis de código, la arquitectura de Llama 4 puede resultar fundamental y pueden encontrar más información en el post sobre Python.

En cambio, Behemoth representa una apuesta hacia la frontera del desarrollo de modelos. Aunque aún está en fase de entrenamiento, se ha desvelado que cuenta con 288.000 millones de parámetros activos distribuidos entre 16 expertos. Según Meta, sus primeras pruebas lo sitúan por encima de competidores como GPT-4.5, Claude 3.7 o Gemini 2.0 Pro en benchmarks centrados en áreas STEM.

que es el euro digital-0
Artículo relacionado:
¿Qué es el euro digital y cómo va a cambiar nuestro dinero?

Multimodalidad como clave del futuro

La multimodalidad es otra de las señales distintivas de esta nueva generación. Scout y Maverick están diseñados para comprender y trabajar con diferentes tipos de entradas como texto, imágenes e incluso vídeo, permitiendo así desarrollar asistentes más versátiles y adaptables. Esto se traduce en aplicaciones más sofisticadas dentro de entornos corporativos, educativos o creativos, donde la interpretación simultánea de información visual y textual es fundamental. En este contexto, la integración de modelos como Llama 4 podría contribuir a mejorar las capacidades de herramientas modernas, algo similar a lo que se observa en Google Colab.

Uno de los elementos más innovadores es la introducción de ventanas de contexto de hasta 10 millones de tokens. Con esta capacidad, los modelos pueden manejar bloques de datos extremadamente grandes, facilitando el análisis profundo de documentos extensos o bases de código complejas. Esta ampliación del contexto no tiene precedente en modelos anteriores y podría convertirse en un estándar para los siguientes lanzamientos de IA a nivel global.

  OpenAI presenta Operator, el agente de IA que transforma el uso del navegador

Gracias a la arquitectura MoE, los modelos Llama 4 también consumen menos recursos durante el entrenamiento y la inferencia, algo esencial para escalar su uso sin necesidad de infraestructuras excesivamente costosas. Meta menciona que Scout puede funcionar con una única GPU Nvidia H100, lo cual democratiza su acceso para pequeñas empresas o desarrolladores con recursos más limitados. Este enfoque eficiente en recursos es similar al de los sistemas de conexión WiFi, donde la optimización de recursos es clave para beneficios concretos.

miDNI-2
Artículo relacionado:
MiDNI: Todo lo que debes saber sobre el nuevo DNI digital en tu móvil

Disponibilidad y despliegue internacional

Los modelos Scout y Maverick ya se pueden utilizar en varias plataformas de Meta, como WhatsApp, Instagram, Facebook Messenger y el sitio web Meta AI. Para quienes quieran acceder de forma más técnica o desarrollarlos por su cuenta, las versiones se encuentran disponibles en llama.com y la popular plataforma Hugging Face. Esta disponibilidad a nivel internacional marca un avance significativo en el acceso a la Inteligencia Artificial, tal y como se discute en el artículo sobre novedades de Microsoft.

Sin embargo, no todo el mundo podrá acceder a estos avances por igual. Meta ha confirmado que tanto las funciones multimodales como la distribución de modelos están restringidas en la Unión Europea por motivos legales vinculados a la protección de datos y la normativa sobre inteligencia artificial. Esto implica que empresas situadas en territorio comunitario no pueden, por ahora, usarlos ni redistribuirlos sin una licencia específica.

Además, corporaciones con más de 700 millones de usuarios activos al mes deberán solicitar permisos adicionales para implementar estas tecnologías. Esto podría ralentizar su despliegue en mercados como el europeo, aunque Meta ha mostrado su intención de resolver estos obstáculos en futuras actualizaciones.

Última versión de Whatsapp Plus
Artículo relacionado:
Última versión de Whatsapp Plus en el 2024

Un paso más hacia el modelo de razonamiento

Más allá de los modelos actuales, Meta ya ha anunciado públicamente que trabaja en una cuarta variante: Llama 4 Reasoning. Como su nombre indica, estará centrada en mejorar el razonamiento lógico, algo que sus actuales versiones aún no integran profundamente. La introducción de este modelo marcaría el primer intento de Meta por competir en un terreno donde OpenAI y otras compañías ya han dado pasos significativos.

  Inteligencia Artificial en México: Transformando el Futuro

Actualmente, los modelos de Llama 4 responden con mayor libertad en temas sociales o políticos, algo que Meta ha ajustado para que las nuevas versiones tengan menos reticencia a tratar asuntos polémicos. Esta reducción de filtros sigue la línea observada en modelos recientes como Grok 3 y forma parte de un cambio más general en la industria hacia interacciones más abiertas y menos censuradas.

Además, Meta ha dejado entrever que Llama 4 Behemoth podría servir como base para la creación de modelos más pequeños y especializados, lo que permitiría aplicar su potencia en contextos más concretos sin necesidad de desplegar la infraestructura completa.

La nueva generación Llama 4 sitúa a Meta en una posición firme dentro de la competencia por el desarrollo de modelos avanzados de IA. Con una combinación de código abierto, arquitectura eficiente y capacidades multimodales, Scout y Maverick ofrecen ya soluciones aplicables en el presente. Mientras tanto, Behemoth promete ser una piedra angular sobre la que construir modelos aún más potentes en el futuro. Aunque su distribución está limitada por aspectos legales en algunas regiones, el avance técnico parece indiscutible y refuerza la apuesta de Meta por liderar el sector de la inteligencia artificial abierta.

que es Quick Machine Recovery-3
Artículo relacionado:
Quick Machine Recovery: la solución de Microsoft para errores críticos en Windows