🤖 Meta lança Llama 4: Nova geração de modelos de IA multimodais

A Meta Platforms anunciou o lançamento do Llama 4, sua mais recente família de modelos de inteligência artificial (IA), marcando um avanço significativo na tecnologia de modelos de linguagem. Essa nova geração introduz modelos multimodais e multilinguísticos, projetados para compreender e processar tanto texto quanto imagens, além de oferecer suporte a 12 idiomas.

Principais Modelos do Llama 4

O Llama 4 apresenta dois modelos principais:

  • Llama 4 Scout: Este modelo possui 17 bilhões de parâmetros ativos, organizados em 16 especialistas, totalizando 109 bilhões de parâmetros. Destaca-se por sua eficiência, sendo capaz de operar em uma única GPU Nvidia H100, e oferece uma janela de contexto de até 10 milhões de tokens, permitindo processar grandes volumes de informação simultaneamente. 
  • Llama 4 Maverick: Com 17 bilhões de parâmetros ativos distribuídos entre 128 especialistas, totaliza 400 bilhões de parâmetros. Este modelo supera concorrentes como o GPT-4o da OpenAI e o Gemini 2.0 Flash do Google em diversos benchmarks, especialmente em tarefas de raciocínio e codificação. 

Além desses, a Meta está desenvolvendo o Llama 4 Behemoth, que contará com 288 bilhões de parâmetros ativos e um total de aproximadamente 2 trilhões de parâmetros, prometendo ser um dos modelos mais robustos já treinados. 

Arquitetura e Capacidades

Os modelos Llama 4 adotam uma arquitetura de “mistura de especialistas” (MoE), permitindo que diferentes partes do modelo se especializem em tarefas específicas. Essa abordagem não apenas melhora a eficiência computacional, mas também amplia a capacidade do modelo em lidar com uma variedade de tarefas complexas. 

Uma característica notável é a capacidade multimodal dos modelos, permitindo que processem e integrem diversos tipos de dados, incluindo texto, imagens e vídeos. Essa funcionalidade é particularmente útil para aplicações que exigem compreensão e geração de conteúdo em múltiplos formatos. 

Disponibilidade e Integração

Os modelos Llama 4 estão disponíveis como software de código aberto, permitindo que desenvolvedores e pesquisadores os utilizem e adaptem conforme suas necessidades. Eles podem ser acessados por meio de plataformas como WhatsApp, Messenger, Instagram Direct e o site Meta AI. 

Além disso, a Meta planeja integrar esses modelos em seus produtos e serviços, incluindo assistentes virtuais e dispositivos como os óculos inteligentes Ray-Ban. Essa integração visa proporcionar experiências de usuário mais ricas e interativas, aproveitando as capacidades avançadas dos modelos Llama 4.

Impacto no Mercado de IA

O lançamento do Llama 4 pela Meta ocorre em um momento de intensa competição no setor de inteligência artificial, com empresas como OpenAI e Google também desenvolvendo modelos avançados. A introdução de modelos multimodais e eficientes posiciona a Meta de forma competitiva, oferecendo soluções que atendem às crescentes demandas por IA mais versátil e acessível. 

Analistas destacam que a estratégia da Meta de disponibilizar modelos de código aberto pode acelerar a inovação e a adoção de IA em diversas indústrias, ao mesmo tempo em que estabelece a empresa como uma líder em pesquisa e desenvolvimento no campo da inteligência artificial.

Fontes: Meta AI Blog, The Verge, Reuters

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima