🤖 OpenAI Lança Modelos de IA Abertos com Alto Desempenho

OpenAI Lança Modelos de IA Abertos com Alto Desempenho
Imagem ilustrativa

Em um movimento que marca o retorno da OpenAI às suas raízes de código aberto, a empresa lançou, em 5 de agosto de 2025, dois novos modelos de inteligência artificial de peso aberto: gpt-oss-120b e gpt-oss-20b. Disponíveis gratuitamente na plataforma Hugging Face sob a licença Apache 2.0, esses modelos são voltados para raciocínio avançado e tarefas baseadas em texto, oferecendo flexibilidade para desenvolvedores e empresas. A iniciativa reflete uma mudança estratégica para competir com players como DeepSeek e Mistral, além de responder às crescentes demandas por transparência no desenvolvimento de IA.

Os modelos gpt-oss-120b e gpt-oss-20b são baseados em uma arquitetura de Mistura de Especialistas (MoE), que reduz a carga computacional ao ativar apenas uma fração dos parâmetros totais durante o processamento. O gpt-oss-120b, com 117 bilhões de parâmetros, utiliza apenas 5,1 bilhões por token e pode ser executado em uma única GPU com 80 GB de VRAM, como a Nvidia H100. Já o gpt-oss-20b, com 21 bilhões de parâmetros, ativa 3,6 bilhões por token e é otimizado para dispositivos com apenas 16 GB de RAM, incluindo laptops e até smartphones. Essa eficiência permite que os modelos sejam usados localmente, sem depender de infraestrutura em nuvem, garantindo maior privacidade e controle para os usuários.

Durante o anúncio, Sam Altman, CEO da OpenAI, declarou em um comunicado à imprensa que “esses modelos representam um grande passo para tornar a IA acessível, permitindo que qualquer pessoa com hardware básico execute modelos de ponta localmente”. Ele destacou que o gpt-oss-120b tem desempenho comparável ao modelo proprietário o4-mini em tarefas de raciocínio, enquanto o gpt-oss-20b supera o o3-mini em benchmarks como Codeforces e AIME 2024/2025. Esses resultados foram confirmados por relatórios da OpenAI e validados por testes independentes em plataformas como Hugging Face.

Os modelos são exclusivamente baseados em texto, sem suporte nativo para tarefas multimodais, como processamento de imagens ou áudio. No entanto, a OpenAI integrou a capacidade de conectar os modelos gpt-oss a seus LLMs proprietários hospedados na nuvem, permitindo que desenvolvedores realizem tarefas mais complexas, como análise de imagens, por meio de APIs. Greg Brockman, cofundador da OpenAI, afirmou em uma coletiva de imprensa em 4 de agosto de 2025 que “os modelos gpt-oss são complementares aos nossos serviços pagos, oferecendo uma solução híbrida para quem precisa de flexibilidade e privacidade”. Essa abordagem foi projetada para atender empresas que preferem processar dados sensíveis localmente, mas ainda desejam acessar capacidades avançadas da OpenAI.

A segurança foi uma prioridade no desenvolvimento desses modelos. A OpenAI conduziu testes rigorosos sob seu Preparedness Framework, avaliando os riscos de uso indevido, como ataques cibernéticos ou desenvolvimento de armas químicas. Segundo um white paper publicado pela empresa em 5 de agosto de 2025, mesmo versões dos modelos ajustadas de forma maliciosa não alcançaram níveis de capacidade considerados perigosos. Além disso, a OpenAI lançou um desafio de red teaming com um prêmio de US$ 500 mil para incentivar pesquisadores a identificar vulnerabilidades. A empresa também colaborou com especialistas externos para garantir que os modelos atendam a padrões éticos elevados.

Apesar de sua potência, os modelos apresentam limitações. Em testes internos, o gpt-oss-120b apresentou alucinações em 49% das perguntas no benchmark PersonQA, enquanto o gpt-oss-20b registrou 53%, taxas significativamente mais altas que o modelo o1 (16%). A OpenAI reconheceu que esses números refletem um tradeoff pela eficiência e que os modelos foram treinados principalmente com dados em inglês, o que pode limitar o desempenho em outros idiomas sem ajustes adicionais. Um exemplo é a colaboração com o governo sueco, mencionada pela OpenAI em 6 de agosto de 2025, para ajustar o gpt-oss-120b ao idioma sueco, demonstrando o potencial de personalização.

A liberação dos modelos sob a licença Apache 2.0 permite uso comercial e modificações sem restrições, o que tem sido bem recebido pela comunidade de desenvolvedores. Jensen Huang, CEO da Nvidia, elogiou a iniciativa em um comunicado à CNBC em 6 de agosto de 2025, afirmando que “a OpenAI está impulsionando a inovação em software de código aberto com modelos otimizados para nossa infraestrutura”. Parceiros como Azure, AWS, e Hugging Face já oferecem suporte nativo para implantação, enquanto a Microsoft anunciou a integração do gpt-oss-20b em dispositivos Windows.

A transparência é um ponto importante: a OpenAI optou por não divulgar os dados de treinamento, uma decisão atribuída a preocupações com litígios sobre direitos autorais, conforme reportado pela Wired em 6 de agosto de 2025. Embora isso limite a classificação dos modelos como totalmente open-source, a disponibilidade dos pesos e a licença permissiva ainda representam um marco significativo. As informações sobre alucinações e desempenho em idiomas não ingleses são baseadas em testes iniciais e podem evoluir com o uso em larga escala.

O lançamento dos modelos gpt-oss reforça o compromisso da OpenAI com a democratização da IA, mas também levanta questões sobre o futuro do equilíbrio entre modelos abertos e proprietários. Como esses modelos moldarão o cenário da IA? Deixe sua opinião nos comentários e participe do debate!

Fontes: OpenAI, Hugging Face, Wired, CNBC, TechCrunch, VentureBeat

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *


Rolar para cima