🤖🧠 Modelo HRM desafia IA tradicional com raciocínio humano

Modelo HRM desafia IA tradicional com raciocínio humano
Imagem ilustrativa

Cientistas desenvolvem modelo de raciocínio inspirado no cérebro humano

Com apenas 27 milhões de parâmetros, o HRM supera grandes modelos em benchmarks de cognição artificial.

Um novo capítulo se abre na corrida pelo desenvolvimento de inteligência artificial com características verdadeiramente humanas. Pesquisadores revelaram o HRM (Human Reasoning Model), uma IA projetada para raciocinar de forma mais próxima ao cérebro humano, usando apenas 27 milhões de parâmetros — um número surpreendentemente pequeno se comparado aos bilhões dos grandes LLMs.

Ao contrário dos modelos de linguagem tradicionais que utilizam o método conhecido como “chain-of-thought” — ou seja, resolvendo problemas por meio de uma cadeia de etapas lógicas — o HRM executa todas as decisões em uma única etapa, imitando a maneira como os humanos muitas vezes pensam de forma integrada e rápida.


Como funciona o HRM?

O HRM adota uma arquitetura modular que combina três componentes principais:

  • Planejamento abstrato
  • Cálculo rápido e contextual
  • Capacidade de autoencerrar o raciocínio

Esse terceiro aspecto é particularmente relevante, já que, como um ser humano, o HRM decide sozinho quando já “pensou o suficiente” para dar uma resposta — algo ausente nos grandes modelos atuais, que apenas “geram texto” sem consciência do processo.


Resultados que impressionam

Nos testes de benchmark ARC-AGI-1, voltados à medição de inteligência geral artificial, o HRM atingiu 40,3% de acerto, superando modelos muito maiores e conhecidos, como:

  • o3-mini-high: 34,5%
  • Claude 3.7 Sonnet: 21,2%
  • DeepSeek R1: 15,8%

No benchmark ainda mais exigente ARC-AGI-2, o desempenho também foi notável:

  • HRM: 5%
  • o3-mini-high: 3%
  • DeepSeek R1: 1,3%
  • Claude 3.7 Sonnet: 0,9%

Vale lembrar que essas métricas testam a capacidade lógica, abstração e adaptação a novas tarefas — algo próximo da cognição humana.


A leveza como trunfo

O que torna tudo ainda mais notável é o fato de que o HRM opera com apenas 27 milhões de parâmetros, um número inferior até mesmo ao GPT-2 (com 117M). Isso significa que ele pode ser executado em hardware comum, sem depender de GPUs caras ou infraestruturas robustas de nuvem — uma revolução em termos de acessibilidade e eficiência energética.

Para desenvolvedores e curiosos, o projeto está disponível abertamente no GitHub, no repositório sapientinc/HRM, com permissões para experimentação e uso educacional.

Um novo paradigma na IA?

Embora ainda não seja um modelo multitarefa como o GPT-4, o HRM demonstra que qualidade de raciocínio não depende de quantidade de parâmetros, e que é possível alcançar performance avançada com estruturas mais simples e focadas em cognição.

É o equivalente a um aprendiz que pensa com clareza, em vez de um enciclopedista que apenas recita.

Você acredita que IAs menores e mais inteligentes podem superar os grandes modelos?
Compartilhe sua opinião ou experiências com projetos open-source como o HRM!

Fontes:
GitHub sapientinc/HRM, ARC-AGI benchmarks, apresentação do modelo HRM, comparativos oficiais dos modelos Claude, o3 e DeepSeek

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *


Rolar para cima