
Cientistas desenvolvem modelo de raciocínio inspirado no cérebro humano
Com apenas 27 milhões de parâmetros, o HRM supera grandes modelos em benchmarks de cognição artificial.
Um novo capítulo se abre na corrida pelo desenvolvimento de inteligência artificial com características verdadeiramente humanas. Pesquisadores revelaram o HRM (Human Reasoning Model), uma IA projetada para raciocinar de forma mais próxima ao cérebro humano, usando apenas 27 milhões de parâmetros — um número surpreendentemente pequeno se comparado aos bilhões dos grandes LLMs.
Ao contrário dos modelos de linguagem tradicionais que utilizam o método conhecido como “chain-of-thought” — ou seja, resolvendo problemas por meio de uma cadeia de etapas lógicas — o HRM executa todas as decisões em uma única etapa, imitando a maneira como os humanos muitas vezes pensam de forma integrada e rápida.
Como funciona o HRM?
O HRM adota uma arquitetura modular que combina três componentes principais:
- Planejamento abstrato
- Cálculo rápido e contextual
- Capacidade de autoencerrar o raciocínio
Esse terceiro aspecto é particularmente relevante, já que, como um ser humano, o HRM decide sozinho quando já “pensou o suficiente” para dar uma resposta — algo ausente nos grandes modelos atuais, que apenas “geram texto” sem consciência do processo.
Resultados que impressionam
Nos testes de benchmark ARC-AGI-1, voltados à medição de inteligência geral artificial, o HRM atingiu 40,3% de acerto, superando modelos muito maiores e conhecidos, como:
- o3-mini-high: 34,5%
- Claude 3.7 Sonnet: 21,2%
- DeepSeek R1: 15,8%
No benchmark ainda mais exigente ARC-AGI-2, o desempenho também foi notável:
- HRM: 5%
- o3-mini-high: 3%
- DeepSeek R1: 1,3%
- Claude 3.7 Sonnet: 0,9%
Vale lembrar que essas métricas testam a capacidade lógica, abstração e adaptação a novas tarefas — algo próximo da cognição humana.
A leveza como trunfo
O que torna tudo ainda mais notável é o fato de que o HRM opera com apenas 27 milhões de parâmetros, um número inferior até mesmo ao GPT-2 (com 117M). Isso significa que ele pode ser executado em hardware comum, sem depender de GPUs caras ou infraestruturas robustas de nuvem — uma revolução em termos de acessibilidade e eficiência energética.
Para desenvolvedores e curiosos, o projeto está disponível abertamente no GitHub, no repositório sapientinc/HRM, com permissões para experimentação e uso educacional.
Um novo paradigma na IA?
Embora ainda não seja um modelo multitarefa como o GPT-4, o HRM demonstra que qualidade de raciocínio não depende de quantidade de parâmetros, e que é possível alcançar performance avançada com estruturas mais simples e focadas em cognição.
É o equivalente a um aprendiz que pensa com clareza, em vez de um enciclopedista que apenas recita.
Você acredita que IAs menores e mais inteligentes podem superar os grandes modelos?
Compartilhe sua opinião ou experiências com projetos open-source como o HRM!
Fontes:
GitHub sapientinc/HRM, ARC-AGI benchmarks, apresentação do modelo HRM, comparativos oficiais dos modelos Claude, o3 e DeepSeek