
O Google DeepMind deu um passo significativo para o futuro da robótica autônoma com o anúncio de um novo modelo de inteligência artificial que permite que robôs operem de forma totalmente independente, sem a necessidade de uma conexão com a internet. Chamado de Gemini Robotics On-Device, o sistema, que é uma versão otimizada do poderoso modelo Gemini, processa dados diretamente no hardware do robô, abrindo um leque de possibilidades para aplicações em ambientes desafiadores, remotos e que exigem alta privacidade.
A grande inovação, anunciada por Carolina Parada, Chefe de Robótica do Google DeepMind, é a capacidade do modelo de funcionar “on-device”, ou seja, embarcado no próprio dispositivo. Isso resolve dois dos maiores gargalos da robótica moderna: a latência e a dependência de rede. Em sistemas tradicionais que dependem da nuvem, qualquer instabilidade ou ausência de conexão Wi-Fi pode tornar o robô inoperante. Com o novo modelo, um robô pode continuar a executar tarefas complexas, seja em uma fábrica com conectividade limitada, em uma residência em área rural, em missões de resgate em desastres ou até mesmo em exploração espacial, onde a comunicação é lenta e intermitente.
A capacidade de processamento local também representa um avanço crucial para a privacidade. Em setores como o da saúde, onde robôs podem auxiliar em procedimentos ou no cuidado de pacientes, garantir que dados visuais e sensíveis não sejam transmitidos para a nuvem é uma exigência fundamental. O Gemini Robotics On-Device assegura que toda a “cognição” do robô aconteça de forma autocontida, mitigando riscos de segurança e violação de dados.
Baseado na arquitetura de visão-linguagem-ação (VLA), o modelo permite que os robôs não apenas “vejam” o ambiente ao seu redor, mas também compreendam comandos em linguagem natural e traduzam essa compreensão em ações físicas precisas. Demonstrações divulgadas pelo DeepMind mostram robôs realizando tarefas com destreza notável, como dobrar roupas, fechar o zíper de uma bolsa e até colocar um Cubo de Rubik dentro de um saco, tudo isso respondendo a comandos verbais.
Um dos aspectos mais impressionantes do novo sistema é a sua eficiência de aprendizado. O Google DeepMind revelou que, para ensinar uma nova tarefa a um robô equipado com o Gemini Robotics On-Device, são necessárias apenas de 50 a 100 demonstrações. Isso representa uma aceleração drástica no processo de treinamento, que tradicionalmente exige milhares de exemplos e um extenso trabalho de programação. Essa capacidade de adaptação rápida, chamada de “fine-tuning”, indica que o modelo possui um conhecimento fundamental robusto que pode ser generalizado para novas atividades com um esforço mínimo.
Para acelerar a adoção e a inovação, o Google também está lançando um Kit de Desenvolvimento de Software (SDK). Com ele, desenvolvedores e pesquisadores poderão adaptar o modelo para diferentes tipos de robôs e aplicações específicas. O acesso ao SDK será liberado inicialmente para um grupo de “testadores confiáveis” (Trusted Testers), permitindo um ambiente controlado para experimentação e para garantir que os protocolos de segurança sejam rigorosamente seguidos antes de uma disponibilização mais ampla. O Google enfatiza que, embora o modelo seja poderoso, a responsabilidade pela segurança da aplicação final recai sobre os desenvolvedores, que devem integrar seus próprios mecanismos de proteção.
Essa iniciativa coloca o Google em uma corrida acirrada com outras gigantes da tecnologia, como a Nvidia com seu projeto GR00T e os desenvolvimentos da OpenAI em modelos para robótica, na busca pelo “cérebro” universal para robôs de uso geral. A promessa é de um futuro onde máquinas inteligentes possam se tornar colaboradoras eficientes e seguras em nosso cotidiano, desde tarefas domésticas até complexas operações industriais.
O que você acha do uso de robôs autônomos no dia a dia? Quais tarefas você gostaria que um robô fizesse por você? Deixe sua opinião nos comentários!
Nota de Transparência:
Esta matéria foi elaborada com base em informações divulgadas oficialmente pelo Google DeepMind em seu blog e em comunicados para a imprensa. Os detalhes técnicos e as capacidades do modelo Gemini Robotics On-Device e do SDK associado foram verificados em fontes primárias e em publicações de veículos de tecnologia reconhecidos que cobriram o anúncio.
Fontes Utilizadas:
Google DeepMind Blog, TechRadar, eWEEK, The Independent, Manufacturing Digital