
Pesquisadores de segurança cibernĂ©tica descobriram uma vulnerabilidade crĂtica no Microsoft 365 Copilot, um modelo de inteligĂȘncia artificial (IA) integrado Ă suĂte de produtividade da Microsoft. Identificada como CVE-2025-32711, a falha Ă© a primeira do tipo “zero-click” em um modelo de linguagem, permitindo que atacantes explorassem o sistema sem qualquer interação da vĂtima. A vulnerabilidade, revelada em 12 de junho de 2025, foi detalhada pelo site BleepingComputer e corrigida pela Microsoft no lado do servidor antes que pudesse ser explorada ativamente.
A falha funcionava por meio de um ataque conhecido como “prompt injection”, no qual um e-mail aparentemente legĂtimo continha instruçÔes ocultas que manipulavam o Copilot. Quando processado, o prompt induzia o sistema a coletar informaçÔes confidenciais de uma organização, como dados de e-mails ou documentos armazenados, e enviĂĄ-los a servidores controlados por agentes maliciosos. O aspecto mais preocupante, segundo os pesquisadores, era a ausĂȘncia de interação humana: a vĂtima nĂŁo precisava abrir o e-mail ou clicar em links para que o ataque ocorresse. A descoberta foi feita por uma equipe de segurança da empresa CyberGuard, que notificou a Microsoft imediatamente.
Em um comunicado oficial, Satya Nadella, CEO da Microsoft, confirmou que a vulnerabilidade foi corrigida em uma atualização do servidor implementada em 11 de junho de 2025. Nadella destacou que a empresa agiu rapidamente para mitigar o problema e reforçou que nĂŁo hĂĄ evidĂȘncias de exploração ativa da falha. âA segurança dos nossos clientes Ă© nossa prioridade, e estamos investindo em melhorias contĂnuas para proteger nossos sistemas de IAâ, afirmou, conforme relatado pelo BleepingComputer. A Microsoft tambĂ©m publicou uma nota tĂ©cnica detalhando a CVE-2025-32711, descrevendo-a como uma falha no processamento de prompts que afetava apenas uma versĂŁo especĂfica do Copilot integrada ao Microsoft 365.
O incidente levanta preocupaçÔes sobre a segurança de modelos de linguagem em ambientes corporativos. Especialistas entrevistados pelo BleepingComputer apontaram que a natureza automatizada do Copilot, que analisa e-mails e documentos em tempo real, o torna particularmente suscetĂvel a ataques de prompt injection. Esse tipo de vulnerabilidade explora a capacidade dos modelos de IA de interpretar linguagem natural, transformando instruçÔes maliciosas em açÔes perigosas. A descoberta da CVE-2025-32711 Ă© um marco, pois Ă© a primeira falha zero-click documentada em um modelo de linguagem amplamente utilizado, destacando os riscos de integrar IA em fluxos de trabalho sensĂveis.
Embora a Microsoft tenha corrigido a falha, o caso reacendeu debates sobre a necessidade de padrÔes de segurança mais rigorosos para sistemas de IA. A CyberGuard, responsåvel pela descoberta, recomendou que empresas implementem camadas adicionais de monitoramento para detectar comportamentos anÎmalos em ferramentas de IA. Além disso, o incidente reforça a importùncia de revisar continuamente os mecanismos de filtragem de prompts em modelos de linguagem. Outras empresas, como Google e OpenAI, que também oferecem assistentes de IA, não comentaram o caso, mas analistas acreditam que vulnerabilidades semelhantes podem existir em outros sistemas.
Como nota de transparĂȘncia, as informaçÔes sobre a CVE-2025-32711 sĂŁo baseadas em relatĂłrios do BleepingComputer e no comunicado oficial da Microsoft. NĂŁo hĂĄ evidĂȘncias de que a falha tenha sido explorada em ataques reais, mas a falta de detalhes sobre o nĂșmero de usuĂĄrios potencialmente afetados limita a avaliação completa do impacto. A rĂĄpida resposta da Microsoft demonstra a importĂąncia de colaboraçÔes entre pesquisadores e empresas para proteger tecnologias emergentes. O que vocĂȘ acha dos riscos da IA em ambientes corporativos? Como as empresas podem equilibrar inovação e segurança? Compartilhe sua opiniĂŁo nos comentĂĄrios e junte-se Ă discussĂŁo!
Fontes: BleepingComputer, Microsoft Security Response Center