
Relatório da Anthropic destaca como cibercriminosos estão utilizando seus modelos para fins ilícitos
Casos envolvem extorsão digital e uso fraudulento para obtenção de empregos nos EUA
A Anthropic, criadora do modelo de inteligência artificial Claude, publicou nesta semana um relatório detalhado alertando para o uso malicioso de suas tecnologias por cibercriminosos. Segundo a empresa, ao menos dois casos recentes chamaram a atenção: o chamado “vibe-hacking”, em que criminosos utilizaram o Claude Code para extorquir dados de empresas, e fraudes envolvendo trabalhadores norte-coreanos em busca de empregos em grandes corporações norte-americanas.
O documento ressalta os riscos emergentes associados ao uso de IA generativa em contextos criminosos, ao mesmo tempo em que destaca os esforços da empresa para detectar e banir usuários mal-intencionados.
Claude usado em ciberextorsões
Um dos casos mais graves descritos no relatório envolve um grupo que explorou os recursos de programação do Claude Code, versão voltada ao suporte em desenvolvimento de software, para realizar ataques cibernéticos complexos. O grupo teria realizado pelo menos 17 ações de extorsão em um único mês, exigindo resgates superiores a 500 mil dólares de cada alvo.
A tática foi apelidada de “vibe-hacking” pelos próprios criminosos, e consiste na construção de e-mails e scripts altamente personalizados e convincentes — tudo com apoio da IA — para enganar profissionais de TI e ganhar acesso a dados sensíveis.
Fraude para obtenção de empregos em empresas da Fortune 500
Outro episódio citado envolve trabalhadores de TI ligados à Coreia do Norte, que utilizaram Claude para redigir currículos e se preparar para entrevistas, com o objetivo de conquistar vagas em empresas americanas da lista Fortune 500 — que reúne as maiores corporações dos Estados Unidos.
A Anthropic afirmou que esses indivíduos se passaram por cidadãos de países neutros e, com apoio da IA, conseguiram mascarar detalhes técnicos, simular conhecimento específico e contornar mecanismos de checagem.
Ainda que não se saiba quantas contratações chegaram a ocorrer de fato, o relatório afirma que todas as contas vinculadas à fraude foram banidas e que o modelo Claude passou a ser monitorado com mais rigor em atividades sensíveis relacionadas a contratação de pessoal.
Reforço nas barreiras de segurança
Em resposta aos incidentes, a Anthropic implementou uma série de atualizações, incluindo:
- Mecanismos automáticos de detecção de uso malicioso, baseados em padrões comportamentais;
- Limitação de recursos técnicos avançados em certos contextos;
- Aprimoramento das políticas de uso e ferramentas de rastreamento interno.
Segundo a empresa, essas medidas fazem parte de um esforço contínuo para garantir que seus modelos de IA sejam utilizados com responsabilidade, sem comprometer a segurança digital global.
A tensão crescente entre inovação e uso ético da IA
Esse episódio se insere em um debate crescente sobre o equilíbrio entre inovação e responsabilidade no setor de IA. Modelos como Claude, GPT, Gemini e outros vêm se tornando ferramentas poderosas não apenas para desenvolvedores e empresas, mas também, infelizmente, para atores mal-intencionados.
A Anthropic enfatizou que a maioria dos usuários age de forma ética, mas que a empresa continuará investindo em filtros, auditorias e parcerias com agências governamentais para combater abusos.
Você acredita que IAs como Claude e ChatGPT deveriam ter restrições mais rígidas?
Compartilhe sua opinião nos comentários!
Fontes:
Relatório oficial da Anthropic, MIT Technology Review, Wired, Reuters