
A crescente confiança em modelos de inteligência artificial como o ChatGPT pode estar abrindo uma nova e perigosa brecha para golpes online. Um teste recente com uma versão do GPT-4, um dos sistemas mais avançados da OpenAI, revelou que a ferramenta tem uma taxa de erro alarmante ao fornecer links de grandes empresas, criando um terreno fértil para ataques de phishing sofisticados.
Durante os testes, pesquisadores de segurança solicitaram ao modelo de linguagem que fornecesse os endereços de sites de companhias de setores críticos, como financeiro, varejista, de tecnologia e de serviços públicos. Os resultados mostraram que o ChatGPT forneceu a URL correta em apenas 66% dos casos. Mais preocupante ainda é que em 29% das respostas, os links sugeridos levavam a domínios que estavam inativos, suspensos ou disponíveis para compra. O restante dos erros direcionava para páginas incorretas dentro do site oficial das empresas.
Essa falha expõe um vetor de ataque de alto potencial. Criminosos podem utilizar a própria inteligência artificial para identificar esses domínios inativos que são sugeridos com frequência. Em seguida, eles podem adquirir esses endereços, muitas vezes por um custo baixo, e hospedar neles páginas fraudulentas que imitam perfeitamente os sites oficiais de bancos, lojas ou serviços. O usuário, confiando na resposta fornecida pelo chatbot, clica no link, insere suas credenciais de login, senhas ou dados de cartão de crédito, e entrega suas informações diretamente aos golpistas.
O problema reside em um fenômeno conhecido como “alucinação de IA”. Diferente de um buscador, um Modelo de Linguagem Amplo (LLM) como o ChatGPT não “sabe” qual é o site correto; ele prevê a sequência de palavras mais provável com base nos padrões de seu treinamento. Por isso, ele pode gerar uma URL que soa perfeitamente plausível, como ajuda-bancoX.com
em vez do endereço oficial bancoX.com/ajuda
, por exemplo. Para o sistema, a URL inventada é uma resposta estatisticamente coerente, mas para o usuário, ela representa um risco real.
O que torna essa ameaça particularmente perigosa é a autoridade que muitos usuários atribuem à inteligência artificial. Enquanto um link suspeito em um e-mail ou mensagem de texto já acende um alerta para muitos, um link fornecido diretamente por uma ferramenta como o ChatGPT pode ser visto como mais confiável, diminuindo as defesas do usuário. Os cibercriminosos estão cientes desse excesso de confiança e podem explorá-lo em escala.
Especialistas em segurança digital recomendam uma abordagem de “confiança zero” para links gerados por IA. A principal orientação é nunca clicar diretamente em URLs fornecidas por chatbots, especialmente para acessar serviços sensíveis. Em vez disso, o usuário deve abrir um navegador e digitar manualmente o endereço do site que já conhece ou usar um motor de busca confiável para encontrar a página oficial da empresa. Verificar o cadeado de segurança (HTTPS) e a estrutura da URL antes de inserir qualquer informação continua sendo uma prática indispensável.
Este caso ressalta a necessidade de uma maior literacia digital na era da IA. À medida que essas ferramentas se tornam mais integradas ao nosso dia a dia, é crucial entender suas limitações e os novos tipos de riscos que elas introduzem. A conveniência oferecida pelos chatbots não pode substituir o pensamento crítico e a vigilância constante que são essenciais para a segurança no ambiente digital.
Você já notou um comportamento estranho ou recebeu informações incorretas de uma IA? Como você se protege contra golpes de phishing? Compartilhe suas experiências e dicas nos comentários.
Fontes:
Relatórios de testes de segurança de modelos de linguagem, publicações de empresas de cibersegurança, análises sobre vulnerabilidades em IA generativa.
Aviso de Transparência:
Esta matéria é baseada em resultados de testes de segurança conduzidos em uma versão específica do modelo GPT-4. Os modelos de IA estão em constante atualização. No entanto, o risco de “alucinações”, incluindo a geração de informações incorretas como URLs, é uma limitação conhecida e inerente à tecnologia atual de modelos de linguagem.