
A presença crescente de chatbots de inteligência artificial nas redes sociais tem gerado uma nova preocupação: a disseminação de desinformação durante eventos sensíveis. Um exemplo recente e alarmante está ocorrendo em Los Angeles, onde protestos relacionados a causas sociais e políticas vêm sendo alvo de narrativas manipuladas por sistemas automatizados de IA.
Desde o início de junho, milhares de manifestantes têm se reunido em diferentes regiões da cidade para exigir justiça social, reforma policial e equidade racial. No entanto, junto com os atos legítimos, surgiram nas redes uma série de postagens virais com alegações falsas, vídeos fora de contexto e testemunhos manipulados. Investigações de veículos como o Los Angeles Times e instituições como a AI Forensics revelaram que muitos desses conteúdos estão sendo amplificados por bots conversacionais baseados em IA, programados para replicar ou gerar conteúdo enganoso de maneira automatizada.
Segundo especialistas, o uso desses bots tornou-se mais sofisticado com a evolução de modelos de linguagem. Alguns deles são capazes de gerar depoimentos falsos como se fossem de manifestantes reais, sugerindo vandalismo inexistente ou provocando confusão sobre rotas e horários dos protestos. Em certos casos, os bots interagem diretamente com usuários humanos, misturando informações reais com distorções sutis, o que dificulta a identificação da falsidade do conteúdo.
O problema não é novo, mas a escalada da desinformação alimentada por IA marca um ponto crítico. Kate Starbird, pesquisadora da Universidade de Washington, afirmou que “estamos vendo uma nova era da manipulação informacional, onde a IA é usada para amplificar narrativas polarizadoras em tempo real”. A pesquisadora destaca ainda que o risco se intensifica em contextos de instabilidade social, como protestos, eleições ou catástrofes naturais.
Plataformas como X (antigo Twitter), Facebook e Instagram têm sido pressionadas a agir com mais rapidez. Segundo porta-vozes dessas empresas, equipes de moderação e sistemas automatizados estão sendo aprimorados para detectar o comportamento anômalo de bots. No entanto, diversas organizações civis criticam a lentidão dessas respostas e a falta de transparência dos algoritmos responsáveis por promover ou suprimir certos conteúdos.
Nos bastidores, empresas de cibersegurança alertam que alguns desses bots podem estar sendo operados por grupos estrangeiros com interesse em desestabilizar o ambiente social dos EUA, embora provas diretas ainda estejam em análise. A dificuldade de rastrear a origem desses agentes automatizados, principalmente quando utilizam redes descentralizadas e servidores privados, complica ainda mais a contenção do problema.
Em um estudo publicado neste mês, a organização Data & Society identificou ao menos 300 contas automatizadas que participaram ativamente de campanhas de desinformação sobre os protestos em Los Angeles entre os dias 4 e 11 de junho. Muitas dessas contas utilizavam linguagem natural sofisticada, nomes verossímeis e até fotos geradas por IA para simular perfis legítimos.
Frente a esse cenário, especialistas recomendam cautela ao consumir e compartilhar informações sobre os protestos. Entre as medidas sugeridas estão a verificação de fontes oficiais, o cruzamento de informações em veículos jornalísticos reconhecidos e o uso de ferramentas de checagem de fatos. Além disso, organizações como a NewsGuard e a Media Matters têm disponibilizado listas de contas e sites suspeitos que vêm contribuindo para a propagação da desinformação alimentada por IA.
Este caso em Los Angeles acende um alerta global. O uso de inteligência artificial para manipular informações em tempo real representa um desafio ético e técnico urgente para governos, empresas de tecnologia e a sociedade civil. O que antes era apenas uma ameaça teórica, hoje se torna uma realidade concreta nas ruas e nas redes, exigindo respostas rápidas, eficazes e coordenadas.
📣 Você acha que a inteligência artificial deveria ser mais regulada em tempos de crise? Como podemos combater a desinformação sem limitar a liberdade de expressão? Participe da conversa nos comentários!
Fontes: Los Angeles Times, University of Washington, AI Forensics, Data & Society, Media Matters, NewsGuard