
Gigantes da tecnologia na China, como Alibaba, ByteDance e DeepSeek, implementaram uma medida drástica para combater a fraude acadêmica durante o exame nacional de acesso à universidade, conhecido como “gaokao”. As empresas restringiram a funcionalidade de reconhecimento de imagem em seus chatbots de inteligência artificial durante o período do exame, que ocorreu entre os dias 7 e 10 de junho. A ação, que não foi anunciada oficialmente pelas companhias, mas percebida por estudantes, visa impedir que os candidatos utilizem as IAs para obter respostas, fotografando e enviando as questões da prova. As informações foram primeiramente reportadas pelo site de notícias de tecnologia The Verge.
O “gaokao” é um evento de importância monumental na China. Considerado por muitos como a única e mais decisiva porta de entrada para o ensino superior, o exame de vários dias mobiliza milhões de estudantes anualmente e pode determinar a trajetória profissional e social de um indivíduo. A pressão para obter um bom resultado é imensa, o que historicamente levou a uma batalha contínua entre as autoridades educacionais e métodos de fraude cada vez mais sofisticados. A restrição proativa dos chatbots de IA é o mais recente capítulo dessa disputa, colocando a tecnologia de ponta no centro do debate sobre integridade acadêmica.
A vulnerabilidade explorada seria simples, mas eficaz: um estudante poderia usar um dispositivo para tirar uma foto de uma questão complexa – seja de matemática, física ou outra disciplina – e enviá-la a um chatbot com capacidade de análise de imagem. A IA poderia então interpretar a questão e fornecer uma solução detalhada em segundos. Para evitar esse cenário, empresas como a ByteDance (dona do TikTok e do chatbot Doubao), o Alibaba (com seu modelo Qwen) e a DeepSeek AI desativaram ou limitaram severamente essa funcionalidade. A descoberta da restrição partiu dos próprios usuários, que relataram a mudança em diversas redes sociais chinesas, com a notícia sendo posteriormente amplificada pela imprensa internacional.
A ausência de um comunicado oficial por parte das empresas sugere uma ação coordenada, porém discreta. Especialistas especulam que a medida foi uma forma de autorregulação para se antecipar a uma possível ordem governamental e para evitar o enorme dano de imagem que seria associado à facilitação de fraudes no “gaokao”. Serem vistas como cúmplices em minar a integridade do exame mais importante do país poderia trazer consequências regulatórias severas e a perda da confiança do público. Portanto, ao agir de forma proativa, as empresas demonstram responsabilidade social e se alinham às prioridades nacionais de garantir a lisura do processo seletivo.
Esta medida representa um fascinante ponto de inflexão na relação entre a inteligência artificial e a sociedade. Enquanto as capacidades da IA generativa continuam a se expandir a um ritmo vertiginoso, também crescem os desafios éticos e práticos de sua implementação. O caso do “gaokao” ilustra perfeitamente esse dilema: a mesma tecnologia que pode ajudar na educação e no aprendizado também pode ser uma ferramenta poderosa para a desonestidade. A decisão das empresas chinesas de limitar suas próprias ferramentas em um momento tão crítico sinaliza o início de uma nova era, na qual a contenção e o uso responsável da IA se tornarão tão importantes quanto o seu desenvolvimento. A sociedade, não apenas na China, mas em todo o mundo, precisará continuar a debater e a estabelecer barreiras para garantir que os benefícios da tecnologia não comprometam os valores fundamentais, como a justiça e o mérito acadêmico.
Você concorda com a decisão das empresas de tecnologia de restringir suas IAs durante o exame? Acredita que essa é uma solução eficaz ou apenas temporária? Deixe sua opinião nos comentários!
Nota de Transparência:
Esta matéria é baseada em informações divulgadas pelo site The Verge, que por sua vez se baseia em relatos de estudantes em redes sociais. Até o momento da publicação, as empresas de tecnologia mencionadas não se pronunciaram oficialmente sobre a medida.
Fontes:
The Verge