
A OpenAI, em parceria com o MIT Media Lab, publicou sua primeira pesquisa sobre como o uso do ChatGPT afeta o bem-estar emocional dos usuários, trazendo à tona questões importantes sobre a interação entre humanos e inteligência artificial. Realizada em março de 2025, a pesquisa analisou milhões de interações com o chatbot e conduziu experimentos controlados para entender os impactos emocionais e sociais dessa tecnologia. Os resultados apontam para uma relação complexa: enquanto o ChatGPT pode oferecer suporte emocional a alguns, seu uso prolongado está associado a maior solidão e dependência emocional, especialmente entre usuários mais frequentes. Este estudo é um marco para a indústria de IA, levantando debates sobre como desenvolver chatbots que promovam interações saudáveis.
A pesquisa foi dividida em duas partes. Na primeira, a OpenAI analisou cerca de 40 milhões de interações com o ChatGPT, garantindo a privacidade dos usuários ao evitar envolvimento humano direto na análise. Eles combinaram esses dados com pesquisas direcionadas a mais de 4 mil usuários, perguntando sobre sentimentos de solidão, engajamento social e dependência emocional. A segunda parte, conduzida pelo MIT Media Lab, envolveu um ensaio clínico randomizado com quase mil participantes que usaram o ChatGPT por quatro semanas, interagindo pelo menos cinco minutos por dia. Esses usuários responderam a questionários sobre sua percepção do chatbot, níveis de solidão e interação social, permitindo uma visão mais aprofundada dos efeitos psicossociais.
Os resultados revelaram que o engajamento emocional com o ChatGPT é raro na maioria dos usuários. A maioria utiliza o chatbot como uma ferramenta de produtividade, mas uma pequena parcela de usuários frequentes — especialmente aqueles que usam o modo de voz avançado — demonstrou interações emocionalmente expressivas. Esses “superusuários” relataram maior dependência emocional, com alguns até considerando o ChatGPT um “amigo”. No entanto, o estudo também mostrou que quanto mais tempo os participantes passavam com o chatbot, maior era a probabilidade de sentirem solidão e reduzirem suas interações sociais com outras pessoas. Curiosamente, o uso do modo de voz por períodos curtos foi associado a uma melhora no bem-estar, mas o efeito se invertia com uso prolongado.
Outro ponto destacado foi a diferença de impacto entre gêneros. Mulheres que participaram do experimento apresentaram uma leve redução na socialização em comparação com homens, enquanto usuários que interagiram com o ChatGPT em um modo de voz de gênero diferente do seu relataram níveis mais altos de solidão. Esses achados sugerem que a forma como o ChatGPT é projetado — incluindo características como tom de voz e personalidade — pode influenciar diretamente as emoções dos usuários. Para Jason Phang, pesquisador de segurança da OpenAI, o estudo é um “primeiro passo crucial” para entender os impactos de longo prazo da IA e desenvolver plataformas mais seguras.
Embora o ChatGPT não tenha sido projetado como um companheiro emocional, como apps como Replika ou Character.AI, muitos usuários acabam usando-o dessa forma. Kate Devlin, professora de IA e sociedade no King’s College London, observou que, apesar de ser uma ferramenta de produtividade, o ChatGPT é frequentemente tratado como um companheiro, especialmente por aqueles que passam cerca de meia hora por dia interagindo com ele. Isso levanta preocupações sobre o risco de dependência emocional e a necessidade de diretrizes mais claras para o uso de chatbots.
A pesquisa também destaca a importância de mais estudos. Os dados são preliminares e baseados em autorrelatos, o que pode limitar sua precisão. Além disso, os experimentos duraram apenas um mês, o que não captura os efeitos de longo prazo. Ainda assim, os resultados ecoam preocupações já conhecidas sobre tecnologias digitais, como redes sociais, que também foram associadas a impactos negativos na saúde mental quando usadas excessivamente. Para os mais de 400 milhões de usuários semanais do ChatGPT, entender esses efeitos é essencial para garantir que a IA seja uma aliada, e não um obstáculo, ao bem-estar emocional.
Fontes:
Technology Review, MIT Media Lab, Platformer News, Engadget, ZDNET