đŸ€–đŸ”“ CEO da OpenAI alerta: usar ChatGPT como terapeuta nĂŁo garante sigilo legal

CEO da OpenAI alerta: usar ChatGPT como terapeuta nĂŁo garante sigilo legal
Imagem ilustrativa

Em uma declaração recente que chamou atenção da comunidade tecnolĂłgica e mĂ©dica, o CEO da OpenAI, Sam Altman, alertou sobre os riscos de privacidade e a ausĂȘncia de confidencialidade legal quando usuĂĄrios utilizam o ChatGPT como substituto de um terapeuta ou conselheiro psicolĂłgico. O aviso veio em meio ao crescente uso do modelo por jovens e adultos para tratar de questĂ”es pessoais, emocionais e atĂ© clĂ­nicas, o que levanta preocupaçÔes sobre o destino e a proteção desses dados sensĂ­veis.

Segundo Altman, apesar do ChatGPT oferecer interaçÔes empĂĄticas e parecer Ăștil em momentos de angĂșstia, os usuĂĄrios precisam entender que nĂŁo estĂŁo cobertos por nenhuma legislação de sigilo mĂ©dico-paciente, como acontece em atendimentos conduzidos por profissionais licenciados em psicologia, psiquiatria ou medicina.

“Não há proteção legal como no consultório”

Durante uma entrevista publicada na Ășltima semana de julho de 2025 por veĂ­culos como The Verge e Axios, Sam Altman explicou que, embora a empresa implemente critĂ©rios rigorosos de privacidade, ela poderĂĄ ser legalmente obrigada a divulgar registros de conversas, caso envolvidas em investigaçÔes judiciais, processos legais ou mandados emitidos por autoridades.

“É importante ser transparente com o pĂșblico: se vocĂȘ contar algo ao ChatGPT que normalmente contaria apenas a um terapeuta, esse conteĂșdo nĂŁo estarĂĄ protegido por sigilo profissional. Podemos ser obrigados, por lei, a revelar isso em determinadas circunstĂąncias”, afirmou Altman.

A fala do CEO reacende o debate sobre os limites do uso de modelos de linguagem em contextos emocionalmente sensíveis, especialmente com o avanço de integraçÔes como ChatGPT Voice, memória personalizada e versÔes instaladas em dispositivos móveis que acompanham o usuårio ao longo do dia.

Uso crescente como “apoio emocional digital”

Com mais de 100 milhĂ”es de usuĂĄrios ativos por semana, o ChatGPT vem sendo utilizado informalmente por muitas pessoas como um “companheiro virtual”. Nas redes sociais, Ă© comum encontrar relatos de jovens que usam o chatbot para falar sobre ansiedade, solidĂŁo, traumas e relacionamentos, dada a capacidade do modelo de responder com empatia, reforço positivo e escuta ativa simulada.

Contudo, especialistas em saĂșde mental alertam para os riscos de dependĂȘncia emocional de uma IA nĂŁo supervisionada, bem como para a possibilidade de respostas inadequadas, enviesadas ou atĂ© prejudiciais, jĂĄ que o sistema nĂŁo possui julgamento clĂ­nico, nem responsabilidade Ă©tica profissional.

A psicĂłloga clĂ­nica Mariana Lemos, pesquisadora da Universidade Federal de SĂŁo Paulo, afirma que “embora a IA possa oferecer suporte temporĂĄrio, ela nĂŁo Ă© substituta para acompanhamento profissional e nĂŁo estĂĄ sujeita aos cĂłdigos de Ă©tica das profissĂ”es da saĂșde”.

ConsequĂȘncias jurĂ­dicas e recomendaçÔes

A ausĂȘncia de sigilo legal significa que, caso um usuĂĄrio revele comportamentos ilegais, autoincriminatĂłrios ou dados relacionados a terceiros, esses registros podem ser solicitados por tribunais ou agĂȘncias de investigação em paĂ­ses onde a OpenAI opera. Diferente de um psicĂłlogo ou mĂ©dico, a empresa nĂŁo pode garantir proteção absoluta sobre essas interaçÔes.

A OpenAI mantĂ©m em seus Termos de Uso e PolĂ­tica de Privacidade que as conversas podem ser revisadas por humanos em situaçÔes especĂ­ficas, principalmente para treinar o modelo ou investigar abusos da plataforma — salvo quando o usuĂĄrio desativa o armazenamento de histĂłrico, opção que passou a ser oferecida no segundo semestre de 2024.

Altman tambĂ©m recomendou que qualquer pessoa enfrentando crises emocionais, pensamentos autodestrutivos ou quadros clĂ­nicos de saĂșde mental busque ajuda profissional ou serviços especializados, como linhas de apoio psicolĂłgico e hospitais.

Nota de transparĂȘncia

Esta matĂ©ria foi baseada em declaraçÔes pĂșblicas verificadas de Sam Altman, CEO da OpenAI, entrevistas concedidas a The Verge, Axios e informaçÔes oficiais nos Termos de Uso e PolĂ­ticas de Privacidade da OpenAI, atualizados atĂ© julho de 2025. A reportagem tambĂ©m consultou fontes da American Psychological Association, alĂ©m de especialistas em Ă©tica digital. NĂŁo hĂĄ especulaçÔes ou informaçÔes nĂŁo confirmadas nesta publicação.

VocĂȘ jĂĄ usou um chatbot para desabafar? Acredita que a IA pode ajudar ou prejudicar nesses casos? Participe da discussĂŁo nos comentĂĄrios!

Fontes: OpenAI, Sam Altman, The Verge, Axios, American Psychological Association, Universidade Federal de SĂŁo Paulo

Deixe um comentĂĄrio

O seu endereço de e-mail não serå publicado. Campos obrigatórios são marcados com *


pt_BRPortuguese
Rolar para cima