
Em uma declaração recente que chamou atenção da comunidade tecnolĂłgica e mĂ©dica, o CEO da OpenAI, Sam Altman, alertou sobre os riscos de privacidade e a ausĂȘncia de confidencialidade legal quando usuĂĄrios utilizam o ChatGPT como substituto de um terapeuta ou conselheiro psicolĂłgico. O aviso veio em meio ao crescente uso do modelo por jovens e adultos para tratar de questĂ”es pessoais, emocionais e atĂ© clĂnicas, o que levanta preocupaçÔes sobre o destino e a proteção desses dados sensĂveis.
Segundo Altman, apesar do ChatGPT oferecer interaçÔes empĂĄticas e parecer Ăștil em momentos de angĂșstia, os usuĂĄrios precisam entender que nĂŁo estĂŁo cobertos por nenhuma legislação de sigilo mĂ©dico-paciente, como acontece em atendimentos conduzidos por profissionais licenciados em psicologia, psiquiatria ou medicina.
âNĂŁo hĂĄ proteção legal como no consultĂłrioâ
Durante uma entrevista publicada na Ășltima semana de julho de 2025 por veĂculos como The Verge e Axios, Sam Altman explicou que, embora a empresa implemente critĂ©rios rigorosos de privacidade, ela poderĂĄ ser legalmente obrigada a divulgar registros de conversas, caso envolvidas em investigaçÔes judiciais, processos legais ou mandados emitidos por autoridades.
âĂ importante ser transparente com o pĂșblico: se vocĂȘ contar algo ao ChatGPT que normalmente contaria apenas a um terapeuta, esse conteĂșdo nĂŁo estarĂĄ protegido por sigilo profissional. Podemos ser obrigados, por lei, a revelar isso em determinadas circunstĂąnciasâ, afirmou Altman.
A fala do CEO reacende o debate sobre os limites do uso de modelos de linguagem em contextos emocionalmente sensĂveis, especialmente com o avanço de integraçÔes como ChatGPT Voice, memĂłria personalizada e versĂ”es instaladas em dispositivos mĂłveis que acompanham o usuĂĄrio ao longo do dia.
Uso crescente como âapoio emocional digitalâ
Com mais de 100 milhĂ”es de usuĂĄrios ativos por semana, o ChatGPT vem sendo utilizado informalmente por muitas pessoas como um âcompanheiro virtualâ. Nas redes sociais, Ă© comum encontrar relatos de jovens que usam o chatbot para falar sobre ansiedade, solidĂŁo, traumas e relacionamentos, dada a capacidade do modelo de responder com empatia, reforço positivo e escuta ativa simulada.
Contudo, especialistas em saĂșde mental alertam para os riscos de dependĂȘncia emocional de uma IA nĂŁo supervisionada, bem como para a possibilidade de respostas inadequadas, enviesadas ou atĂ© prejudiciais, jĂĄ que o sistema nĂŁo possui julgamento clĂnico, nem responsabilidade Ă©tica profissional.
A psicĂłloga clĂnica Mariana Lemos, pesquisadora da Universidade Federal de SĂŁo Paulo, afirma que âembora a IA possa oferecer suporte temporĂĄrio, ela nĂŁo Ă© substituta para acompanhamento profissional e nĂŁo estĂĄ sujeita aos cĂłdigos de Ă©tica das profissĂ”es da saĂșdeâ.
ConsequĂȘncias jurĂdicas e recomendaçÔes
A ausĂȘncia de sigilo legal significa que, caso um usuĂĄrio revele comportamentos ilegais, autoincriminatĂłrios ou dados relacionados a terceiros, esses registros podem ser solicitados por tribunais ou agĂȘncias de investigação em paĂses onde a OpenAI opera. Diferente de um psicĂłlogo ou mĂ©dico, a empresa nĂŁo pode garantir proteção absoluta sobre essas interaçÔes.
A OpenAI mantĂ©m em seus Termos de Uso e PolĂtica de Privacidade que as conversas podem ser revisadas por humanos em situaçÔes especĂficas, principalmente para treinar o modelo ou investigar abusos da plataforma â salvo quando o usuĂĄrio desativa o armazenamento de histĂłrico, opção que passou a ser oferecida no segundo semestre de 2024.
Altman tambĂ©m recomendou que qualquer pessoa enfrentando crises emocionais, pensamentos autodestrutivos ou quadros clĂnicos de saĂșde mental busque ajuda profissional ou serviços especializados, como linhas de apoio psicolĂłgico e hospitais.
Nota de transparĂȘncia
Esta matĂ©ria foi baseada em declaraçÔes pĂșblicas verificadas de Sam Altman, CEO da OpenAI, entrevistas concedidas a The Verge, Axios e informaçÔes oficiais nos Termos de Uso e PolĂticas de Privacidade da OpenAI, atualizados atĂ© julho de 2025. A reportagem tambĂ©m consultou fontes da American Psychological Association, alĂ©m de especialistas em Ă©tica digital. NĂŁo hĂĄ especulaçÔes ou informaçÔes nĂŁo confirmadas nesta publicação.
VocĂȘ jĂĄ usou um chatbot para desabafar? Acredita que a IA pode ajudar ou prejudicar nesses casos? Participe da discussĂŁo nos comentĂĄrios!
Fontes: OpenAI, Sam Altman, The Verge, Axios, American Psychological Association, Universidade Federal de SĂŁo Paulo