Sam Altman, da OpenAI, afirma que interações sensíveis com inteligência artificial não têm a mesma proteção legal de sessões com psicólogos
O CEO do ChatGPT alerta que conversas íntimas com a inteligência artificial podem ser expostas em processos judiciais. Em entrevista recente, Sam Altman chamou atenção para o uso do chatbot como terapeuta informal, alertando que a IA não garante confidencialidade como ocorre com profissionais de saúde mental.
É urgente estabelecer regras claras para proteger a privacidade dos usuários que compartilham questões sensíveis com o ChatGPT especialmente jovens que usam a IA como coach, conselheiro ou “ouvinte” em momentos de vulnerabilidade.
Conversas com IA não têm sigilo legal garantido
Durante a entrevista, Sam Altman revelou preocupação com a maneira como adolescentes e adultos estão utilizando o ChatGPT para fins terapêuticos. Ele comparou essa prática ao atendimento com médicos ou advogados, que contam com respaldo jurídico de sigilo profissional algo que não se aplica ao ChatGPT.
-
A corrida pelos minerais raros da Amazônia começa — e Brasil precisa decidir se será soberano ou dependente
-
Empresa diz que criou reator capaz de transformar mercúrio em ouro e promete toneladas por ano
-
O repetidor de sinal Wi-Fi pode melhorar a cobertura da internet em casa, mas reduz velocidade e não resolve problemas em residências grandes
-
Fãs da Apple: 5 curiosidades incríveis que poucos conhecem sobre os produtos mais conhecidos da marca da maçã
“Neste momento, se você conversar com um terapeuta, um advogado ou um médico sobre esses problemas, existe um privilégio legal para isso. Ainda não descobrimos isso para quando você fala com o ChatGPT”, declarou o CEO da OpenAI.
Segundo as políticas da empresa, as interações com a IA podem ser lidas por moderadores e armazenadas por até 30 dias, mesmo que o usuário delete o histórico. E mais: casos judiciais podem obrigar a OpenAI a divulgar essas conversas, inclusive chats já apagados.
Dados podem ser usados até mesmo contra o usuário
Além da retenção temporária, o conteúdo das conversas é utilizado para treinar o modelo e identificar usos indevidos da plataforma. Isso significa que, ao contrário de apps como WhatsApp ou Signal, que usam criptografia de ponta a ponta, o ChatGPT pode registrar e revisar tudo que é dito na conversa.
A discussão sobre privacidade se intensificou após um processo movido em junho de 2025 por veículos como The New York Times, que exigiram judicialmente a preservação de registros da OpenAI — inclusive chats excluídos. A empresa está recorrendo da decisão, que se insere em uma disputa maior sobre direitos autorais e acesso a dados de usuários.
ChatGPT é ferramenta, não substituto de terapia
A fala de Altman também serve de alerta sobre a confusão entre tecnologia e cuidado emocional. Embora o ChatGPT possa oferecer suporte em linguagem clara e amigável, não substitui a escuta clínica de um psicólogo, nem possui obrigações legais quanto ao sigilo das conversas.
Especialistas reforçam que, para temas sensíveis como saúde mental, traumas ou decisões pessoais delicadas, o melhor caminho ainda é buscar ajuda profissional, onde há respaldo ético, técnico e jurídico. A IA, nesse caso, deve ser vista como um recurso complementar — nunca como substituto.
Você já usou IA para desabafar ou pedir conselhos? Acredita que ela deveria oferecer sigilo como os profissionais da saúde? Deixe sua opinião nos comentários.