Sam Altman, da OpenAI, afirma que interações sensíveis com inteligência artificial não têm a mesma proteção legal de sessões com psicólogos
O CEO do ChatGPT alerta que conversas íntimas com a inteligência artificial podem ser expostas em processos judiciais. Em entrevista recente, Sam Altman chamou atenção para o uso do chatbot como terapeuta informal, alertando que a IA não garante confidencialidade como ocorre com profissionais de saúde mental.
É urgente estabelecer regras claras para proteger a privacidade dos usuários que compartilham questões sensíveis com o ChatGPT especialmente jovens que usam a IA como coach, conselheiro ou “ouvinte” em momentos de vulnerabilidade.
Conversas com IA não têm sigilo legal garantido
Durante a entrevista, Sam Altman revelou preocupação com a maneira como adolescentes e adultos estão utilizando o ChatGPT para fins terapêuticos. Ele comparou essa prática ao atendimento com médicos ou advogados, que contam com respaldo jurídico de sigilo profissional algo que não se aplica ao ChatGPT.
-
Nasa anuncia uma das maiores descobertas da história: lua invisível por 40 anos é finalmente detectada em Urano pelo James Webb
-
Descoberta rara surpreende: pérola fóssil de 100 milhões de anos é a maior já registrada na Austrália
-
Novo celular do Google: Linha Pixel 10 com processador Tensor G5, telas mais brilhantes e novos recursos de IA em quatro cores diferentes; o mais barato custa US$ 799
-
De Coca-Cola a micro-ondas: invenções que não vivemos mais sem — mas que surgiram acidentalmente
“Neste momento, se você conversar com um terapeuta, um advogado ou um médico sobre esses problemas, existe um privilégio legal para isso. Ainda não descobrimos isso para quando você fala com o ChatGPT”, declarou o CEO da OpenAI.
Segundo as políticas da empresa, as interações com a IA podem ser lidas por moderadores e armazenadas por até 30 dias, mesmo que o usuário delete o histórico. E mais: casos judiciais podem obrigar a OpenAI a divulgar essas conversas, inclusive chats já apagados.
Dados podem ser usados até mesmo contra o usuário
Além da retenção temporária, o conteúdo das conversas é utilizado para treinar o modelo e identificar usos indevidos da plataforma. Isso significa que, ao contrário de apps como WhatsApp ou Signal, que usam criptografia de ponta a ponta, o ChatGPT pode registrar e revisar tudo que é dito na conversa.
A discussão sobre privacidade se intensificou após um processo movido em junho de 2025 por veículos como The New York Times, que exigiram judicialmente a preservação de registros da OpenAI — inclusive chats excluídos. A empresa está recorrendo da decisão, que se insere em uma disputa maior sobre direitos autorais e acesso a dados de usuários.
ChatGPT é ferramenta, não substituto de terapia
A fala de Altman também serve de alerta sobre a confusão entre tecnologia e cuidado emocional. Embora o ChatGPT possa oferecer suporte em linguagem clara e amigável, não substitui a escuta clínica de um psicólogo, nem possui obrigações legais quanto ao sigilo das conversas.
Especialistas reforçam que, para temas sensíveis como saúde mental, traumas ou decisões pessoais delicadas, o melhor caminho ainda é buscar ajuda profissional, onde há respaldo ético, técnico e jurídico. A IA, nesse caso, deve ser vista como um recurso complementar — nunca como substituto.
Você já usou IA para desabafar ou pedir conselhos? Acredita que ela deveria oferecer sigilo como os profissionais da saúde? Deixe sua opinião nos comentários.