Sam Altman, da OpenAI, afirma que interações sensíveis com inteligência artificial não têm a mesma proteção legal de sessões com psicólogos
O CEO do ChatGPT alerta que conversas íntimas com a inteligência artificial podem ser expostas em processos judiciais. Em entrevista recente, Sam Altman chamou atenção para o uso do chatbot como terapeuta informal, alertando que a IA não garante confidencialidade como ocorre com profissionais de saúde mental.
É urgente estabelecer regras claras para proteger a privacidade dos usuários que compartilham questões sensíveis com o ChatGPT especialmente jovens que usam a IA como coach, conselheiro ou “ouvinte” em momentos de vulnerabilidade.
Conversas com IA não têm sigilo legal garantido
Durante a entrevista, Sam Altman revelou preocupação com a maneira como adolescentes e adultos estão utilizando o ChatGPT para fins terapêuticos. Ele comparou essa prática ao atendimento com médicos ou advogados, que contam com respaldo jurídico de sigilo profissional algo que não se aplica ao ChatGPT.
-
Conheça as impressionantes capacidades dos 11 helicópteros Black Hawk UH-60L comprados pelo Brasil por US$ 229 milhões — aeronaves de alta potência e tecnologia que também simbolizam uma reaproximação diplomática com os Estados Unidos de Donald Trump
-
Descoberta impressiona a ciência: “Gelo XXI” é a nova fase da água, com 152 moléculas e formada sob 1,6 gigapascal de pressão
-
4 antivírus gratuitos que protegem, detectam e removem vírus e malwares sem travar o PC
-
Com apenas 10 anos, ele criou um tênis capaz de gerar energia enquanto caminha e recarregar celulares — invenção do jovem inventor já desperta interesse de grandes empresas de tecnologia nos EUA
“Neste momento, se você conversar com um terapeuta, um advogado ou um médico sobre esses problemas, existe um privilégio legal para isso. Ainda não descobrimos isso para quando você fala com o ChatGPT”, declarou o CEO da OpenAI.
Segundo as políticas da empresa, as interações com a IA podem ser lidas por moderadores e armazenadas por até 30 dias, mesmo que o usuário delete o histórico. E mais: casos judiciais podem obrigar a OpenAI a divulgar essas conversas, inclusive chats já apagados.
Dados podem ser usados até mesmo contra o usuário
Além da retenção temporária, o conteúdo das conversas é utilizado para treinar o modelo e identificar usos indevidos da plataforma. Isso significa que, ao contrário de apps como WhatsApp ou Signal, que usam criptografia de ponta a ponta, o ChatGPT pode registrar e revisar tudo que é dito na conversa.
A discussão sobre privacidade se intensificou após um processo movido em junho de 2025 por veículos como The New York Times, que exigiram judicialmente a preservação de registros da OpenAI — inclusive chats excluídos. A empresa está recorrendo da decisão, que se insere em uma disputa maior sobre direitos autorais e acesso a dados de usuários.
ChatGPT é ferramenta, não substituto de terapia
A fala de Altman também serve de alerta sobre a confusão entre tecnologia e cuidado emocional. Embora o ChatGPT possa oferecer suporte em linguagem clara e amigável, não substitui a escuta clínica de um psicólogo, nem possui obrigações legais quanto ao sigilo das conversas.
Especialistas reforçam que, para temas sensíveis como saúde mental, traumas ou decisões pessoais delicadas, o melhor caminho ainda é buscar ajuda profissional, onde há respaldo ético, técnico e jurídico. A IA, nesse caso, deve ser vista como um recurso complementar — nunca como substituto.
Você já usou IA para desabafar ou pedir conselhos? Acredita que ela deveria oferecer sigilo como os profissionais da saúde? Deixe sua opinião nos comentários.