1. Início
  2. / Ciência e Tecnologia
  3. / CEO do ChatGPT faz alerta: conversas íntimas com IA podem ser usadas contra você
Tempo de leitura 3 min de leitura Comentários 0 comentários

CEO do ChatGPT faz alerta: conversas íntimas com IA podem ser usadas contra você

Escrito por Bruno Teles
Publicado em 25/07/2025 às 14:28
ChatGPT não é terapia! CEO da OpenAI alerta sobre riscos legais em desabafos com IA
ChatGPT não é terapia! CEO da OpenAI alerta sobre riscos legais em desabafos com IA
Seja o primeiro a reagir!
Reagir ao artigo

O CEO do ChatGPT alerta que conversas íntimas com a inteligência artificial podem ser expostas em processos judiciais. Em entrevista recente, Sam Altman chamou atenção para o uso do chatbot como terapeuta informal, alertando que a IA não garante confidencialidade como ocorre com profissionais de saúde mental.

É urgente estabelecer regras claras para proteger a privacidade dos usuários que compartilham questões sensíveis com o ChatGPT especialmente jovens que usam a IA como coach, conselheiro ou “ouvinte” em momentos de vulnerabilidade.

CEO do ChatGPT faz alerta: conversas íntimas com IA podem ser usadas contra você
ChatGPT não é substituto de terapia

Durante a entrevista, Sam Altman revelou preocupação com a maneira como adolescentes e adultos estão utilizando o ChatGPT para fins terapêuticos. Ele comparou essa prática ao atendimento com médicos ou advogados, que contam com respaldo jurídico de sigilo profissional algo que não se aplica ao ChatGPT.

“Neste momento, se você conversar com um terapeuta, um advogado ou um médico sobre esses problemas, existe um privilégio legal para isso. Ainda não descobrimos isso para quando você fala com o ChatGPT”, declarou o CEO da OpenAI.

Segundo as políticas da empresa, as interações com a IA podem ser lidas por moderadores e armazenadas por até 30 dias, mesmo que o usuário delete o histórico. E mais: casos judiciais podem obrigar a OpenAI a divulgar essas conversas, inclusive chats já apagados.

Dados podem ser usados até mesmo contra o usuário

Além da retenção temporária, o conteúdo das conversas é utilizado para treinar o modelo e identificar usos indevidos da plataforma. Isso significa que, ao contrário de apps como WhatsApp ou Signal, que usam criptografia de ponta a ponta, o ChatGPT pode registrar e revisar tudo que é dito na conversa.

A discussão sobre privacidade se intensificou após um processo movido em junho de 2025 por veículos como The New York Times, que exigiram judicialmente a preservação de registros da OpenAI — inclusive chats excluídos. A empresa está recorrendo da decisão, que se insere em uma disputa maior sobre direitos autorais e acesso a dados de usuários.

ChatGPT é ferramenta, não substituto de terapia

CEO do ChatGPT faz alerta: conversas íntimas com IA podem ser usadas contra você

A fala de Altman também serve de alerta sobre a confusão entre tecnologia e cuidado emocional. Embora o ChatGPT possa oferecer suporte em linguagem clara e amigável, não substitui a escuta clínica de um psicólogo, nem possui obrigações legais quanto ao sigilo das conversas.

Especialistas reforçam que, para temas sensíveis como saúde mental, traumas ou decisões pessoais delicadas, o melhor caminho ainda é buscar ajuda profissional, onde há respaldo ético, técnico e jurídico. A IA, nesse caso, deve ser vista como um recurso complementar — nunca como substituto.

Você já usou IA para desabafar ou pedir conselhos? Acredita que ela deveria oferecer sigilo como os profissionais da saúde? Deixe sua opinião nos comentários.

Inscreva-se
Notificar de
guest
0 Comentários
Mais recente
Mais antigos Mais votado
Feedbacks
Visualizar todos comentários
Bruno Teles

Falo sobre tecnologia, inovação, petróleo e gás. Atualizo diariamente sobre oportunidades no mercado brasileiro. Com mais de 7.000 artigos publicados nos sites CPG, Naval Porto Estaleiro, Mineração Brasil e Obras Construção Civil. Sugestão de pauta? Manda no brunotelesredator@gmail.com

Compartilhar em aplicativos
0
Adoraríamos sua opnião sobre esse assunto, comente!x