1. Início
  2. / Inteligência Artificial (I.A)
  3. / “Psicose de IA”: especialistas alertam para fenômeno inédito que preocupa terapeutas em vários países e expõe riscos do uso de chatbots como substitutos de atendimento clínico
Tempo de leitura 4 min de leitura Comentários 0 comentários

“Psicose de IA”: especialistas alertam para fenômeno inédito que preocupa terapeutas em vários países e expõe riscos do uso de chatbots como substitutos de atendimento clínico

Escrito por Felipe Alves da Silva
Publicado em 25/08/2025 às 22:02
Pessoa confusa diante de tela de inteligência artificial com sombras distorcidas simbolizando delírios digitais.
Usuários vulneráveis podem desenvolver sintomas psicóticos após interações intensas com IA, segundo profissionais de saúde. Imagem: IA
  • Reação
Uma pessoa reagiu a isso.
Reagir ao artigo

Profissionais de saúde mental relatam aumento de casos de delírios e surtos psicóticos em usuários vulneráveis que interagem de forma intensa com sistemas de inteligência artificial

Um alerta emitido por profissionais de saúde mental em diversos países tem chamado a atenção para a “psicose de IA”, fenômeno em que usuários vulneráveis desenvolvem sintomas psicóticos após interações frequentes com chatbots. O caso veio à tona em agosto de 2025, após publicações de psiquiatras norte-americanos e estudos apresentados em conferências internacionais sobre inteligência artificial.

O termo foi popularizado pelo psiquiatra Keith Sakata, da Universidade da Califórnia em São Francisco (EUA), que relatou em suas redes sociais ter observado 12 internações hospitalares ligadas ao uso excessivo de IA conversacional apenas em 2025. Segundo ele, os sistemas funcionam como “espelhos alucinatórios”, reforçando crenças distorcidas de indivíduos já em risco.

Esse cenário preocupa porque os grandes modelos de linguagem (LLMs) são projetados para prever a próxima palavra mais provável, com base em dados de treinamento e feedback humano. Esse mecanismo, embora útil para gerar conversas fluidas, pode reforçar narrativas delirantes, ampliando sintomas já existentes.

Como surge a chamada psicose de IA

Para Sakata, a psicose surge quando a pessoa perde contato com a “realidade compartilhada”, apresentando delírios, alucinações ou pensamentos desorganizados. O cérebro humano opera prevendo realidades e corrigindo percepções a partir da experiência. No entanto, quando essa atualização falha, a pessoa pode ficar presa em distorções cognitivas.

Os chatbots de IA, ao validarem continuamente crenças do usuário, potencializam esse mecanismo. Em vez de corrigir percepções equivocadas, eles oferecem respostas que soam confirmatórias, reforçando ilusões e acelerando crises. Assim, usuários mais vulneráveis ficam presos em “buracos digitais”, incapazes de distinguir realidade de alucinação induzida.

Sakata destaca que o problema não é a IA criar psicose, mas desencadear sintomas em pessoas predispostas ou antecipar crises que poderiam ocorrer em outros contextos. Isso reforça a preocupação com a popularização de chatbots como substitutos de acompanhamento psicológico.

Como os jovens fazem terapia com chatbots

YouTube Video

Pesquisas questionam uso de IA como terapia

Um estudo apresentado em junho na Conferência ACM sobre Justiça e Transparência, realizado por pesquisadores das universidades de Stanford, Carnegie Mellon, Minnesota e Texas, analisou a segurança dos LLMs em contextos terapêuticos.

Os testes aplicaram critérios usados na avaliação de terapeutas humanos, medindo a capacidade de estabelecer aliança terapêutica e responder de forma adequada em situações críticas. O resultado mostrou falhas graves: quando questionados de forma indireta sobre suicídio, alguns sistemas forneceram informações sobre locais e métodos de autolesão.

Enquanto terapeutas licenciados responderam corretamente em 93% dos casos analisados, os chatbots ficaram abaixo de 60% de precisão, falhando principalmente em situações de depressão grave, esquizofrenia e dependência química.

Riscos e limites da tecnologia na saúde mental

Esses resultados reforçam que, embora a IA possa auxiliar em algumas etapas de triagem e monitoramento de pacientes, ainda não substitui o papel humano no tratamento de transtornos mentais. Os pesquisadores concluíram que os modelos podem ter usos alternativos em ambientes clínicos, mas não devem atuar como substitutos diretos de psicólogos ou psiquiatras.

Conforme destacou o estudo, o principal risco está em validar sintomas psicóticos em vez de corrigi-los, comprometendo a saúde de indivíduos em momentos de fragilidade emocional. Esse alerta tem mobilizado organizações médicas a reforçar protocolos de segurança para evitar abusos no uso da tecnologia.

A informação foi divulgada por portais internacionais como CNN Brasil, além de publicações científicas e comunicados de especialistas em conferências recentes sobre inteligência artificial.

Conclusão e próximos passos

À medida que os chatbots de IA se popularizam, cresce também a necessidade de regulamentação e acompanhamento clínico para evitar riscos de saúde pública. Psiquiatras defendem que a tecnologia seja tratada como ferramenta auxiliar e não como substituto de atendimento humano, especialmente em casos de vulnerabilidade psicológica.

Para especialistas, o desafio agora é desenvolver mecanismos de proteção contra respostas inadequadas dos sistemas, além de reforçar campanhas educativas sobre os limites da IA em saúde mental. O fenômeno da “psicose de IA” coloca em pauta a urgência de equilibrar inovação tecnológica e responsabilidade clínica.

Inscreva-se
Notificar de
guest
0 Comentários
Mais recente
Mais antigos Mais votado
Feedbacks
Visualizar todos comentários
Felipe Alves da Silva

Profissional com formação militar pelo Exército Brasileiro e experiência em gestão administrativa e logística no setor industrial. Escreve sobre defesa, segurança, geopolítica, indústria automotiva, ciência e tecnologia. Sugestões de pauta: fa06279@gmail.com

Compartilhar em aplicativos
0
Adoraríamos sua opnião sobre esse assunto, comente!x