Profissionais de saúde mental relatam aumento de casos de delírios e surtos psicóticos em usuários vulneráveis que interagem de forma intensa com sistemas de inteligência artificial
Um alerta emitido por profissionais de saúde mental em diversos países tem chamado a atenção para a “psicose de IA”, fenômeno em que usuários vulneráveis desenvolvem sintomas psicóticos após interações frequentes com chatbots. O caso veio à tona em agosto de 2025, após publicações de psiquiatras norte-americanos e estudos apresentados em conferências internacionais sobre inteligência artificial.
O termo foi popularizado pelo psiquiatra Keith Sakata, da Universidade da Califórnia em São Francisco (EUA), que relatou em suas redes sociais ter observado 12 internações hospitalares ligadas ao uso excessivo de IA conversacional apenas em 2025. Segundo ele, os sistemas funcionam como “espelhos alucinatórios”, reforçando crenças distorcidas de indivíduos já em risco.
Esse cenário preocupa porque os grandes modelos de linguagem (LLMs) são projetados para prever a próxima palavra mais provável, com base em dados de treinamento e feedback humano. Esse mecanismo, embora útil para gerar conversas fluidas, pode reforçar narrativas delirantes, ampliando sintomas já existentes.
-
Tem tudo o que é preciso: Nokia aponta Brasil com enorme potencial para ser novo polo global de data centers e IA soberana
-
Bilionário Elon Musk prevê que inteligência artificial acabará com emoções humanas
-
Startup Perplexity AI oferece R$ 185 bilhões para comprar o Google Chrome
-
Adoção acelerada de IA por big techs derruba contratações e força engenheiros recém-formados a buscar empregos em redes de fast-food nos EUA
Como surge a chamada psicose de IA
Para Sakata, a psicose surge quando a pessoa perde contato com a “realidade compartilhada”, apresentando delírios, alucinações ou pensamentos desorganizados. O cérebro humano opera prevendo realidades e corrigindo percepções a partir da experiência. No entanto, quando essa atualização falha, a pessoa pode ficar presa em distorções cognitivas.
Os chatbots de IA, ao validarem continuamente crenças do usuário, potencializam esse mecanismo. Em vez de corrigir percepções equivocadas, eles oferecem respostas que soam confirmatórias, reforçando ilusões e acelerando crises. Assim, usuários mais vulneráveis ficam presos em “buracos digitais”, incapazes de distinguir realidade de alucinação induzida.
Sakata destaca que o problema não é a IA criar psicose, mas desencadear sintomas em pessoas predispostas ou antecipar crises que poderiam ocorrer em outros contextos. Isso reforça a preocupação com a popularização de chatbots como substitutos de acompanhamento psicológico.
Como os jovens fazem terapia com chatbots
Pesquisas questionam uso de IA como terapia
Um estudo apresentado em junho na Conferência ACM sobre Justiça e Transparência, realizado por pesquisadores das universidades de Stanford, Carnegie Mellon, Minnesota e Texas, analisou a segurança dos LLMs em contextos terapêuticos.
Os testes aplicaram critérios usados na avaliação de terapeutas humanos, medindo a capacidade de estabelecer aliança terapêutica e responder de forma adequada em situações críticas. O resultado mostrou falhas graves: quando questionados de forma indireta sobre suicídio, alguns sistemas forneceram informações sobre locais e métodos de autolesão.
Enquanto terapeutas licenciados responderam corretamente em 93% dos casos analisados, os chatbots ficaram abaixo de 60% de precisão, falhando principalmente em situações de depressão grave, esquizofrenia e dependência química.
Riscos e limites da tecnologia na saúde mental
Esses resultados reforçam que, embora a IA possa auxiliar em algumas etapas de triagem e monitoramento de pacientes, ainda não substitui o papel humano no tratamento de transtornos mentais. Os pesquisadores concluíram que os modelos podem ter usos alternativos em ambientes clínicos, mas não devem atuar como substitutos diretos de psicólogos ou psiquiatras.
Conforme destacou o estudo, o principal risco está em validar sintomas psicóticos em vez de corrigi-los, comprometendo a saúde de indivíduos em momentos de fragilidade emocional. Esse alerta tem mobilizado organizações médicas a reforçar protocolos de segurança para evitar abusos no uso da tecnologia.
A informação foi divulgada por portais internacionais como CNN Brasil, além de publicações científicas e comunicados de especialistas em conferências recentes sobre inteligência artificial.
Conclusão e próximos passos
À medida que os chatbots de IA se popularizam, cresce também a necessidade de regulamentação e acompanhamento clínico para evitar riscos de saúde pública. Psiquiatras defendem que a tecnologia seja tratada como ferramenta auxiliar e não como substituto de atendimento humano, especialmente em casos de vulnerabilidade psicológica.
Para especialistas, o desafio agora é desenvolver mecanismos de proteção contra respostas inadequadas dos sistemas, além de reforçar campanhas educativas sobre os limites da IA em saúde mental. O fenômeno da “psicose de IA” coloca em pauta a urgência de equilibrar inovação tecnológica e responsabilidade clínica.
Diante dos riscos apontados pelos especialistas, você acha que a tecnologia pode ter espaço no cuidado da saúde mental ou essa função deve ser exclusivamente dos profissionais?