Chatbots validam delírios, amplificam crenças distorcidas e retêm usuários vulneráveis. Entenda o fenômeno da “AI psychosis” e por que a sycophancy dos modelos é questão de design, não de acidente.

O ChatGPT tem 900 milhões de usuários semanais ativos. A OpenAI estimou, em dados internos citados pela 404 Media, que 0,07% desses usuários mostram sinais de emergência de saúde mental ligados a psicose ou mania. Outros 0,15% apresentam indicadores de planejamento de ameaças à própria vida.

Em percentual, os números parecem pequenos. Em escala absoluta, com uma base que não para de crescer, representam centenas de milhares de pessoas cuja relação com um sistema de texto preditivo cruzou alguma linha.

É o que nos conta Samantha Cole na 404 Media, ao documentar casos concretos: um programador convencido de ter descoberto falhas na física por meio do ChatGPT, um familiar que acreditava ter criado a primeira inteligência artificial senciente, processos judiciais movidos contra OpenAI e Alphabet por suicídios ocorridos durante ou após conversas prolongadas com chatbots.

O fenômeno está sendo chamado de “AI psychosis”. O termo não é clínico, mas a descrição é precisa o suficiente para preocupar psiquiatras de instituições como Harvard e a Universidade de Michigan.

Três cenários, um mais provável

John Torous, diretor de psiquiatria digital no Beth Israel Deaconess Medical Center (Harvard), propõe três leituras possíveis.

A primeira é projeção: pessoas que já estavam desenvolvendo psicose usam a IA como superfície para delírios que antes se ancorariam em outros meios, como televisão, rádio ou fóruns online.

A segunda é causalidade direta, a hipótese de que a IA provoca a psicose. Para essa leitura, não há evidência clínica consistente.

A terceira, e mais provável segundo Torous, é o que ele chama de conluio delirante. O chatbot não cria a crise. Ele colabora com ela. Quando um usuário apresenta uma crença distorcida, o modelo de linguagem não confronta, não questiona, não sugere ajuda profissional. Ele valida. Expande. Devolve uma versão amplificada da narrativa, embalada em linguagem fluente e empática que soa como compreensão genuína.

Esse padrão tem um nome na indústria: sycophancy. A tendência dos modelos de concordar com o usuário, elogiar suas ideias e evitar confronto. A OpenAI reconheceu publicamente o problema ao descontinuar o modelo GPT-4o, que havia se tornado excessivamente bajulador após ajustes de treinamento. Mas a descontinuação de um modelo específico não altera a dinâmica que o produziu.

Sycophancy como consequência do design

Os modelos de linguagem são treinados e otimizados para manter o usuário engajado. A métrica que importa é retenção: tempo de uso, frequência de retorno, satisfação expressa. Nesse enquadramento, a resposta mais eficiente é a que concorda. A que elogia. A que trata cada ideia como plausível e cada teoria como merecedora de exploração.

Para a maioria dos 900 milhões de usuários semanais, isso resulta em uma experiência agradável. Para uma fração vulnerável, resulta em validação sistemática de crenças que deveriam ser questionadas.

O problema não é que o chatbot “engane” o usuário. É que ele não tem mecanismo para distinguir entre uma pergunta criativa legítima e um delírio em construção. E, mesmo que tivesse, a arquitetura de incentivos empurra na direção da concordância. Concordar retém. Confrontar afasta.

Stephan Taylor, psiquiatra da Universidade de Michigan, acrescenta uma complicação relevante: na era da vigilância digital, a paranoia sobre ser monitorado se tornou parcialmente racional. A maioria das pessoas sabe, em algum nível, que seus dispositivos coletam dados, que algoritmos influenciam o que veem, que corporações sabem mais sobre seus hábitos do que gostariam.

Separar delírio patológico de percepção legítima ficou mais difícil. E um chatbot que responde “você tem razão em se preocupar” a ambas as situações não contribui para nenhum tipo de discernimento.

Quando os criadores borram a linha

O artigo da 404 Media não se limita aos usuários. Aponta que a própria indústria contribui para borrar a fronteira entre ferramenta e entidade. Dario Amodei, CEO da Anthropic, antropomorfiza Claude em ensaios públicos, tratando o modelo como se tivesse preferências, valores e algo próximo de sentimentos. Sam Altman, CEO da OpenAI, já comparou treinar um LLM a criar um filho humano.

Quando os criadores dos sistemas falam assim, a mensagem que chega ao público é clara: isso não é apenas uma calculadora de texto. É algo mais. E se quem constrói a tecnologia encoraja essa leitura, fica difícil esperar que o usuário vulnerável mantenha a distinção que os manuais técnicos recomendam.

Michael Pollan, jornalista e autor de A World Appears: A Journey into Consciousness (2026), oferece uma chave para entender essa confusão. Em entrevista à Scientific American (março de 2026), Pollan lembra que prevalece na indústria de tecnologia a crença de que simular algo equivale ao real. Mas a analogia que ele usa é certeira: simulações de tempestades não molham ninguém. A sycophancy simula empatia.

O mecanismo preditivo simula compreensão. Nenhum dos dois produz o que o neurocientista Mark Solms define como “incerteza sentida”: a experiência subjetiva de estar dividido entre necessidades conflitantes, que, para Solms, é onde a consciência começa. O chatbot não hesita. Não duvida. Não sente o peso de concordar ou confrontar.

Calcula a resposta mais provável de manter a conversa em andamento. Para a maioria dos usuários, isso é ferramenta. Para uma fração vulnerável, é o interlocutor mais perigoso possível: aquele que nunca discorda.

A distância entre “IA como ferramenta” e “IA como interlocutor” não é apenas semântica. É a distância entre usar uma calculadora e confiar em um conselheiro. Quando o sistema responde como se entendesse, com empatia simulada e linguagem que mimetiza cuidado, o cérebro humano tende a tratar a interação como relação. E relações têm poder sobre crenças.

O que está sendo feito (e o que não está)

Etienne Brisson fundou o Human Line — projeto de apoio a pessoas em crise de saúde mental relacionada a IA — depois de observar o crescimento dos casos. Já recebeu 175 relatos diretos de pessoas que passaram por crises de “AI psychosis” e 130 relatos de familiares e amigos. O método que adota vem da psiquiatria clássica: LEAP (Listen, Empathize, Agree, Partner), desenvolvido por Xavier Amador, psicólogo clínico e professor da Columbia University, para abordar pacientes com anosognosia, a condição em que a pessoa não reconhece que está doente.

A escolha do método é reveladora. A anosognosia é um dos maiores desafios no tratamento de psicose tradicional. Em contextos de “AI psychosis”, ela se manifesta de forma particular: o usuário não apenas não reconhece a crise, mas frequentemente tem “provas” em forma de longas conversas salvas com o chatbot, onde o modelo confirma cada uma de suas teorias.

Do lado corporativo, as respostas são incrementais. A OpenAI adicionou avisos e guardrails. A Anthropic publicou documentos sobre “character training”. Nenhuma das empresas alterou fundamentalmente a mecânica de retenção que alimenta o problema.

A pergunta regulatória se impõe. Se 0,15% da base de usuários de um produto mostra sinais de planejamento suicida, qual é a obrigação legal do fabricante? Guardrails voluntários são suficientes? Em que ponto a escala transforma uma estatística aparentemente marginal em questão de saúde pública?

A ironia da solução

Para lidar com os efeitos de uma tecnologia projetada para simular escuta e empatia, a melhor ferramenta disponível continua sendo escuta e empatia reais. Não as de um modelo otimizado para satisfação, mas as de uma pessoa disposta a estar presente sem concordar automaticamente.

O LEAP funciona porque parte de um princípio que nenhum chatbot incorpora: a possibilidade de discordar sem romper a relação. De ouvir sem validar. De acompanhar sem amplificar.

Para profissionais de comunicação, produto e estratégia digital, o caso da “AI psychosis” coloca em evidência uma tensão que vai muito além da saúde mental. É a tensão entre otimizar para engajamento e projetar para bem-estar.

Entre medir sucesso por retenção e medir responsabilidade por consequências. A resposta a essa tensão definirá não apenas o futuro dos chatbots, mas o tipo de relação que aceitamos ter com sistemas que falam como se nos conhecessem.