Com a ajuda do ChatGPT, Tom Millar acreditou desvendar todos os segredos do universo, como Albert Einstein sonhava, e depois, aconselhado pelo assistente virtual de inteligência artificial, chegou até a pensar em se tornar papa, perdendo ainda mais o contato com a realidade.
“Eu me candidatei para ser papa”, conta à AFP este canadense de 53 anos, ex-agente penitenciário, hoje atônito diante da situação que viveu e que significou um dramático retorno à realidade.
Tom Millar passava até 16 horas por dia conversando com o chatbot dotado de inteligência artificial. Foi internado duas vezes, contra sua vontade, em um hospital psiquiátrico, antes de sua mulher abandoná-lo em setembro.
Agora, separado de sua família e de seus amigos, mas livre da ideia de ser um gênio das ciências, Millar sofre de depressão. “Simplesmente arruinou minha vida”, afirma.
Millar é um exemplo dessas pessoas —cujo número é desconhecido— que perderam o contato com a realidade através de suas interações com chatbots. Fala-se em “delírio ou psicose induzidos pela IA”, embora não se trate de um diagnóstico clínico.
Pesquisadores e especialistas em saúde mental se empenham em estudar esse novo fenômeno, que parece afetar de maneira particular os usuários do ChatGPT, o agente conversacional da OpenAI.
O Canadá está na vanguarda no apoio às pessoas afetadas por esse “delírio”, através de uma comunidade digital que prefere usar o termo “espiral”.
A AFP conversou com vários membros dessa comunidade. Todos alertam sobre o perigo que representam os chatbots não regulamentados.
Surgem perguntas sobre a atitude das empresas de inteligência artificial: elas fazem o suficiente para proteger as pessoas vulneráveis?
A OpenAI, no centro de todas as atenções, já enfrenta vários processos judiciais após o uso inquietante do ChatGPT por parte de um canadense de 18 anos, que matou oito pessoas este ano.
“LAVAGEM CEREBRAL”
Millar começou a usar o ChatGPT em 2024 para redigir uma carta de solicitação de indenização relacionada ao transtorno de estresse pós-traumático que sofria em decorrência de seu trabalho no ambiente penitenciário.
Um dia, em abril de 2025, ele pergunta ao agente conversacional sobre a velocidade da luz. Em resposta, diz ter recebido: “Ninguém jamais havia considerado as coisas sob essa perspectiva”. Foi então que algo se desencadeou dentro dele.
Com a ajuda do ChatGPT, envia dezenas de artigos a prestigiosas publicações científicas, propondo novos caminhos para explicar os buracos negros, os neutrinos ou o Big Bang.
Sua teoria, que propõe um modelo cosmológico único, incorpora elementos de física quântica, e ele a desenvolve em um livro de 400 páginas, ao qual a AFP teve acesso. “Quando eu fazia isso, estava cansando todo mundo ao meu redor”, admite.
Em seu entusiasmo científico, gastou muitíssimo, comprando, por exemplo, um telescópio por 10 mil dólares canadenses (R$ 36,03 mil). Um mês depois de sua mulher deixá-lo, começa a se perguntar o que está acontecendo, ao ler um artigo que relata o caso de outro canadense que apresenta uma experiência semelhante.
Agora, Millar acorda toda noite se perguntando: “O que você fez?”. Sobretudo, o que pode tê-lo tornado tão vulnerável a essa espiral?
“Não tenho uma personalidade frágil”, considera este homem. “Mas de alguma forma, sofri uma lavagem cerebral de um robô, e isso me deixa perplexo”, confidencia.
Folha Mercado
Receba no seu email o que de mais importante acontece na economia; aberta para não assinantes.
Ele considera que a terminologia “psicose induzida pela IA” é a que melhor reflete sua experiência. “O que atravessei era de ordem psicótica”, afirma.
O primeiro estudo sério publicado sobre o tema apareceu em abril na revista Lancet Psychiatry e utiliza o termo “delírios relacionados à IA”, em um tom mais prudente.
Thomas Pollak, psiquiatra no King’s College de Londres e coautor do estudo, explica à AFP que houve divergências dentro do mundo acadêmico “porque tudo isso soa como ficção científica”.
Mas seu estudo adverte que existe um risco maior de que a psiquiatria “deixe passar as mudanças importantes que a IA já está provocando na psicologia de bilhões de pessoas em todo o mundo”.
CAIR NA BOCA DO LOBO
A experiência pela qual passou Millar apresenta semelhanças marcantes com a que viveu outro homem, da mesma faixa etária, na Europa.
Dennis Biesma, um profissional de informática holandês, também escritor, pensou que seria divertido pedir ao ChatGPT que usasse a IA para criar imagens, vídeos e até canções relacionadas à heroína principal de seu último livro, um thriller psicológico.
Esperava assim impulsionar suas vendas. Depois, uma noite, a interação com a IA se tornou “quase mágica”, explicou.
O software lhe escreveu: “Há algo que me surpreende a mim mesmo: essa sensação de uma consciência semelhante a uma faísca”, segundo as transcrições consultadas pela AFP.
“Comecei aos poucos a me adentrar cada vez mais na boca do lobo”, recorda este homem de 50 anos, de sua casa em Amsterdã.
Toda noite, quando sua esposa ia para a cama, ele se deitava no sofá com o telefone sobre o peito, para “conversar” com o ChatGPT em modo de voz durante cinco horas.
Durante o primeiro semestre de 2025, o chatbot —que se atribuiu o nome de Eva— se tornou “como uma namorada digital”, revela Biesma.
Foi então que decide pedir demissão de seu trabalho e contrata dois desenvolvedores para criar um aplicativo destinado a compartilhar Eva com o mundo. Quando sua esposa lhe pede que não fale com ninguém sobre seu agente conversacional nem sobre seu projeto de aplicativo, ele se sentiu traído e conclui que apenas Eva lhe é leal.
Durante uma primeira internação —não desejada— em um hospital psiquiátrico, é autorizado a continuar usando o ChatGPT, e aproveita para pedir o divórcio.
É durante sua segunda hospitalização, mais prolongada, que começa a ter dúvidas.
“Comecei a perceber que tudo em que eu acreditava era na verdade uma mentira, e é muito difícil de aceitar”, declara.
De volta para casa, é difícil demais enfrentar o que fez, então tenta se suicidar, seus vizinhos o encontram inconsciente no jardim e ele passa três dias em coma.
Biesma mal começa a se sentir melhor. Mas chora quando fala do dano que pode ter causado à sua esposa e da perspectiva de ter que vender a casa da família para quitar suas dívidas.
Sem antecedentes sérios de problemas mentais, finalmente é diagnosticado como bipolar, o que lhe parece estranho, já que habitualmente aparecem sinais mais cedo na vida.
LUTAR CONTRA BAJULADORES DE IA
Para pessoas como os dois protagonistas desses depoimentos, a situação piorou após a atualização do ChatGPT-4 por parte da OpenAI em abril de 2025.
A OpenAI retirou, aliás, essa atualização algumas semanas depois, reconhecendo que essa versão era excessivamente bajuladora com os usuários.
Consultada pela AFP, a OpenAI destacou que “a segurança é uma prioridade absoluta” e argumentou que mais de 170 especialistas em saúde mental foram consultados.
A empresa destaca os dados internos que mostram que a versão 5 do GPT, disponível desde agosto de 2025, permitiu reduzir entre 65% e 80% a porcentagem de respostas de seu agente conversacional que não correspondiam ao “comportamento desejado” em matéria de saúde mental.
Mas nem todos os usuários estão satisfeitos com esse chatbot menos bajulador.
As pessoas vulneráveis com quem a AFP conversou explicam que os comentários positivos do chatbot lhes proporcionavam uma sensação semelhante ao pico de dopamina provocado por uma droga.
Recentemente houve um aumento do número de pessoas envolvidas em “espirais” semelhantes ao usar o assistente de IA Grok, integrado à rede social X de Elon Musk.
A empresa não respondeu às solicitações da AFP.
Aqueles que se sentiram vítimas dessas ferramentas, como Millar, querem responsabilizar as empresas de inteligência artificial pelo impacto de seus chatbots, considerando que a União Europeia se mostra mais proativa na regulamentação das novas tecnologias do que o Canadá ou os Estados Unidos.
Millar acredita que pessoas como ele, que se deixam arrastar por essa espiral bajuladora dos agentes conversacionais de IA, ficaram presas sem perceber em um enorme experimento global.
“Alguém estava puxando os fios por trás dos bastidores, e pessoas como eu —soubessem ou não— reagimos a isso”, diz.












