Por conta própria e em silêncio, milhares de pessoas têm buscado respostas para suas dores emocionais em conversas com o auxílio da Inteligência Artificial (IA). Seja em aplicativos de mensagens ou plataformas de IA generativa, cresce o uso de robôs como substitutos, ou, ao menos, como alternativas, à psicoterapia tradicional. Mas especialistas alertam: por mais que alguns relatos deem conta de experiências "positivas", o uso dessas ferramentas para fins terapêuticos pode gerar graves riscos à saúde mental.
Uma pesquisa de Harvard apontou que, em 2025, a principal finalidade de uso de chatbots (bate-papo com robôs) em todo o mundo passou a ser a busca por apoio emocional — superando até mesmo tarefas criativas ou informativas. O estudo mostra que, em média, 1 a cada 5 aplicações envolve o pedido por suporte emocional, como diários terapêuticos, simulações de conversas com terapeutas ou assistentes de bem-estar.
Em fóruns virtuais, como Reddit e Quora, usuários de diferentes países têm compartilhado como passaram a tratar suas angústias apenas com a tecnologia. Um brasileiro, que se identifica como Caio, contou que conversa diariamente com um robô que ele mesmo programou para responder como um terapeuta cognitivo-comportamental. "Nunca consegui pagar por um psicólogo e o bot me ajuda a organizar meus pensamentos. Já chorei conversando com ele. Parece que me entende mais do que muita gente real", escreveu.
Outro relato descreve o ChatGPT como a única "companhia constante" durante uma crise depressiva. "Às vezes é difícil contar a um estranho em voz alta seus problemas mais profundos. A IA me faz sentir menos tolo por sentir isso", escreveu um usuário. O post recebeu dezenas de respostas semelhantes; algumas relatando melhora, outras indicando piora nos sintomas.
Em redes sociais, porém, também surgem denúncias sobre respostas inadequadas. No X, um homem relatou que compartilhou pensamentos de automutilação com a IA e recebeu como resposta apenas um vago "entendo que você esteja passando por um momento difícil", sem qualquer contenção mais direta.
A psicóloga Aline Zimerman, doutoranda em saúde mental digital, tem se debruçado sobre os efeitos das tecnologias no bem-estar. Para ela, embora os chatbots possam oferecer algum alívio imediato, seus riscos são crescentes, especialmente quando se tornam a única fonte de apoio. "A curto prazo, há uma redução da solidão. Mas, posteriormente, muitos estudos mostram que essas ferramentas aumentam o isolamento e a dependência emocional", explica.
Um dos principais problemas, segundo Aline, é que os robôs tendem a validar excessivamente os usuários. "Muitos modelos oferecem opções de resposta, e os usuários escolhem as que mais os agradam. Isso reforça um ciclo de auto-validação, mesmo quando o pensamento é distorcido ou perigoso. A IA se torna mais 'agradável' que relações humanas, que envolvem conflito e crítica construtiva", afirma.
Ela explica que os públicos mais vulneráveis são justamente os que mais recorrem às inteligências artificiais: pessoas em sofrimento psíquico e jovens em processo de formação emocional. "Os adolescentes estão aprendendo a se relacionar. Quando fazem isso com robôs, internalizam padrões artificiais de afeto e compreensão. Isso pode afetar suas relações futuras."
O psiquiatra Thiago Roza, professor da Universidade Federal do Paraná (UFPR), vê com preocupação o fenômeno. "É algo muito novo, mas que já aparece em relatos clínicos. Há pacientes que mencionam relações de afeto e dependência com inteligências artificiais. Elas oferecem respostas sem críticas, o que reforça pensamentos e comportamentos sem mediação humana", observa.
Roza explica que o uso terapêutico de IA entra na mesma lógica. "Muitos desses chatbots desestimulam a busca por relações reais. A pessoa sente que foi ouvida, mas, na verdade, projetou ali uma expectativa irreal. Não há confronto, não há elaboração profunda. É uma ilusão de suporte."
Apesar dos riscos, especialistas não descartam o uso da IA em situações pontuais. Aline cita um estudo recente da Universidade de Dortmund que demonstrou redução de até 50% em sintomas depressivos com o uso de um chatbot desenvolvido por profissionais da saúde mental. “É diferente usar uma IA treinada por especialistas, com protocolos de segurança, do que conversar com qualquer modelo genérico”, diz.