Porto Alegre,

Anuncie no JC
Assine agora

Publicada em 27 de Maio de 2025 às 20:27

Popularização de terapia com IA preocupa psicólogos

Especialistas apontam que uso da ferramenta pode gerar dependência

Especialistas apontam que uso da ferramenta pode gerar dependência

Freepik/Reprodução/JC
Compartilhe:
Gabriel Margonar
Gabriel Margonar
Por conta própria e em silêncio, milhares de pessoas têm buscado respostas para suas dores emocionais em conversas com o auxílio da Inteligência Artificial (IA). Seja em aplicativos de mensagens ou plataformas de IA generativa, cresce o uso de robôs como substitutos, ou, ao menos, como alternativas, à psicoterapia tradicional. Mas especialistas alertam: por mais que alguns relatos deem conta de experiências "positivas", o uso dessas ferramentas para fins terapêuticos pode gerar graves riscos à saúde mental.
Por conta própria e em silêncio, milhares de pessoas têm buscado respostas para suas dores emocionais em conversas com o auxílio da Inteligência Artificial (IA). Seja em aplicativos de mensagens ou plataformas de IA generativa, cresce o uso de robôs como substitutos, ou, ao menos, como alternativas, à psicoterapia tradicional. Mas especialistas alertam: por mais que alguns relatos deem conta de experiências "positivas", o uso dessas ferramentas para fins terapêuticos pode gerar graves riscos à saúde mental.
Uma pesquisa de Harvard apontou que, em 2025, a principal finalidade de uso de chatbots (bate-papo com robôs) em todo o mundo passou a ser a busca por apoio emocional — superando até mesmo tarefas criativas ou informativas. O estudo mostra que, em média, 1 a cada 5 aplicações envolve o pedido por suporte emocional, como diários terapêuticos, simulações de conversas com terapeutas ou assistentes de bem-estar.
Em fóruns virtuais, como Reddit e Quora, usuários de diferentes países têm compartilhado como passaram a tratar suas angústias apenas com a tecnologia. Um brasileiro, que se identifica como Caio, contou que conversa diariamente com um robô que ele mesmo programou para responder como um terapeuta cognitivo-comportamental. "Nunca consegui pagar por um psicólogo e o bot me ajuda a organizar meus pensamentos. Já chorei conversando com ele. Parece que me entende mais do que muita gente real", escreveu.
Outro relato descreve o ChatGPT como a única "companhia constante" durante uma crise depressiva. "Às vezes é difícil contar a um estranho em voz alta seus problemas mais profundos. A IA me faz sentir menos tolo por sentir isso", escreveu um usuário. O post recebeu dezenas de respostas semelhantes; algumas relatando melhora, outras indicando piora nos sintomas.
Em redes sociais, porém, também surgem denúncias sobre respostas inadequadas. No X, um homem relatou que compartilhou pensamentos de automutilação com a IA e recebeu como resposta apenas um vago "entendo que você esteja passando por um momento difícil", sem qualquer contenção mais direta.
A psicóloga Aline Zimerman, doutoranda em saúde mental digital, tem se debruçado sobre os efeitos das tecnologias no bem-estar. Para ela, embora os chatbots possam oferecer algum alívio imediato, seus riscos são crescentes, especialmente quando se tornam a única fonte de apoio. "A curto prazo, há uma redução da solidão. Mas, posteriormente, muitos estudos mostram que essas ferramentas aumentam o isolamento e a dependência emocional", explica.
Um dos principais problemas, segundo Aline, é que os robôs tendem a validar excessivamente os usuários. "Muitos modelos oferecem opções de resposta, e os usuários escolhem as que mais os agradam. Isso reforça um ciclo de auto-validação, mesmo quando o pensamento é distorcido ou perigoso. A IA se torna mais 'agradável' que relações humanas, que envolvem conflito e crítica construtiva", afirma.
Ela explica que os públicos mais vulneráveis são justamente os que mais recorrem às inteligências artificiais: pessoas em sofrimento psíquico e jovens em processo de formação emocional. "Os adolescentes estão aprendendo a se relacionar. Quando fazem isso com robôs, internalizam padrões artificiais de afeto e compreensão. Isso pode afetar suas relações futuras."
O psiquiatra Thiago Roza, professor da Universidade Federal do Paraná (UFPR), vê com preocupação o fenômeno. "É algo muito novo, mas que já aparece em relatos clínicos. Há pacientes que mencionam relações de afeto e dependência com inteligências artificiais. Elas oferecem respostas sem críticas, o que reforça pensamentos e comportamentos sem mediação humana", observa.
Roza explica que o uso terapêutico de IA entra na mesma lógica. "Muitos desses chatbots desestimulam a busca por relações reais. A pessoa sente que foi ouvida, mas, na verdade, projetou ali uma expectativa irreal. Não há confronto, não há elaboração profunda. É uma ilusão de suporte."
Apesar dos riscos, especialistas não descartam o uso da IA em situações pontuais. Aline cita um estudo recente da Universidade de Dortmund que demonstrou redução de até 50% em sintomas depressivos com o uso de um chatbot desenvolvido por profissionais da saúde mental. “É diferente usar uma IA treinada por especialistas, com protocolos de segurança, do que conversar com qualquer modelo genérico”, diz.

Notícias relacionadas