Terapia com IA pode oferecer alternativa à ajuda humana?

Richard Riviere
8 de junho de 2025
Seta apontando para baixo.
terapia com IA

A terapia com IA já está sendo utilizada por milhares de pessoas na internet, mas será que ela é uma boa alternativa? Confira!

Atualmente, pessoas de todo mundo compartilham pensamentos e emoções com a Inteligência Artificial. O objetivo é fazer uma terapia com IA, mesmo com respostas geralmente inferiores ao aconselhamento profissional humano. 

Um exemplo é o caso de Kelly, que passou meses falando 3 horas por dia com os chatbots de IA. Ela enfrentava um período de espera na psicoterapia tradicional e queria conversar sobre sua ansiedade, baixa autoestima e um rompimento amoroso. 

O chatbot que Kelly utilizava, character.ai, avisava aos usuários de que se tratava de uma IA, para eles considerarem tudo como ficção, não como conselhos ou fatos. 

No entanto, alguns chatbots vêm sendo acusados de oferecerem conselhos ruins. 

Uma mãe está movendo um processo contra o mesmo site que Kelly usou, afirmando que o filho de 14 anos tirou a própria vida após ficar obcecado com um dos personagens de IA do portal.

Terapia convencional x terapia com IA

No Reino Unido, estima-se que mais de um milhão de pessoas estejam aguardando o acesso aos serviços de saúde mental. Além disso, os custos com a terapia particular são muito altos. 

Em paralelo, a IA vem ajudando na seleção, diagnóstico e triagem dos pacientes. E mesmo com alguns especialistas afirmando preocupação com os chatbots, outros afirmam que, na falta de apoio humano, eles podem ajudar. 

Nesse sentido, é possível treinar alguns modelos de IA para a prática da Terapia Comportamental Cognitiva, por exemplo. Desse modo, eles poderiam ajudar os usuários a reformularem seus pensamentos e ações. 

Mas enquanto os terapeutas reais conseguem detectar inúmeros sinais no paciente, os chatbots lidam apenas com o texto. Segundo o professor de sistemas humanos Hamed Haddadi, do Imperial College de Londres:

“Eles [os terapeutas] observam diversas outras indicações por meio das suas roupas, do seu comportamento, das suas ações, da sua aparência, da sua linguagem corporal e de tudo o mais. E é muito difícil embutir estas questões nos chatbots.

Dentre outros riscos, está ainda a concordância do modelo ao que o paciente diz. Ou seja, se ele disser algo prejudicial, provavelmente os bots irão concordar. 

Mesmo com todas as falhas, alguns ainda acreditam que os chatbots podem ser usados como paliativos diante de um sistema de saúde mental sobrecarregado. 

Assim, enquanto esperam tratamento, inúmeros pacientes têm recorrido à IA como a única forma de apoio disponível. 

Leia mais em: BBC.

Richard Riviere

Especialista em Saúde Digital, CEO e Co-Fundador da Versatilis System, o sistema de gestão DEFINITIVO das clínicas do Brasil.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Fácil, prático, versátil

A gestão da sua clínica não precisa ser complicada

Simplifique todos os processos com a solução mais moderna e eficiente do mercado.

WhatsApp