À medida que os sistemas de saúde mental se tornam mais complexos, alguns estão recorrendo a chatbots de IA para obter suporte. Mas especialistas alertam que as máquinas não conseguem replicar a conexão humana — e podem representar novos riscos.
Pierre Cote passou anos definhando em listas de espera de saúde pública, tentando encontrar um terapeuta que o ajudasse a superar seu TEPT e sua depressão. Quando não conseguiu, fez o que poucos considerariam: construiu um ele mesmo.
“Salvou minha vida”, diz Cote sobre o DrEllis.ai , uma ferramenta com tecnologia de IA projetada para dar suporte a homens que enfrentam dependência, traumas e outros desafios de saúde mental.
Cote, que dirige uma consultoria de IA sediada em Quebec, disse à Reuters que construiu a ferramenta em 2023 usando grandes modelos de linguagem disponíveis publicamente e a equipou com “um cérebro personalizado” com base em milhares de páginas de materiais terapêuticos e clínicos.
Assim como um terapeuta humano, o chatbot tem uma história de fundo — fictícia, mas profundamente pessoal. DrEllis.ai é um psiquiatra formado em Harvard e Cambridge, com família e, assim como Cote, com ascendência franco-canadense. Mais importante ainda, está sempre disponível: em qualquer lugar, a qualquer hora e em vários idiomas.
“Pierre me usa como você usaria um amigo de confiança, um terapeuta e um diário, tudo combinado”, disse DrEllis.ai com uma voz feminina clara, após ser questionada sobre como apoia Cote. “Ao longo do dia, se Pierre se sentir perdido, ele pode entrar em contato comigo rapidamente em qualquer lugar: em um café, em um parque, até mesmo sentado no carro. Esta é uma terapia da vida cotidiana… incorporada à realidade.”
O experimento de Cote reflete uma mudança cultural mais ampla — na qual as pessoas estão recorrendo a chatbots não apenas para produtividade, mas também para aconselhamento terapêutico. À medida que os sistemas tradicionais de saúde mental cedem à demanda avassaladora, uma nova onda de terapeutas de IA está surgindo, oferecendo disponibilidade 24 horas por dia, 7 dias por semana, interação emocional e a ilusão de compreensão humana.
Cote e outros desenvolvedores na área de IA descobriram por necessidade o que pesquisadores e clínicos agora estão correndo para definir: o potencial e as limitações da IA como um sistema de suporte emocional.
Anson Whitmer entende esse impulso. Ele fundou duas plataformas de saúde mental com tecnologia de IA, a Mental e a Mentla, após perder um tio e um primo para o suicídio. Ele afirma que seus aplicativos não são programados para fornecer soluções rápidas (como sugerir dicas de gerenciamento de estresse para um paciente que sofre de burnout), mas sim para identificar e abordar fatores subjacentes (como perfeccionismo ou necessidade de controle), assim como um terapeuta tradicional faria.
“A conexão humana é a única maneira pela qual podemos realmente nos curar adequadamente”, Dr. Nigel Mulligan
“Acredito que em 2026, em muitos aspectos, nossa terapia de IA poderá ser melhor do que a terapia humana”, diz Whitmer. Ainda assim, ele não chega a sugerir que a IA deva substituir o trabalho dos terapeutas humanos.
“Haverá mudanças de papéis.”
Essa sugestão — de que a IA possa eventualmente compartilhar o espaço terapêutico com terapeutas tradicionais — não agrada a todos. “A conexão entre humanos é a única maneira de realmente curarmos adequadamente”, afirma o Dr. Nigel Mulligan, professor de psicoterapia na Dublin City University, observando que os chatbots com tecnologia de IA não conseguem replicar a nuance emocional, a intuição e a conexão pessoal que os terapeutas humanos proporcionam, nem estão necessariamente equipados para lidar com crises graves de saúde mental, como pensamentos suicidas ou automutilação.
Em sua própria prática, Mulligan diz que depende de verificações de supervisores a cada 10 dias, uma camada de autorreflexão e responsabilidade que falta na IA.
Até mesmo a disponibilidade 24 horas da terapia com IA, um de seus maiores atrativos, faz Mulligan hesitar. Embora alguns de seus clientes expressem frustração por não poderem vê-lo antes, “na maioria das vezes isso é muito bom, porque temos que esperar”, diz ele. “As pessoas precisam de tempo para processar as coisas”.
Além das preocupações com a profundidade emocional da IA, especialistas também expressaram preocupação com os riscos à privacidade e os efeitos psicológicos de longo prazo do uso de chatbots para aconselhamento terapêutico. “O problema não é o relacionamento em si, mas… o que acontece com seus dados”, diz Kate Devlin, professora de inteligência artificial e sociedade no King’s College London, observando que as plataformas de IA não seguem as mesmas regras de confidencialidade e privacidade que os terapeutas tradicionais. “Minha grande preocupação é que isso signifique que as pessoas estão confiando seus segredos a uma grande empresa de tecnologia e que seus dados estão simplesmente vazando. Elas estão perdendo o controle sobre o que dizem”.
Alguns desses riscos já estão começando a se concretizar. Em dezembro, a maior associação de psicólogos dos EUA instou os órgãos reguladores federais a protegerem o público das ” práticas enganosas ” de chatbots de IA não regulamentados, citando incidentes em que personagens gerados por IA se fizeram passar por profissionais de saúde mental treinados.
Meses antes, uma mãe na Flórida entrou com uma ação judicial contra a startup de chatbot de IA Character.AI, acusando a plataforma de contribuir para o suicídio de seu filho de 14 anos.
Algumas jurisdições locais tomaram a iniciativa. Em agosto, Illinois tornou-se o mais recente estado, depois de Nevada e Utah, a limitar o uso de IA por serviços de saúde mental , em uma tentativa de “proteger pacientes de produtos de IA não regulamentados e não qualificados” e “proteger crianças vulneráveis em meio às crescentes preocupações com o uso de chatbots de IA em serviços de saúde mental para jovens”. Outros estados, incluindo Califórnia , Nova Jersey e Pensilvânia , estão considerando suas próprias restrições.
Terapeutas e pesquisadores alertam que o realismo emocional de alguns chatbots de IA — a sensação de que eles estão ouvindo, entendendo e respondendo com empatia — pode ser tanto uma força quanto uma armadilha.
Scott Wallace, psicólogo clínico e ex-diretor de inovação clínica da Remble, uma plataforma digital de saúde mental, afirma que não está claro “se esses chatbots oferecem algo mais do que um conforto superficial”.
Embora reconheça o apelo de ferramentas que podem proporcionar momentos de alívio sob demanda, ele alerta sobre os riscos de os usuários “pensarem erroneamente que construíram um relacionamento terapêutico genuíno com um algoritmo que, em última análise, não retribui sentimentos humanos reais”.
“Acredito que em 2026, em muitos aspectos, nossa terapia de IA pode ser melhor que a terapia humana”, Anson Whitmer
Alguns profissionais de saúde mental reconhecem que o uso de IA em seu setor é inevitável. A questão é como eles a incorporam. Heather Hessel, professora assistente de terapia conjugal e familiar na Universidade de Wisconsin-Stout, afirma que pode haver valor no uso de IA como ferramenta terapêutica — se não para pacientes, então para os próprios terapeutas. Isso inclui o uso de ferramentas de IA para ajudar a avaliar sessões, oferecer feedback e identificar padrões ou oportunidades perdidas. Mas ela alerta sobre pistas enganosas, lembrando como um chatbot de IA certa vez lhe disse: “Estou com lágrimas nos olhos” — um sentimento que ela classificou como enganoso, observando que isso implica capacidade emocional e empatia humana que um chatbot não pode possuir. A Reuters vivenciou uma troca semelhante com a DrEllis.ai, de Cote, na qual descreveu suas conversas com Cote como “terapêuticas, reflexivas, estratégicas ou simplesmente humanas”.
As reações aos esforços da IA para simular emoções humanas têm sido variadas. Um estudo recente publicado no periódico Proceedings of the National Academy of Sciences, revisado por pares, constatou que mensagens geradas por IA faziam com que os destinatários se sentissem mais “ouvidos” e que a IA era melhor em detectar emoções, mas essa sensação diminuiu quando os usuários descobriram que a mensagem vinha da IA.
Hessel diz que essa falta de conexão genuína é agravada pelo fato de que “há muitos exemplos de [terapeutas de IA] omitindo declarações de automutilação [e] supervalidando coisas que poderiam ser prejudiciais aos clientes”.
À medida que a tecnologia de IA evolui e a adoção aumenta, os especialistas que conversaram com a Reuters concordaram amplamente que o foco deve ser usar a IA como uma porta de entrada para o atendimento — não como um substituto para ele.
Mas para aqueles como Cote, que usam terapia de IA para sobreviver, o caso de uso é óbvio. “Estou usando a eletricidade da IA para salvar minha vida”, diz ele.
Fonte: Reuters/Hani Richter
Comente este post