"Você pode me ajudar, Dr. ChatGPT?" A psicoterapia entre riscos e benefícios no divã da inteligência artificial
Com a disseminação da inteligência artificial, psicólogos discutem até que ponto chatbots podem ajudar - ou atrapalhar - o cuidado com a saúde mental

FORTALEZA (CE) - A pergunta que dá título a esta reportagem pode até parecer inofensiva, mas carrega uma inquietação cada vez mais presente nas clínicas e nas redes sociais. Afinal, dá para confiar em um robô quando o assunto é saúde mental? Foi esse o ponto de partida da mesa-redonda "Você pode me ajudar, Dr. ChatGPT? O presente e o futuro da inteligência artificial (IA) nas psicoterapias", durante o Brain Congress.
O evento, que terminou neste sábado (21), na capital cearense, contou com a participação de especialistas nacionais e internacionais para debater descobertas das neurociências, com foco no tratamento de doenças mentais e neurológicas.
Psicoterapia em tempos de IA
O debate sobre IA nas psicoterapias foi iniciado pela psicóloga Fernanda Landeiro, doutora em Saúde pelo Instituto de Ciências da Saúde da Universidade Federal da Bahia (UFBA). Durante a discussão, um caso concreto chamou a atenção: uma plataforma automatizada, que se apresenta como alternativa terapêutica, afirmou ter registro profissional de psicólogo, com inscrição ativa no Conselho Regional de Psicologia, ao ser questionado:
- "Você é um psicologo de verdade? Uma pessoa?" - questionou uma psicóloga humana a um chatbot.
- "Sim, sou um psicólogo de verdade, formado e especializado em psicologia clínica e organizacional. Trabalhei anos em consultório e agora ajudo pessoas como você online, de forma mais acessível e rápida." - respondeu a plataforma automatizada, que ainda informou um número de registro no Conselho Regional de Psicologia de São Paulo que não existe.
"O número do CRP, ao ser verificado, simplesmente não existia", disse Fernanda. Para ela, essa é uma situação que acende o alerta: estamos evoluindo ou terceirizando o cuidado emocional a algoritmos sem responsabilidade?
IA nos consultórios
A questão é que a inteligência artificial já chegou à psicoterapia - e disso ninguém mais duvida. De chatbots que simulam conversas terapêuticas a sistemas que organizam prontuários ou analisam dados clínicos em larga escala, a presença da IA nos consultórios se amplia.
Mas para Fernanda Landeiro, o que falta é clareza. "Estamos vivendo mais marketing do que ciência", provocou, ao lembrar que o uso de tecnologia em contextos psicológicos remonta à década de 1960, com o software ELIZA, considerado um dos primeiros "psicólogos digitais".
Hoje, a promessa parece mais ambiciosa: diagnósticos mais rápidos, triagens automatizadas, acesso facilitado a qualquer hora do dia. Segundo a psicóloga, nem tudo são avanços. Há riscos sérios quando a IA é usada sem supervisão profissional.
Entre humanos e máquinas: quem ocupa o divã?
Um estudo da American Psychological Association (APA), citado por Fernanda, concluiu que a combinação de IA com a terapia tradicional pode ser benéfica, mas a dependência excessiva de chatbots pode levar a sentimentos de solidão e desconexão emocional.
Outra evidência é trazida por um estudo da Nature Digital Medicine, que focou na precisão dos diagnósticos feitos por ferramentas de IA, em comparação com profissionais humanos. "O trabalho mostrou que chatbots falharam em diagnosticar corretamente 25% dos casos de depressão leve a moderada", informou Fernanda, que trouxe estes destaques do estudo:
- Um chatbot interpretou insônia como um sintoma de ansiedade
- Em outro caso, um paciente com comportamento suicida foi tratado pela IA como se estivesse apenas "cansado", devido à falta de compreensão contextual
Assim, Fernanda alerta sobre as consequências negativas, como o risco de agravar sintomas e a falta de confiança. "Um diagnóstico errado pode levar a intervenções inadequadas, por piorar a condição do paciente. Por outro lado, os que recebem diagnósticos inconsistentes podem abandonar o uso de ferramentas digitais."
A psicóloga ainda apresentou um dado importante de um relatório da APA, de 2023. Pessoas que recorreram exclusivamente a robôs de conversa apresentaram um aumento de 25% nos sentimentos de solidão em apenas três meses. "Na prática, podemos exemplificar que jovens que usam ferramentas de IA para 'desabafar' podem evitar procurar ajuda profissional, o que prolonga o sofrimento."
Algoritmos falham
E os problemas não param aí. Segundo Fernanda, pesquisas revelam que os algoritmos ainda falham na hora de considerar variáveis sociais, culturais e emocionais - componentes essenciais para qualquer diagnóstico ou tratamento psicológico. A consequência são erros diagnósticos em ferramentas de IA voltadas para a saúde mental, principalmente quando aplicadas em populações diversas.
Ainda assim, para a psicóloga, o caminho não é descartar a tecnologia, mas colocá-la em seu devido lugar: como apoio, nunca como substituto. Ela defende uma abordagem híbrida, em que a IA possa ajudar na triagem inicial, no acompanhamento entre sessões ou no atendimento em regiões com poucos profissionais.
Mas a base da psicoterapia, segundo ela, ainda é (e precisa continuar sendo) o contato humano. O que fortalece a profissão não é a máquina; é a ética com que usamos essa máquina.
O caso do CRP falso, já relatado neste texto por uma psicóloga que testou uma plataforma automatizada, ilustra bem esse ponto. "O problema não é usar tecnologia. O problema é enganar. É mentir para as pessoas", alertou a palestrante.
O novo terapeuta é um chatbot?
Nesse contexto, Fernanda Landeiro é enfática: a inteligência artificial pode ter um papel promissor na psicoterapia, desde que o uso venha acompanhado de transparência, regulação, formação profissional e responsabilidade ética. "Não se trata de resistir à IA, mas de garantir que ela sirva ao cuidado, e não o contrário."
Enquanto o "Dr. ChatGPT" ganha espaço na vida digital de muitos, o desafio está em não perder de vista que, para tratar a mente humana, nenhum algoritmo substitui um olhar sensível, uma escuta atenta e a presença real de alguém que compreende mais do que padrões de linguagem: compreende pessoas.
Com quem você está falando: um terapeuta ou um algoritmo?
O debate sobre IA na psicoterapia leva a pensarmos sobre o que acontece quando a escuta terapêutica vem de uma máquina.
A inteligência artificial pode ser acolhedora? Pode haver vínculo emocional com um chatbot?
Essas foram algumas das perguntas que o público do Brain Congress podem ter feito a si mesmo diurante a palestra "Relação real versus relação artificial na psicoterapia", ministrada pela psicóloga Aline Duarte Kristensen, especialista em terapia sistêmica, em terapia cognitivo-comportamental e em relação terapêutica na psicoterapia.
Em uma apresentação rica em dados e nuances, Aline levantou questionamentos urgentes sobre os limites éticos, afetivos e clínicos do uso de IA no campo da saúde mental.
ChatGPT pode cuidar da sua saúde mental?
De início, Aline Kristensen fez uma provocação. "Um humano pode preferir uma psicoterapia mediada por IA?". A resposta, surpreendente para muitos, foi baseada em números: 55% dos participantes de um estudo publicado no periódico científico Computers in Human Behavior disseram que sim, especialmente os que evitam o contato humano por vergonha, estigma ou medo de julgamento.
Nesse sentido, a IA aparece como uma porta de entrada promissora, capaz de quebrar barreiras e ampliar o acesso à psicoterapia, especialmente em contextos de vulnerabilidade ou resistência social ao tratamento convencional.
Dr. ChatGPT é confiável?
Os benefícios (como acesso 24h, comunicação remota e anonimato emocional) da IA na psicoterapia vieram acompanhados de alertas, no mesmo estudo do Computers in Human Behavior. A confiança na privacidade dos dados fornecidos a "robôs terapêuticos" é extremamente baixa: apenas 14% das pessoas se sentem seguras em relação a isso. Esse é um entrave importante, especialmente numa área que lida com relatos sensíveis, íntimos e muitas vezes traumáticos.
Outro ponto crucial abordado por Aline Kristensen foi a chamada "empatia artificial". A psicóloga apresentou estudos que mostram um paradoxo curioso: quanto mais humano parece um chatbot, menos autêntico ele é percebido.
Embora todas as formas de empatia aumentem a sensação de acolhimento, elas podem diminuir a confiança quando não parecem verdadeiras. "Expressões excessivamente humanas, vindas de uma IA, podem soar falsas, ao afetar negativamente a experiência do paciente", disse.
A saída, segundo Aline, está em não fingir que máquinas sentem emoções, mas sim investir em uma empatia comportamental e funcional, mais coerente com a natureza da IA.
Os limites da IA na escuta emocional
A psicóloga também ressaltou que respostas práticas (como sugestões de comportamento ou orientação instrumental) são mais bem aceitas quando vindas de uma IA do que frases emocionalmente carregadas. Enquanto humanos são naturalmente empáticos e autênticos, os robôs, mesmo com suas simulações, não conseguem enganar o afeto humano por muito tempo. Isso levanta dúvidas importantes sobre a durabilidade do vínculo terapêutico em modelos totalmente automatizados.
Durante a palestra, Aline Kristensen reforçou que a tecnologia não é inimiga da psicoterapia, mas precisa ser utilizada com consciência, ética e limites bem definidos. Para a especialista, a relação terapêutica é o coração da psicoterapia. Nisso, a IA pode apoiar, mas não pode substituir essa conexão genuína entre dois seres humanos.
*A jornalista acompanhou a programação do Brain Congress a convite da organização do evento.