Terapia com IA e a Falta do Olhar Humano: Limites da Inteligência Artificial na Saúde Mental

A terapia com IA traz disponibilidade e escalabilidade, mas não substitui a necessidade humana de ser lembrado e contido por outra pessoa. Nesta análise baseada em Your AI Therapist Doesn't Think About You (Imi Lo, Psychology Today), discutimos as limitações da inteligência artificial em relações terapêuticas, riscos éticos, implicações para profissionais de saúde mental e recomendações práticas. Palavras-chave: terapia com IA, inteligência artificial, apoio psicológico, relação terapêutica, saúde mental.

Introdução

Nos últimos anos, o uso de sistemas de inteligência artificial (IA) e modelos linguísticos de grande porte (LLMs) para suporte psicológico tem crescido de maneira acelerada. A proposta de oferecer apoio emocional 24 horas por dia, com resposta imediata e ausência de julgamento, seduz usuários e desenvolvedores. No entanto, conforme destacado por Imi Lo em Psychology Today, “Artificial intelligence therapy can’t replicate the human need to exist in another’s mind” (LO, 2025), o que traz à tona questões centrais sobre a eficácia clínica e a natureza da cura psicológica. Este texto analisa, de forma crítica e aprofundada, as potencialidades e os limites da terapia com IA, com foco nas implicações para profissionais, pesquisadores e formuladores de políticas de saúde mental.

Contexto: a adoção de terapia com IA e seus apelos

A terapia com IA ganha espaço por motivos pragmáticos: escalabilidade, custo reduzido, disponibilidade contínua e anonimato relativo. Ferramentas baseadas em LLMs conseguem gerar intervenções que soam empáticas e técnicamente coerentes, oferecer psicoeducação e técnicas de enfrentamento baseadas em protocolos cognitivo-comportamentais. Para muitas pessoas, especialmente em contextos com escassez de profissionais qualificados, esses serviços fornecem um primeiro nível de apoio psicológico.

Entretanto, o apelo funcional não deve ofuscar a necessidade de avaliar criticamente o que constitui força terapêutica em psicoterapia convencional: a presença, a lembrança, a reciprocidade e a responsabilidade moral de um outro humano que acolhe a história do paciente. Como alerta Imi Lo, a IA “não pensa em você” no sentido relacional — ela não mantém a experiência do cliente como um conteúdo vivido entre pessoas (LO, 2025).

O que a IA faz bem na assistência psicológica

A tecnologia oferece contribuições legítimas à saúde mental:
– Acesso: ferramentas digitais ampliam o alcance de intervenções psicológicas em populações remotas ou subatendidas.
– Padronização e escalabilidade: programas baseados em protocolos podem disseminar técnicas baseadas em evidências de forma consistente.
– Monitoramento e triagem: algoritmos podem identificar sinais de risco em grandes volumes de dados e priorizar encaminhamentos.
– Suporte entre sessões: chatbots e aplicativos podem reforçar tarefas realizadas em terapia, como registro de emoções e práticas de autocuidado.

Essas vantagens tornam a terapia com IA um componente potencialmente valioso em modelos de cuidado híbridos, integrando tecnologia e intervenção humana.

Limitações clínicas fundamentais: a ausência do “outro que lembra”

A principal limitação apontada por Imi Lo é de natureza relacional: a IA não satisfaz a necessidade humana de “existir na mente do outro” (LO, 2025). Em psicoterapia, o fato de ser lembrado por um terapeuta — a manutenção da narrativa do paciente na mente de outra pessoa — constitui uma experiência curativa. A presença psicológica humana oferece:
– Holding emocional: capacidade de tolerar e acompanhar afetos intensos sem colapso.
– Contenção e reparação: estabelecimento de limites que permitem processamento seguro de material emocional.
– Histórias compartilhadas: reconhecimento da singularidade de experiências por alguém com vivência humana.
Sem essas dimensões, a intervenção pode se tornar funcional, mas superficial.

A IA pode simular empatia através de linguagem e padrões preditivos, mas não possui intencionalidade, consciência ou memória afetiva intersubjetiva. Essas diferenças não são meros detalhes técnicos; elas impactam processos terapêuticos centrais como transferência, formação de vínculo e processamento emocional profundo.

Transferência, contratransferência e experiência vivida

Transferência e contratransferência são mecanismos fundamentais na terapia psicodinâmica e influenciam também práticas integrativas. A transferência refere-se às emoções e expectativas que o paciente projeta sobre o terapeuta, frequentemente remetendo a vínculos significativos do passado. A contratransferência inclui as respostas emocionais do terapeuta ao paciente, que podem informar intervenções terapêuticas éticas e eficazes.

Sistemas de IA não apresentam contratransferência genuína, nem mesmos mecanismos empáticos enraizados em história de vida. Embora possam identificar padrões de linguagem associados a estados emocionais, não vivenciam ou processam emoções. Assim, a leitura e a utilização da transferência por uma IA são, no melhor dos casos, simulações baseadas em dados, sem o conteúdo emocional experiencial que permite reparações emocionais ou o estabelecimento de limites pessoais fundamentados em responsabilidade moral.

Limites na criação de limites terapêuticos e responsabilidade ética

A manutenção de limites profissionais é um componente ético essencial da relação terapêutica: horários, confidencialidade, encaminhamentos, declarações de competência e responsabilização em situações de risco. Sistemas automatizados podem seguir protocolos predefinidos, mas não tomam decisões morais autônomas nem assumem responsabilização humana real. Quando um serviço de IA falha — por exemplo, em reconhecer risco iminente de suicídio ou em responder a uma emergência — a ausência de um sujeito responsável com capacidade moral e legal para agir configura risco significativo.

Imi Lo ressalta que precisamos de “pessoas reais para manter nossas histórias, fornecer limites genuínos e oferecer experiência vivida” (LO, 2025). Essa necessidade traduz-se em exigências práticas: modelos de cuidado que usem IA deveriam explicitar claramente limites de atuação, protocolos de escalonamento para profissionais humanos e mecanismos de responsabilidade e supervisão clínica.

Privacidade, dados e coerência narrativa

A terapia envolve troca de informações altamente sensíveis. Plataformas de IA processam e armazenam dados que podem ser utilizados para treinar modelos, monetizados ou expostos em falhas de segurança. Há implicações legais e éticas relativas à privacidade e ao consentimento informado: pacientes devem saber como seus dados são utilizados, por quem e com quais finalidades.

Além disso, a coerência narrativa — a sensação de que a história do paciente é reconhecida e contida ao longo do tempo — depende de memória relacional. Enquanto sistemas podem manter registros, a memória humana traz nuances interpretativas, emocionalidade e continuidade moral. A diferença entre arquivar informações e lembrar a pessoa como sujeito é substancial para muitos processos terapêuticos.

Riscos de medicalização e dependência tecnológica

A disponibilidade constante de IA pode reforçar padrões de seeking reassurance (busca por confirmação) e dependência de respostas rápidas, potencialmente interferindo no desenvolvimento de estratégias autônomas de regulação emocional. Além disso, há risco de medicalização excessiva de experiências humanas comuns quando algoritmos classificam variações normais como patologias.

Profissionais de saúde mental devem estar atentos a como a integração de soluções digitais altera o ecossistema de cuidados: quem se beneficia, quem é excluído e quais são as consequências a longo prazo da substituição parcial de formatos humanos por sistemas automatizados.

Modelos híbridos e integração responsável

Diante das limitações, emerge a proposta de modelos híbridos: combinar a eficiência da IA com supervisão humana e interações terapêuticas regulares. Elementos de um modelo híbrido responsável incluem:
– Triagem automatizada seguida de encaminhamento para profissionais quando indicado.
– Utilização de IA para reforçar intervenções entre sessões, sem substituir o acompanhamento humano.
– Protocolos claros de escalonamento e supervisão clínica que envolvam profissionais licenciados.
– Transparência sobre capacidades e limites da IA, com consentimento informado detalhado.

Esses modelos podem preservar a acessibilidade promovida pela tecnologia sem abandonar as dimensões relacionais que constituem grande parte do valor terapêutico.

Recomendações práticas para profissionais e organizações

Para psicólogos, psiquiatras, gestores de serviços e desenvolvedores, algumas recomendações práticas são essenciais:

1. Educação e alfabetização digital: profissionais devem compreender as capacidades e limitações de LLMs e aplicativos de terapia com IA para orientar decisões clínicas e éticas.
2. Consentimento informado robusto: informar pacientes sobre como a IA funciona, riscos de privacidade, limitações clínicas e procedimentos de emergência.
3. Supervisão e responsabilidade: assegurar que haja profissionais responsáveis por casos sensíveis e que possam intervir rapidamente quando necessário.
4. Avaliação contínua da eficácia: realizar estudos controlados e avaliações de resultados centradas em medidas clínicas significativas, não apenas engajamento de usuário.
5. Políticas de privacidade e segurança: garantir que dados sensíveis sejam tratados conforme as melhores práticas de proteção, incluindo anonimização quando apropriado.
6. Pesquisa em experiência subjetiva: fomentar estudos qualitativos sobre como usuários percebem o suporte da IA em relação à presença terapêutica humana.
7. Limitar promessas: evitar marketing que sugira que a IA substitui a experiência terapêutica humana ou que é adequada para todos os níveis de necessidade.

Essas medidas reduzem riscos e aumentam a probabilidade de integração responsável da tecnologia.

Implicações regulatórias e políticas públicas

A presença crescente de IA em saúde mental exige respostas regulatórias claras. Questões a serem abordadas por órgãos reguladores e formuladores de políticas incluem:
– Definição de escopo de atuação de sistemas de IA em saúde mental.
– Requisitos de supervisionamento humano para aplicações clínicas.
– Padrões mínimos de transparência e auditoria algoritmica.
– Proteções legais para responsabilidade em casos de dano.
– Diretrizes para uso de dados e consentimento específico.

Políticas públicas devem equilibrar inovação e proteção, garantindo que a tecnologia aumente a equidade no acesso a serviços sem comprometer segurança e qualidade clínica.

Direções futuras de pesquisa

Pesquisas futuras devem priorizar:
– Estudos randomizados controlados que comparem modelos híbridos com terapia humana tradicional e com intervenções puramente digitais.
– Investigações qualitativas sobre a experiência subjetiva de ser “lembrado” por um agente humano versus um sistema automatizado.
– Avaliações longitudinais sobre efeitos de longo prazo da dependência em IA para regulação emocional.
– Estudos éticos e sociotécnicos sobre impacto em populações vulneráveis e direitos de privacidade.
Esses estudos ajudarão a fundamentar decisões clínicas e políticas com evidência empírica robusta.

Considerações finais

A terapia com IA oferece oportunidades importantes para ampliar o acesso e fornecer ferramentas complementares à prática clínica. No entanto, a tecnologia apresenta limites estruturais quanto à sua capacidade de replicar aspectos centrais da cura psicológica: a experiência de ser reconhecido em outra mente, o estabelecimento de limites humanos e a responsabilidade emocional e ética que advém da relação terapeuta-paciente. Como observa Imi Lo, a IA “não pensa em você” no sentido relacional profundo (LO, 2025).

Para profissionais e organizações de saúde mental, o desafio é integrar inovações tecnológicas de maneira que preservem e valorizem a dimensão humana do cuidado. Isso envolve modelos híbridos com supervisão clínica, regulamentação adequada, políticas de privacidade robustas e pesquisa contínua. Só assim poderemos beneficiar-nos das vantagens técnicas da IA sem abrir mão dos elementos humanos que fazem da terapia um espaço de transformação genuína.

Fonte da citação conforme ABNT:
No corpo do texto foram feitas referências à reportagem de Imi Lo (2025) para fundamentar as discussões sobre as limitações relacionais e éticas da terapia com IA (LO, 2025).
Fonte: Psychology Today. Reportagem de Imi Lo MA. Your AI Therapist Doesn’t Think About You. 2025-10-02T15:47:55Z. Disponível em: https://www.psychologytoday.com/us/blog/living-with-emotional-intensity/202510/your-ai-therapist-doesnt-think-about-you. Acesso em: 2025-10-02T15:47:55Z.

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comentários
Inline Feedbacks
View all comments
plugins premium WordPress