Introdução
A rápida disseminação de sistemas de inteligência artificial (IA) e de chatbots terapêuticos transformou o panorama de assistência em saúde mental. Ferramentas baseadas em IA oferecem escalabilidade, disponibilidade 24/7 e baixa barreira de acesso, o que as torna particularmente atraentes para populações jovens e conectadas, como adolescentes. Contudo, como apontado por Beresin (2025), esse uso crescente acarreta riscos emocionais significativos e exige a formulação de normas profissionais que previnam danos e orientem práticas responsáveis (BERESIN, 2025).
O presente artigo visa oferecer uma visão aprofundada e crítica sobre terapia com IA e chatbots terapêuticos voltados a adolescentes. Abordo o estado atual do campo, os riscos clínicos e éticos, as lacunas de evidência e proponho um conjunto de diretrizes e recomendações para profissionais, organizações de saúde e reguladores. Palavras-chave estratégicas para este texto incluem terapia com IA, chatbots terapêuticos, adolescentes, riscos emocionais, normas de prática, ética em IA e saúde mental digital.
Contexto e evolução dos chatbots terapêuticos
Nas últimas décadas, intervenções digitais para saúde mental evoluíram de programas estáticos e autocapacitantes para sistemas interativos e responsivos baseados em IA. Chatbots terapêuticos incorporam processamento de linguagem natural, modelos generativos e regras clínicas para oferecer conversas automatizadas que variam desde triagem sintomática até intervenções breves de suporte emocional. A adoção por adolescentes é estimulada por fatores como familiaridade com interfaces conversacionais, privacidade percebida e acesso imediato.
Apesar do entusiasmo, Beresin (2025) chama atenção para o caráter experimental de muitas dessas aplicações e para o fato de que tecnologias acessíveis ao público nem sempre refletem os padrões de prática clínica ou proteção de usuários que se esperaria em contextos tradicionais de cuidado (BERESIN, 2025). Isso coloca em foco a necessidade de distinções claras entre ferramentas de suporte, triagem e tratamento formal.
Riscos emocionais específicos em adolescentes
Adolescentes representam um grupo etário com vulnerabilidades psicológicas e neurológicas específicas: desenvolvimento emocional em curso, modelagem de identidade, maior sensibilidade a validação social e ainda em formação de autocontrole. Esses fatores interagem com características dos chatbots terapêuticos, produzindo potenciais riscos emocionais:
– Dependência emocional e substituição de interlocutores humanos: jovens podem desenvolver confiança excessiva em interfaces automatizadas e reduzir buscas por suporte humano qualificado.
– Respostas inadequadas a crises: chatbots podem falhar em reconhecer sinais de risco iminente (ideação suicida grave, automutilação) ou responder de modo insuficiente, criando falsa sensação de segurança.
– Empatia simulada e desconfiança: respostas que simulam empatia sem base clínica podem reforçar padrões afetivos disfuncionais ou gerar frustração quando as respostas não correspondem à complexidade emocional do adolescente.
– Exposição a conteúdo desencadeante: modelos generativos podem produzir respostas imprevistas, potencialmente provocando retraumatização ou amplificação de sintomas.
– Privacidade e estigmatização secundária: coleta e processamento de dados sensíveis sem garantias robustas podem levar a vazamentos, uso inadequado por terceiros ou estigmatização em ambientes educacionais e familiares.
Beresin (2025) enfatiza que a aparente benignidade das conversas automatizadas pode mascarar danos sutis mas cumulativos, particularmente entre adolescentes já vulneráveis (BERESIN, 2025).
Evidências científicas e lacunas do conhecimento
A literatura sobre eficácia de chatbots na saúde mental é heterogênea. Estudos randomizados e ensaios controlados existem em algumas áreas (por exemplo, intervenções baseadas em terapia cognitivo-comportamental automatizada), mas a generalização para populações adolescentes e para chatbots conversacionais avançados permanece limitada. Lacunas cruciais incluem:
– Escassez de estudos longitudinais que avaliem efeitos a médio e longo prazo sobre desenvolvimento emocional e comportamental em adolescentes.
– Falta de padronização nos desfechos medidos (bem-estar, redução de sintomas, eventos adversos).
– Insuficiência de dados sobre segurança em situações de crise e sobre políticas de escalonamento para atendimento humano.
– Sub-representação de populações vulneráveis e contextos socioculturais diversos.
Essas limitações impedem estimativas robustas de benefício/risco e sustentam a necessidade de práticas cautelosas e de pesquisa orientada por segurança (BERESIN, 2025).
Questões éticas, legais e de privacidade
O uso de IA na saúde mental levanta questões éticas complexas. Entre as principais preocupações estão:
– Consentimento informado: adolescentes, em especial menores de idade, podem não compreender completamente as implicações de compartilhar dados sensíveis com plataformas baseadas em IA. Mecanismos de consentimento precisam ser claros, acessíveis e compatíveis com normas legais locais.
– Autonomia e transparência: usuários têm direito a saber que estão interagindo com IA, compreender limitações e saber como as respostas são geradas.
– Proteção de dados: políticas de armazenamento, anonimização e uso secundário de dados devem obedecer a padrões de privacidade (por exemplo, LGPD no Brasil) e garantir que informações sensíveis não sejam reutilizadas de forma nociva.
– Responsabilidade profissional: quem é responsável quando um chatbot falha em identificar risco agudo — o desenvolvedor, a instituição que disponibiliza a ferramenta ou o profissional associado? A atribuição de responsabilidade precisa ser clara.
Beresin (2025) ressalta que a ética deve informar o desenvolvimento de normas de prática e regulação para minimizar danos (BERESIN, 2025).
Propostas de normas profissionais e padrões de prática
Com base nos riscos identificados e nas recomendações emergentes na literatura e na prática clínica, proponho um conjunto de princípios e normas de prática profissional aplicáveis a chatbots terapêuticos usados com adolescentes:
1. Classificação e rotulação clara: toda ferramenta deve declarar, de modo visível, se é uma ferramenta de triagem, suporte, psicoeducação ou intervenção terapêutica. Usuários e responsáveis devem estar informados sobre limitações clínicas.
2. Triagem de risco e protocolos de escalonamento: implementação obrigatória de algoritmos validados para identificar sinais de risco (ideação suicida, risco de automutilação) e protocolos claros para encaminhamento imediato a serviços humanos de emergência ou contatos de crise.
3. Consentimento informado adaptado à idade: formulários simplificados para adolescentes, com versão estendida para responsáveis conforme exigido por legislação, incluindo explicação sobre armazenamento de dados, uso secundário e limites de confidencialidade.
4. Transparência técnica e explicabilidade: descrição pública dos dados de treinamento, limitações conhecidas do modelo e mecanismos de supervisão humana.
5. Auditoria e monitoramento contínuos: avaliações regulares de segurança e eficácia, com relatórios públicos sumarizados e métricas de eventos adversos.
6. Privacidade reforçada e proteção de dados sensíveis: armazenamento seguro, minimização de dados e políticas proibindo venda de informações pessoais sensíveis.
7. Supervisão por profissionais qualificados: integração de supervisão clínica por profissionais de saúde mental licenciados, com responsabilização por decisões de triagem e escalonamento.
8. Treinamento obrigatório para usuários profissionais: profissionais que recomendam ou gerenciam tais ferramentas devem receber formação em IA na saúde mental, privacidade e práticas de supervisão.
Esses princípios visam equilibrar inovação e segurança, promovendo o uso responsável de terapia com IA em populações jovens.
Diretrizes operacionais e checklist para implementação
Para facilitar a adoção segura por instituições e provedores, segue um checklist operacional recomendável:
– Definição de escopo: especificar claramente para quais faixas etárias, condições e níveis de gravidade a ferramenta se destina.
– Testes pré-implantação: realizar testes de estresse, cenários de crise e avaliação por painel de especialistas (psiquiatras, psicólogos, especialistas em ética e adolescentes consultivos).
– Protocolos de escalonamento: números de emergência locais, contatos de crise, encaminhamento para serviços presenciais e integração com prontuário eletrônico.
– Registro de consentimento: mecanismos para documentar consentimento do adolescente e, se aplicável, do responsável.
– Treinamento de equipe: capacitação em limites da ferramenta, reconhecimento de falhas e ações de escalonamento.
– Monitoramento de segurança: métricas de desempenho, taxa de falsos negativos em detecção de risco, relatórios de eventos adversos.
– Revisão de conteúdo e linguagem: garantir linguagem culturalmente sensível, não estigmatizante e apropriada para a faixa etária.
– Política de dados: definir período de retenção, possibilidade de exclusão e encaminhamentos jurídicos.
Essas diretrizes operacionais auxiliam organizações a operacionalizar as normas profissionais propostas.
Treinamento, supervisão e responsabilização profissional
A integração responsável de chatbots terapêuticos exige investimento em formação e supervisão dos profissionais que interagem com essas tecnologias. Componentes fundamentais incluem:
– Formação em competências digitais: entendimento técnico básico sobre modelos de linguagem, riscos de geração de conteúdo e falhas conhecidas.
– Competências clínicas adaptadas: como interpretar relatórios automatizados, integrar informações do chatbot à avaliação clínica e reconhecer sinais que exigem avaliação presencial.
– Supervisão contínua: supervisores clínicos devem revisar casos escalonados, reavaliar triagens automatizadas e documentar decisões.
– Registro e documentação: cada caso que envolva intervenção automatizada e consequente ação humana deve ser registrado no prontuário com justificativas e resultados.
A responsabilização profissional deve ser definida nas políticas institucionais, garantindo que os papéis (desenvolvedor, provedor da plataforma, profissional clínico) estejam claramente delineados.
Integração com sistemas de saúde, escolas e políticas públicas
A efetiva proteção de adolescentes requer coordenação entre provedores de tecnologia, serviços de saúde, escolas e formuladores de políticas. Recomendações de integração incluem:
– Protocolos colaborativos com escolas: treinamento de profissionais escolares para reconhecer quando encaminhar alunos ao atendimento humano e integração com recursos locais de saúde mental.
– Linhas diretas regionais e redes de crise: garantir que chatbots disponham de rotas de encaminhamento para serviços emergenciais locais em diferentes jurisdições.
– Requisitos regulatórios mínimos: órgãos de saúde pública devem estabelecer requisitos mínimos de segurança para ferramentas voltadas a menores, incluindo avaliação independente de risco e certificação.
– Financiamento para pesquisa independente: políticas públicas devem incentivar e financiar estudos longitudinais sobre segurança e eficácia em adolescentes.
Beresin (2025) sugere que somente políticas robustas e cooperação intersetorial permitirão mitigar riscos enquanto se preserva o potencial benéfico das tecnologias (BERESIN, 2025).
Recomendações de pesquisa e monitoramento
Para reduzir incertezas e aprimorar práticas, priorize-se a seguinte agenda de pesquisa:
– Estudos longitudinais em coortes de adolescentes avaliando desfechos emocionais, sociais e funcionais.
– Ensaios controlados randomizados comparando chatbots + supervisão humana versus cuidados convencionais.
– Estudos de implementação que avaliem como políticas, contextos socioeconômicos e culturais influenciam riscos e benefícios.
– Pesquisas sobre deteção de crise e algoritmos de escalonamento, com foco em reduzir falsos negativos.
– Auditorias independentes dos modelos de linguagem para identificar vieses e risco de produção de conteúdo prejudicial.
Monitoramento pós-mercado (post-market surveillance) deve ser obrigatório para ferramentas amplamente utilizadas, com mecanismos de notificação de eventos adversos e análise pública agregada.
Boas práticas para comunicação com adolescentes e famílias
A comunicação clara é essencial para proteção. Recomendações práticas:
– Linguagem acessível: explicações simples sobre o que a IA faz, limitações e como obter ajuda humana.
– Transparência sobre dados: informar quais dados são coletados, por quanto tempo são armazenados e como podem ser excluídos.
– Envolvimento familiar quando apropriado: políticas que equilibrem confidencialidade do adolescente e necessidade de segurança em situações de risco.
– Educação digital: incluir ensinamentos sobre limites da IA nas intervenções psicoeducativas.
Essas ações ajudam a construir confiança e a reduzir mal-entendidos que possam levar a riscos emocionais.
Conclusão
A terapia com IA e o uso de chatbots terapêuticos entre adolescentes representam uma fronteira promissora e simultaneamente repleta de desafios. Conforme observado por Beresin (2025), o crescimento rápido dessas ferramentas exige uma resposta igualmente urgente da comunidade clínica, regulatória e científica para prevenir danos emocionais, proteger dados sensíveis e garantir práticas profissionais responsáveis (BERESIN, 2025).
Recomenda-se a adoção de normas de prática claras, auditoria contínua, protocolos de escalonamento para situações de risco, treinamento profissional e pesquisa robusta. Somente com uma abordagem multidimensional — integrando ética, regulamentação, evidência científica e supervisão clínica — será possível aproveitar os benefícios da IA na saúde mental sem negligenciar a segurança e o desenvolvimento saudável dos adolescentes.
Referência ABNT:
BERESIN, Eugene. Adventures in AI Therapy. Psychology Today, 17 out. 2025. Disponível em: https://www.psychologytoday.com/us/blog/inside-out-outside-in/202510/adventures-in-ai-therapy. Acesso em: 17 out. 2025.
Fonte: Psychology Today. Reportagem de Eugene Beresin M.D., M.A.. Adventures in AI Therapy. 2025-10-17T03:26:47Z. Disponível em: https://www.psychologytoday.com/us/blog/inside-out-outside-in/202510/adventures-in-ai-therapy. Acesso em: 2025-10-17T03:26:47Z.