Introdução: por que os companheiros de IA atraem famílias e profissionais
A premissa é atraente: um interlocutor disponível 24 horas por dia, sempre do lado da criança ou do adolescente, que não se aborrece, não se cansa e não se magoa. Como observa Eileen Kennedy-Moore, “The premise is appealing: Who wouldn’t want a friend who is available 24/7, always on your side, and never annoyed, bored, or hurt?” (KENNEDY-MOORE, 2025). Essa disponibilidade e a capacidade de adaptação tornam os companheiros de IA especialmente atraentes para jovens que vivenciam solidão, ansiedade social ou falta de redes de apoio.
Ao mesmo tempo, a própria qualidade das interações está construída em mecanismos que simulam empatia — por vezes descritos como “caring-ish statements” — o que cria a impressão de que a IA “conhece” e “gosta” do usuário (KENNEDY-MOORE, 2025). Para pais, educadores e profissionais de saúde mental, entender o funcionamento, as oportunidades e os riscos dos companheiros de IA é imprescindível para definir práticas seguras e éticas.
O que são companheiros de IA e como funcionam
Companheiros de IA são agentes conversacionais baseados em modelos de linguagem e sistemas de aprendizado de máquina. Eles combinam processamento de linguagem natural (NLP), perfis de usuário e, em alguns casos, sensores e multimodalidade (voz, imagem) para construir diálogos personalizados. Essas plataformas podem ser bots em aplicativos móveis, assistentes virtuais integrados a dispositivos ou personagens virtuais em ambientes de entretenimento.
Do ponto de vista técnico, os elementos-chave incluem:
– Modelos de linguagem que preveem respostas a partir de grandes volumes de dados.
– Sistemas de personalização que memorizam preferências e padrões de interação.
– Regras de moderação e filtros, que variam amplamente em eficácia.
– Arquiteturas de coleta e armazenamento de dados para treinar e ajustar comportamentos.
Esses componentes tornam possível uma sensação de continuidade e “relacionamento”, sobretudo quando o sistema reproduz afirmações acolhedoras que simulam empatia.
Por que jovens são especialmente vulneráveis e receptivos
Adolescentes e pré-adolescentes atravessam fases de desenvolvimento emocional nas quais pertencimento, validação social e experimentação de identidade são centrais. A interação com um agente que responde sem julgamento oferece alívio imediato. Além disso, como Kennedy-Moore observa, “Artificial intelligence companions are attractive and seem to ‘know’ and ‘like’ us because they make caring-ish statements” (KENNEDY-MOORE, 2025). Essa reciprocidade simulada pode reforçar laços emocionais unilaterais.
Fatores que aumentam a receptividade incluem:
– Escassez de redes sociais de suporte reais.
– Maior familiaridade tecnológica dos jovens.
– Curiosidade emocional e experimentação identitária.
– Situações de isolamento ou ansiedade (p.ex., períodos de pandemia).
Por outro lado, essa receptividade pode facilitar dependência afetiva tecnológica, substituição de relações humanas e dificuldades para discriminar conselhos confiáveis de respostas geradas automaticamente.
Riscos clínicos e de desenvolvimento
Impactos potenciais sobre saúde mental e desenvolvimento social incluem:
– Dependência emocional: A interação contínua com um agente que valida sem limites pode atenuar a motivação para buscar suporte humano ou desenvolver habilidades sociais complexas.
– Mimetismo de empatia: Respostas que “soam” empáticas não implicam compreensão verdadeira; pacientes jovens podem interpretar mal limites e confiar em orientações inadequadas.
– Normalização de conselhos inseguros: Sem moderação eficaz, a IA pode gerar informações imprecisas sobre saúde, riscos ou condutas perigosas.
– Intensificação de isolamento: Uso excessivo pode reduzir oportunidades de interação presencial, prejudicando aprendizagem social.
– Agravamento de transtornos: Para jovens com depressão, transtorno de ansiedade social ou tendências autolesivas, conselhos automatizados mal calibrados podem ser perigosos.
Esses riscos exigem avaliação contínua por profissionais de saúde mental e a inclusão de diretrizes clínicas para integração de tecnologia na prática.
Riscos de privacidade, segurança de dados e comercialização
Companheiros de IA coletam dados sensíveis: textos privados, padrões emocionais, horários de uso, e por vezes áudio e imagens. As implicações incluem:
– Vazamento de dados pessoais e perfil emocional.
– Uso comercial para segmentação publicitária dirigida a menores.
– Monetização de dados por terceiros sem consentimento parental informado.
– Risco de engenharia social e exposição a conteúdo malicioso se sistemas forem comprometidos.
Recomenda-se que pais e profissionais verifiquem políticas de privacidade, práticas de anonimização e retenção de dados das plataformas. A conformidade com leis de proteção de dados (como a LGPD no Brasil) e diretrizes de proteção à infância deve ser exigida.
Viés, desinformação e limitações técnicas
Modelos de linguagem reproduzem vieses presentes nos dados de treinamento. Para crianças, isso pode resultar em:
– Estereótipos de gênero ou raça reforçados em respostas.
– Informação científica imprecisa ou contraditória.
– Recomendações culturais inadequadas ou ofensivas.
Além disso, modelos podem “alucinar” (inventar fatos), apresentar falsas certezas e oferecer soluções inapropriadas. Profissionais devem considerar a incerteza inerente aos sistemas e instruir jovens a verificar informações com fontes confiáveis.
Abordagens regulatórias e éticas
A regulação de companheiros de IA ainda está em desenvolvimento em muitas jurisdições. Princípios éticos recomendados incluem:
– Transparência: informar que se trata de IA e quais dados são coletados.
– Consentimento informado: mecanismos claros para consentimento parental e assentimento de menores.
– Minimização de dados: coleta apenas do essencial para funcionamento.
– Auditação independente: avaliações externas sobre segurança, viés e impacto.
– Restrições comerciais: limites à publicidade dirigida a menores.
Para organizações e formuladores de políticas, é urgente desenvolver normas específicas para produtos destinados a crianças e adolescentes, alinhadas com direitos digitais e proteção da infância.
Orientações práticas para pais e educadores
Para reduzir riscos e preservar benefícios potenciais, sugerimos medidas práticas, baseadas em evidências e prudência:
– Conheça o produto: leia termos de uso, política de privacidade e avaliações técnicas. Verifique se o fornecedor declara coleta de dados e práticas de retenção.
– Supervisão e co-uso: inicialmente, interaja junto com a criança para entender o tipo de respostas e criar oportunidades de reflexão crítica.
– Limitar tempo e função: estabeleça limites claros de uso e deixe a IA como complemento, não substituto de relações humanas ou tratamento clínico.
– Educar sobre fontes de informação: ensine a identificar informações confiáveis e a confirmar conselhos com adultos de confiança ou profissionais.
– Monitoramento técnico: use controles parentais e revise logs quando disponíveis; deseje preferência por soluções com criptografia e anonimização.
– Preparar respostas para situações de risco: se a IA exibir indícios de conteúdo autolesivo ou ameaça, saiba onde denunciar e como buscar ajuda especializada.
– Consultar profissionais: em casos de sofrimento psicológico, priorizar avaliação clínica e evitar confiar exclusivamente em recomendações de IA.
Essas medidas ajudam a preservar benefícios (conversa, apoio emocional momentâneo, estímulo à expressão) minimizando prejuízos.
Diretrizes para desenvolvedores e organizações
Para reduzir danos e cumprir princípios éticos, desenvolvedores devem adotar práticas específicas:
– Design centrado em segurança infantil: incorporar padrões de proteção da infância desde a concepção.
– Transparência de limitações: informar limites do sistema, risco de erros e quando procurar ajuda humana.
– Moderação baseada em evidências: implementar detecção de sinais de risco (ideação autodestrutiva, abuso) com protocolos claros de ação.
– Conservação responsável de dados: anonimização, retenção mínima e proibição de uso para microtargeting comercial de menores.
– Auditoria independente e relatórios públicos sobre desempenho e incidentes de segurança.
– Colaboração com especialistas em desenvolvimento infantil, psicologia e educação para calibrar respostas adequadas por faixa etária.
Essas práticas ajudam a construir confiança e a reduzir impactos negativos na saúde mental e desenvolvimento.
Como profissionais podem integrar avaliação e acompanhamento
Profissionais de saúde mental, educação e políticas públicas devem:
– Avaliar padrões de uso como parte da anamnese clínica.
– Incluir perguntas sobre interações com agentes digitais em entrevistas com jovens e famílias.
– Desenvolver protocolos de intervenção quando a dependência tecnológica ou risco emocional forem identificados.
– Promover programas de literacia digital que ensinem jovens a distinguir interação humana de interações automatizadas.
– Participar de comitês consultivos para regulamentação e certificação de produtos.
A integração disciplinar entre tecnologia e saúde é necessária para mitigar riscos emergentes.
Estudos e evidências: lacunas e prioridades de pesquisa
Apesar do rápido avanço, evidências longitudinais sobre impacto a longo prazo de companheiros de IA em desenvolvimento infantil são escassas. Prioridades de pesquisa incluem:
– Estudos longitudinales sobre suporte emocional substitutivo e desenvolvimento social.
– Avaliação de eficácia clínica para uso como complemento terapêutico.
– Impactos de coleta de dados emocionais sobre privacidade e identidade.
– Intervenções educativas que reduzam riscos de dependência e desinformação.
– Avaliações de políticas e regulamentações em diferentes contextos culturais.
Essas pesquisas devem informar práticas clínicas, design de produtos e políticas públicas.
Conclusão: equilíbrio entre inovação e proteção
Companheiros de IA para crianças oferecem oportunidades reais: acessibilidade, estímulo à expressão e apoio momentâneo. Porém, a atração que exercem — alimentada por declarações que soam afetuosas — também cria riscos substanciais para privacidade, desenvolvimento social e saúde mental (KENNEDY-MOORE, 2025). Profissionais, pais e reguladores precisam agir de forma coordenada, exigindo transparência, proteção de dados, moderação eficaz e evidências clínicas antes de permitir que essas tecnologias substituam interações humanas essenciais.
Recomenda-se uma postura cautelosa e proativa: avaliar plataformas, educar jovens sobre limitações da IA, estabelecer limites de uso e demandar padrões éticos e legais para produtos destinados a menores. Somente assim será possível colher benefícios tecnológicos sem comprometer o bem-estar e os direitos das próximas gerações.
Referências internas citadas:
KENNEDY-MOORE, Eileen. AI Companions for Kids: What Every Parent Needs to Know. Psychology Today, 29 Sep 2025. (Citação direta: “Artificial intelligence companions are attractive and seem to ‘know’ and ‘like’ us because they make caring-ish statements”; “The premise is appealing: Who wouldn’t want a friend who is available 24/7, always on your side, and never annoyed, bored, or hurt?”) (KENNEDY-MOORE, 2025).
–
Fonte: Psychology Today. Reportagem de Eileen Kennedy-Moore Ph.D.. AI Companions for Kids: What Every Parent Needs to Know. 2025-09-29T15:48:31Z. Disponível em: https://www.psychologytoday.com/us/blog/growing-friendships/202509/ai-companions-for-kids-what-every-parent-needs-to-know. Acesso em: 2025-09-29T15:48:31Z.







