Introdução
A rápida disseminação de sistemas de inteligência artificial (IA) conversacionais está alterando o modo como gerações mais jovens se relacionam, buscam suporte emocional e constroem hábitos comunicacionais. Segundo a reportagem de Ece Yildirim, publicada no Gizmodo, uma pesquisa conduzida pela organização britânica OnSide aponta que dois em cada cinco adolescentes recorrem a ferramentas de IA para pedir ajuda ou companhia, e que 20% desses jovens consideram mais fácil conversar com uma IA do que com uma pessoa real (YILDIRIM, 2025). Estes dados suscitam questões relevantes para pesquisadores, profissionais de saúde mental, educadores e responsáveis por políticas públicas, que precisam compreender os riscos e as oportunidades associados ao uso de IA por adolescentes.
Metodologia e âmbito da pesquisa
A análise aqui apresentada baseia-se na reportagem de Ece Yildirim sobre a pesquisa da OnSide, a qual envolveu 5.035 jovens (YILDIRIM, 2025). Como em qualquer levantamento de opinião autorrelatado, é preciso considerar limitações metodológicas: amostragem geográfica (provavelmente centrada no Reino Unido), perfil sociodemográfico dos respondentes, formulação das perguntas e ausência de dados longitudinais que permitam avaliar mudanças comportamentais ao longo do tempo. Ainda assim, a amostra é numerosa e suficiente para sinalizar tendências que merecem atenção imediata.
Principais achados
De acordo com a reportagem, os resultados mais relevantes incluem:
– Aproximadamente 40% dos entrevistados recorrem a ferramentas de IA para pedir ajuda ou companhia.
– Entre esses, 20% afirmaram que conversar com uma IA é mais fácil do que conversar com uma pessoa real (YILDIRIM, 2025).
Esses números indicam não apenas adesão tecnológica, mas uma mudança qualitativa: a IA está sendo percebida como um interlocutor emocionalmente válido, e não apenas como uma ferramenta utilitária.
Interpretação dos dados: por que adolescentes buscam companhia na IA?
Diversos fatores podem explicar a preferência de parcela significativa de adolescentes por interações mediadas por IA:
– Acessibilidade e disponibilidade: chatbots e assistentes virtuais estão sempre acessíveis, ao contrário de amigos ou profissionais que podem não estar imediatamente disponíveis.
– Ausência de julgamento percebido: muitos jovens relatam sentir menos medo de serem julgados por uma entidade algorítmica, o que facilita a abertura emocional.
– Falhas na rede de suporte humano: isolamento social, estresse acadêmico, conflitos familiares e barreiras de acesso a serviços de saúde mental podem levar adolescentes a procurar meios alternativos de suporte.
– Curiosidade tecnológica e integração digital: crescer em um ambiente digital intensivo torna natural testar novas formas de interação.
Esses elementos contribuem para um cenário em que a IA preenche lacunas emocionais e práticas, o que pode ser tanto um recurso quanto um risco.
Implicações para a saúde mental
A popularização do uso de IA como interlocutora tem implicações diretas para a saúde mental dos adolescentes:
– Benefícios potenciais: para alguns jovens, a IA pode oferecer conforto imediato, orientação básica e encaminhamento para recursos, reduzindo sentimentos momentâneos de solidão.
– Riscos clínicos: a normalização de interações emocionais com IA pode atrasar a busca por ajuda profissional, subestimar a gravidade de sintomas e criar dependência de respostas padronizadas que não substituem intervenção terapêutica qualificada.
– Qualidade do suporte: modelos de linguagem podem gerar respostas plausíveis, porém imprecisas ou inadequadas em situações de crise (p. ex., ideação suicida), sem discernimento clínico ou responsabilidade ética.
– Efeitos no desenvolvimento social: o hábito de privilegiar interlocutores digitais pode impactar habilidades interpessoais, empatia e resolução de conflitos face a face.
Portanto, profissionais de saúde mental devem considerar tanto a utilidade imediata quanto os riscos a médio e longo prazos ao lidar com pacientes adolescentes que usam IA regularmente.
Questões de privacidade, segurança e ética
O uso crescente de IA por menores levanta preocupações centrais:
– Coleta e tratamento de dados sensíveis: conversas com chatbots podem envolver informações íntimas que, se armazenadas ou utilizadas para fins comerciais, configuram risco para a privacidade dos jovens.
– Transparência e consentimento: algoritmos muitas vezes não esclarecem claramente como dados são processados, armazenados ou monetizados; adolescentes podem não estar plenamente informados sobre consentimento.
– Responsabilidade e governança: em casos de dano decorrente de conselho inapropriado da IA, a responsabilidade legal e ética entre desenvolvedores, plataformas e provedores de acesso continua ambígua.
– Viés e treinamento: modelos treinados em corpora enviesadas podem reproduzir estigmas, conselhos inadequados ou conteúdos inapropriados.
A conjunção desses fatores exige regulamentação específica e práticas de design centradas em proteção de menores.
Responsabilidade de desenvolvedores e plataformas
As empresas que desenvolvem modelos de linguagem e chatbots têm responsabilidades claras:
– Implementar salvaguardas para detecção de crises e escalonamento para serviços humanos, quando necessário.
– Garantir preservação da privacidade e minimizar o armazenamento de dados sensíveis de menores.
– Fornecer avisos claros sobre limitações do sistema e orientar usuários sobre quando buscar suporte profissional.
– Realizar auditorias independentes de segurança, vieses e impactos psicológicos, com divulgação transparente dos resultados.
A responsabilidade técnica e ética deve andar junto com políticas comerciais que não priorizem monetização em detrimento da segurança do usuário.
Implicações para políticas públicas e regulação
Os formuladores de políticas precisam agir em várias frentes:
– Legislação específica para proteção de dados de menores em serviços de IA.
– Diretrizes obrigatórias para identificação de conteúdo gerado por IA, salvaguardas de crise e procedimentos de encaminhamento.
– Financiamento para pesquisas independentes que avaliem impactos psicossociais do uso de IA por jovens.
– Campanhas públicas e programas escolares de alfabetização digital que cobrem riscos, privacidade e comportamento seguro.
A regulação deve equilibrar inovação e proteção, com ênfase especial em grupos vulneráveis como adolescentes.
Recomendações práticas para educadores e pais
Profissionais que convivem com adolescentes podem adotar medidas concretas:
– Promover alfabetização digital: ensinar jovens a entender como funcionam as IAs, quais são suas limitações e riscos.
– Estabelecer canais de diálogo abertos: incentivar conversas sobre o uso de IA sem estigmatizar, para que adolescentes compartilhem experiências e sinais de sofrimento.
– Definir limites saudáveis: orientar sobre tempo de uso, privacidade das conversas e diferenciação entre suporte humano e digital.
– Conhecer recursos confiáveis: identificar serviços de saúde mental e linhas de crise acessíveis, para encaminhamento quando a IA não for suficiente.
– Monitoramento ético: escolas e famílias devem buscar equilíbrio entre supervisão e autonomia, respeitando privacidade, mas atentos a sinais de dependência ou deterioração emocional.
Tais práticas contribuem para reduzir danos e potencializar benefícios da tecnologia.
Diretrizes para profissionais de saúde mental
Profissionais devem atualizar protocolos clínicos e incorporar considerações sobre IA:
– Avaliar uso de IA nas entrevistas iniciais: perguntar sobre frequência e natureza das interações com chatbots.
– Educar pacientes adolescentes sobre limitações das IAs e incentivar busca de suporte humano para sintomas persistentes.
– Documentar encaminhamentos: quando a IA é utilizada como primeiro recurso, registrar orientações fornecidas e intervenções subsequentes.
– Colaboração interdisciplinar: trabalhar com especialistas em tecnologia para desenvolver respostas clínicas apropriadas a riscos emergentes.
A prática clínica contemporânea exige integração entre conhecimento tecnológico e competências terapêuticas.
Desafios de pesquisa e lacunas de conhecimento
Apesar dos indicadores preocupantes, há lacunas que requerem investigação:
– Impacto longitudinal: como o uso contínuo de IA molda desenvolvimento emocional e social ao longo de anos?
– Efeitos diferenciais: quais subgrupos de adolescentes (por idade, gênero, contexto socioeconômico) são mais vulneráveis ou beneficiados?
– Qualidade das interações: até que ponto respostas de IA promovem bem-estar versus reforçam isolamento?
– Intervenções digitais combinadas: que modelos híbridos (IA + humanos) são mais eficazes para suporte juvenil?
Investimentos em pesquisa rigorosa e multidisciplinar são essenciais para orientar políticas e práticas.
Boas práticas de design de IA focadas em adolescentes
Desenvolvedores e pesquisadores podem seguir princípios para reduzir riscos:
– Safety-by-design: integrar detecção de crises e encaminhamento automático a serviços humanos.
– Minimização de dados: coletar o mínimo necessário e adotar retenção curta para conversas sensíveis.
– Transparência: explicitar limitações do sistema e informar sobre uso de dados de forma adequada para menores.
– Participação juvenil: envolver adolescentes no design e testes, garantindo que soluções reflitam necessidades reais e preservem direitos.
– Supervisão ética contínua: comitês de revisão e auditorias externas que avaliem impactos psicossociais.
Essas práticas contribuem para soluções mais seguras e adequadas ao público jovem.
Conclusão
A constatação de que uma parcela significativa de adolescentes recorre à inteligência artificial para companhia e que muitos deles consideram mais fácil conversar com IA do que com pessoas reais é um sinal de alerta que demanda resposta coordenada. A tecnologia pode oferecer suporte imediato e acessível, mas não dispensa a necessidade de intervenções humanas, salvaguardas legais e educação digital robusta. Profissionais de saúde, educadores, desenvolvedores e formuladores de políticas devem colaborar para mitigar riscos — preservando privacidade, garantindo qualidade do suporte e promovendo o desenvolvimento saudável das habilidades sociais dos jovens.
Citação ABNT no corpo do texto: dados e contexto da pesquisa foram reportados por Yildirim (YILDIRIM, 2025).
Referências (formato ABNT)
YILDIRIM, Ece. An Alarming Number of Teens Say They Turn To AI For Company, Study Finds. Gizmodo, 24 nov. 2025. Disponível em: https://gizmodo.com/teens-ai-company-survey-2000690378. Acesso em: 24 nov. 2025.
Fonte: Gizmodo.com. Reportagem de Ece Yildirim. An Alarming Number of Teens Say They Turn To AI For Company, Study Finds. 2025-11-24T10:30:55Z. Disponível em: https://gizmodo.com/teens-ai-company-survey-2000690378. Acesso em: 2025-11-24T10:30:55Z.







