Introdução
A rápida expansão de chatbots movidos por inteligência artificial (IA) levantou preocupações crescentes sobre a interação de menores com sistemas automatizados que podem gerar conteúdos inadequados, manipulativos ou potencialmente perigosos. Em resposta, os senadores Josh Hawley (R-Mo.) e Richard Blumenthal (D-Conn.) apresentaram a proposta bipartidária denominada GUARD Act, que visa limitar o acesso de menores de 18 anos a determinados chatbots de IA, impondo verificação obrigatória de idade e requisitos de divulgação (FOX NEWS, 2025). Este texto oferece uma análise detalhada da proposta, avaliando efeitos práticos, desafios técnicos, implicações regulatórias e recomendações para atores públicos e privados.
Contexto e objetivo do GUARD Act
O GUARD Act surge em contexto de crescente preocupação pública e legislativa com as capacidades dos modelos de linguagem e outros sistemas de IA conversacional. Relatos sobre interações problemáticas entre chatbots e usuários vulneráveis, assim como potencial para desinformação, exploração emocional e exposição a conteúdo nocivo, impulsionaram iniciativas legislativas nos EUA e em outras jurisdições. Segundo a reportagem da Fox News, a proposta “barraria menores (under 18) de interagir com certos chatbots de IA” e buscaria instituir mecanismos de verificação de idade e obrigações de divulgação (FOX NEWS, 2025).
O objetivo declarado do GUARD Act é, portanto, reduzir riscos à saúde mental e segurança dos menores, além de responsabilizar provedores de tecnologia por práticas opacas que podem induzir confiança indevida em sistemas automatizados. A medida equilibra interesses de proteção infantil com preocupações relacionadas à liberdade de desenvolvimento tecnológico, exigindo uma análise cuidadosa sobre proporcionalidade e eficácia.
Principais disposições previstas
A proposta contem, de maneira geral, as seguintes diretrizes (conforme síntese da cobertura jornalística e do texto-base divulgado):
– Proibição de interação de menores de 18 anos com determinados chatbots de IA considerados de risco elevado.
– Obrigatoriedade de verificação de idade robusta antes de permitir acesso a tais serviços.
– Requisitos de divulgação clara por parte dos provedores, informando que o interlocutor é um sistema de IA, descrevendo suas limitações e potenciais riscos.
– Mecanismos de responsabilização e sanções administrativas para empresas que não cumprirem as normas.
Essas medidas procuram criar barreiras técnicas e informativas para reduzir o contato direto de menores com sistemas potencialmente prejudiciais, ao mesmo tempo em que fornecem transparência sobre a natureza e as capacidades das ferramentas de IA.
Verificação de idade: técnicas e limitações
Uma das pedras angulares do GUARD Act é a verificação obrigatória de idade. Em teoria, medidas de verificação de idade podem incluir:
– Confirmação documental (upload de documento de identidade).
– Verificação biométrica facial cruzada com base de dados de documentos.
– Serviços de verificação de identidade por terceiros (ID-as-a-service).
– Utilização de métodos de avaliação de risco comportamental ou de sinalização de contas (machine learning para identificar prováveis menores).
– Autenticação associada a métodos de pagamento, que tendem a estar disponíveis apenas para adultos.
Cada abordagem traz vantagens e desvantagens do ponto de vista técnico, de privacidade e de inclusão. Verificação documental oferece maior certeza, porém impõe barreiras significativas à adoção e riscos de vazamento de dados sensíveis. Verificação biométrica eleva preocupações de privacidade e pode conflitar com legislações de proteção de dados. Métodos baseados em terceiros podem terceirizar riscos e custos, e abordagens comportamentais tendem a gerar falsos positivos/negativos.
Do ponto de vista prático, a exigência de verificação robusta para todos os usuários adultos contrasta com a grande variedade de serviços e modelos de negócios no ecossistema de IA. Startups, pesquisadores acadêmicos e provedores de código aberto podem ser afetados de maneira diferente em comparação com grandes plataformas comerciais.
Implicações para privacidade e proteção de dados
A exigência de verificação de idade cria um dilema entre a proteção infantil e a proteção da privacidade. Armazenar documentos de identidade, dados biométricos ou registros de verificação eleva o risco de exposição e uso indevido dessas informações. Em termos de regulação, a conformidade com leis como o GDPR (na União Europeia) e legislações estaduais nos EUA — e, no Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD) — precisa ser considerada.
Alguns pontos críticos:
– Minimização de dados: as empresas devem coletar apenas o mínimo necessário para verificação e eliminar dados sensíveis após validação.
– Transparência: usuários devem ser informados sobre que dados são coletados, por que e por quanto tempo serão mantidos.
– Bases legais: é necessário esclarecer qual base legal sustenta o tratamento desses dados (consentimento, interesse legítimo, cumprimento de obrigação legal).
– Transferências e terceiros: contratos e auditorias com provedores de verificação devem garantir padrões de proteção equivalentes.
Sem salvaguardas adequadas, a obrigação de verificação pode criar novos vetores de risco para menores e para adultos que buscam privacidade.
Requisitos de divulgação e educação do usuário
Além da verificação de idade, o GUARD Act enfatiza obrigações de transparência: provedores devem informar explicitamente que o interlocutor é uma IA, suas limitações e possíveis vieses. Requisitos de disclosure buscam reduzir a ilusão de agência e autoridade atribuída por usuários ao sistema.
Medidas de disclosure eficazes incluem:
– Mensagens iniciais padronizadas: aviso claro no começo da interação.
– Documentação acessível: políticas públicas sobre limites, fontes e treinamento do modelo.
– Indicadores de confiança: sinais que indiquem quando o sistema está incerto ou quando respostas foram geradas a partir de inferência estatística versus dados verificáveis.
– Mecanismos de reclamação e suporte humano: canais para escalonamento a operadores humanos quando necessário.
Essas medidas também têm efeito pedagógico, contribuindo para a alfabetização digital de pais, educadores e menores.
Responsabilização e fiscalização
Para que o GUARD Act alcance seus objetivos, mecanismos de fiscalização e sanção precisam ser bem definidos. Possíveis estruturas incluem:
– Autoridade regulatória com poder de aplicação (multas, ordens de cessação).
– Auditorias independentes e relatórios de conformidade periódicos.
– Obrigações de notificação de incidentes envolvendo menores.
– Incentivos à adoção de melhores práticas por meio de certificações.
A imposição de penalidades financeiras deve ser calibrada para evitar desproporcionalidade entre grandes empresas e pequenos fornecedores, mas com clareza suficiente para desencorajar práticas negligentes.
Impactos no desenvolvimento e na inovação em IA
A introdução de requisitos estritos pode afetar o ritmo de inovação. Por um lado, regulações bem desenhadas podem aumentar a confiança pública nas tecnologias de IA, favorecendo adoção sustentável. Por outro lado, exigências operacionais e custos de conformidade podem:
– Elevar barreiras de entrada para startups;
– Forçar migração de serviços para mercados com regulação mais permissiva;
– Reduzir disponibilidade de experimentos de pesquisa em ambientes abertos.
Políticas equilibradas devem prever flexibilidades para pesquisa acadêmica, sandboxes regulatórios e isenções condicionais que permitam progresso científico sem comprometer a proteção infantil.
Desafios técnicos e operacionais na implementação
A implementação prática do GUARD Act enfrenta desafios técnicos significativos:
– Escalabilidade: verificação de idade em larga escala sem degradar experiência do usuário.
– Precisão: minimizar falsos positivos que bloqueiem adultos e falsos negativos que permitam menores.
– Interoperabilidade: definição de padrões entre plataformas e provedores de verificação.
– Custos: infraestrutura e operações de compliance podem ser onerosas para empresas menores.
– Robustez contra fraude: prevenção de uso de documentos falsos e deepfakes para burlar a verificação.
Soluções híbridas, combinando múltiplos métodos de verificação, auditoria contínua e atualização de modelos de detecção de fraude, são prováveis necessidades operacionais.
Cenário internacional e precedentes comparativos
Diversas jurisdições já discutem ou implementam políticas relacionadas ao uso de IA por menores. A União Europeia, por exemplo, tem avançado na regulação ampla da IA e da proteção de menores online, enquanto o Reino Unido e alguns estados dos EUA examinam medidas específicas. O GUARD Act se insere nesse movimento global de maior escrutínio regulatório.
Comparações com medidas existentes, como a Children’s Online Privacy Protection Act (COPPA) nos EUA, mostram que abordagens de proteção infantil têm precedentes, mas a especificidade técnica dos chatbots de IA exige adaptação normativa e técnica. Lições: políticas devem ser tecnologicamente neutras, baseadas em risco e acompanhadas de suporte à implementação.
Impacto social e considerações éticas
Proteger menores envolve considerações éticas além da técnica e legal. Interromper interações com chatbots pode impedir que jovens acessem informação útil ou apoio emocional em contextos de necessidade. Logo, é necessário:
– Desenvolver alternativas seguras: chatbots projetados especificamente para menores, com supervisão humana e conteúdos validados.
– Programas educativos: capacitar pais, educadores e jovens sobre riscos e uso seguro da tecnologia.
– Avaliação de impacto social: monitorar efeitos da norma sobre grupos marginalizados e populações com menos acesso a serviços de saúde mental.
A proteção não deve resultar em exclusão digital; deve promover inclusão segura.
Recomendações para formuladores de políticas e setor privado
Com base na análise, seguem recomendações práticas:
– Adotar abordagem baseada em risco: focar em sistemas com potencial de dano elevado, não em todos os agentes conversacionais.
– Definir padrões técnicos mínimos de verificação com salvaguardas de privacidade: por exemplo, validação sem retenção de dados sensíveis sempre que possível.
– Habilitar soluções de verificação escaláveis e auditáveis por terceiros independentes.
– Incentivar disclosure claro e testes de robustez (red teaming) para minimizar outputs nocivos.
– Criar mecanismos de suporte humano e encaminhamento para serviços apropriados quando chatbots detectem sinais de vulnerabilidade.
– Prever medidas de transição e apoio regulatório para pequenas empresas e pesquisa acadêmica (sandboxes, prazos diferenciados).
– Promover cooperação internacional para evitar fragmentação regulatória e “regulation shopping”.
Essas recomendações equilibram proteção, inovação e direitos fundamentais, incluindo privacidade e liberdade de expressão.
Conclusão
O GUARD Act representa uma resposta legislativa significativa às preocupações sobre a interação de menores com chatbots de IA. Ao combinar verificação de idade e requisitos de divulgação, a proposta busca mitigar riscos imediatos à segurança e bem-estar de jovens. No entanto, a eficácia dependerá fortemente do desenho detalhado das obrigações, da implementação técnica, da proteção de dados e da proporcionalidade das sanções.
Para ser eficaz e justa, a norma deve incorporar salvaguardas de privacidade, flexibilidade para pesquisa e mecanismos de apoio que protejam sem excluir. A colaboração entre legisladores, reguladores, indústria, academia, pais e organizações de proteção infantil será essencial para transformar a intenção do GUARD Act em proteção real e sustentável para menores na era da inteligência artificial.
Citação da fonte conforme normas ABNT:
Segundo reportagem da Fox News, “a new bipartisan bill introduced by Sens. Josh Hawley, R-Mo., and Richard Blumenthal, D-Conn., would bar minors (under 18) from interacting with certain AI chatbots” (FOX NEWS, 2025).
Referência bibliográfica (ABNT):
FOX NEWS. Protecting kids from AI chatbots: What the GUARD Act means. 05 nov. 2025. Disponível em: https://www.foxnews.com/tech/protecting-kids-from-ai-chatbots-what-guard-act-means. Acesso em: 05 nov. 2025.
Fonte: Fox News. Reportagem de . Protecting kids from AI chatbots: What the GUARD Act means. 2025-11-05T16:05:03Z. Disponível em: https://www.foxnews.com/tech/protecting-kids-from-ai-chatbots-what-guard-act-means. Acesso em: 2025-11-05T16:05:03Z.






