GUARD Act em foco: como a nova proposta protege menores contra chatbots de IA

A proposta bipartidária GUARD Act, apresentada pelos senadores Josh Hawley e Richard Blumenthal, propõe regras rigorosas para proteger menores contra chatbots de IA por meio de verificação obrigatória de idade e requisitos de divulgação. Neste artigo, analisamos o texto da proposta, seus impactos na proteção de menores, mecanismos de verificação de idade, implicações legais e de privacidade, e os desafios técnicos e regulatórios que o setor de inteligência artificial enfrentará. Palavras-chave: GUARD Act, chatbots de IA, proteção de menores, verificação de idade, requisitos de divulgação.

Introdução

A rápida expansão de chatbots movidos por inteligência artificial (IA) levantou preocupações crescentes sobre a interação de menores com sistemas automatizados que podem gerar conteúdos inadequados, manipulativos ou potencialmente perigosos. Em resposta, os senadores Josh Hawley (R-Mo.) e Richard Blumenthal (D-Conn.) apresentaram a proposta bipartidária denominada GUARD Act, que visa limitar o acesso de menores de 18 anos a determinados chatbots de IA, impondo verificação obrigatória de idade e requisitos de divulgação (FOX NEWS, 2025). Este texto oferece uma análise detalhada da proposta, avaliando efeitos práticos, desafios técnicos, implicações regulatórias e recomendações para atores públicos e privados.

Contexto e objetivo do GUARD Act

O GUARD Act surge em contexto de crescente preocupação pública e legislativa com as capacidades dos modelos de linguagem e outros sistemas de IA conversacional. Relatos sobre interações problemáticas entre chatbots e usuários vulneráveis, assim como potencial para desinformação, exploração emocional e exposição a conteúdo nocivo, impulsionaram iniciativas legislativas nos EUA e em outras jurisdições. Segundo a reportagem da Fox News, a proposta “barraria menores (under 18) de interagir com certos chatbots de IA” e buscaria instituir mecanismos de verificação de idade e obrigações de divulgação (FOX NEWS, 2025).

O objetivo declarado do GUARD Act é, portanto, reduzir riscos à saúde mental e segurança dos menores, além de responsabilizar provedores de tecnologia por práticas opacas que podem induzir confiança indevida em sistemas automatizados. A medida equilibra interesses de proteção infantil com preocupações relacionadas à liberdade de desenvolvimento tecnológico, exigindo uma análise cuidadosa sobre proporcionalidade e eficácia.

Principais disposições previstas

A proposta contem, de maneira geral, as seguintes diretrizes (conforme síntese da cobertura jornalística e do texto-base divulgado):

– Proibição de interação de menores de 18 anos com determinados chatbots de IA considerados de risco elevado.
– Obrigatoriedade de verificação de idade robusta antes de permitir acesso a tais serviços.
– Requisitos de divulgação clara por parte dos provedores, informando que o interlocutor é um sistema de IA, descrevendo suas limitações e potenciais riscos.
– Mecanismos de responsabilização e sanções administrativas para empresas que não cumprirem as normas.

Essas medidas procuram criar barreiras técnicas e informativas para reduzir o contato direto de menores com sistemas potencialmente prejudiciais, ao mesmo tempo em que fornecem transparência sobre a natureza e as capacidades das ferramentas de IA.

Verificação de idade: técnicas e limitações

Uma das pedras angulares do GUARD Act é a verificação obrigatória de idade. Em teoria, medidas de verificação de idade podem incluir:

– Confirmação documental (upload de documento de identidade).
– Verificação biométrica facial cruzada com base de dados de documentos.
– Serviços de verificação de identidade por terceiros (ID-as-a-service).
– Utilização de métodos de avaliação de risco comportamental ou de sinalização de contas (machine learning para identificar prováveis menores).
– Autenticação associada a métodos de pagamento, que tendem a estar disponíveis apenas para adultos.

Cada abordagem traz vantagens e desvantagens do ponto de vista técnico, de privacidade e de inclusão. Verificação documental oferece maior certeza, porém impõe barreiras significativas à adoção e riscos de vazamento de dados sensíveis. Verificação biométrica eleva preocupações de privacidade e pode conflitar com legislações de proteção de dados. Métodos baseados em terceiros podem terceirizar riscos e custos, e abordagens comportamentais tendem a gerar falsos positivos/negativos.

Do ponto de vista prático, a exigência de verificação robusta para todos os usuários adultos contrasta com a grande variedade de serviços e modelos de negócios no ecossistema de IA. Startups, pesquisadores acadêmicos e provedores de código aberto podem ser afetados de maneira diferente em comparação com grandes plataformas comerciais.

Implicações para privacidade e proteção de dados

A exigência de verificação de idade cria um dilema entre a proteção infantil e a proteção da privacidade. Armazenar documentos de identidade, dados biométricos ou registros de verificação eleva o risco de exposição e uso indevido dessas informações. Em termos de regulação, a conformidade com leis como o GDPR (na União Europeia) e legislações estaduais nos EUA — e, no Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD) — precisa ser considerada.

Alguns pontos críticos:

– Minimização de dados: as empresas devem coletar apenas o mínimo necessário para verificação e eliminar dados sensíveis após validação.
– Transparência: usuários devem ser informados sobre que dados são coletados, por que e por quanto tempo serão mantidos.
– Bases legais: é necessário esclarecer qual base legal sustenta o tratamento desses dados (consentimento, interesse legítimo, cumprimento de obrigação legal).
– Transferências e terceiros: contratos e auditorias com provedores de verificação devem garantir padrões de proteção equivalentes.

Sem salvaguardas adequadas, a obrigação de verificação pode criar novos vetores de risco para menores e para adultos que buscam privacidade.

Requisitos de divulgação e educação do usuário

Além da verificação de idade, o GUARD Act enfatiza obrigações de transparência: provedores devem informar explicitamente que o interlocutor é uma IA, suas limitações e possíveis vieses. Requisitos de disclosure buscam reduzir a ilusão de agência e autoridade atribuída por usuários ao sistema.

Medidas de disclosure eficazes incluem:

– Mensagens iniciais padronizadas: aviso claro no começo da interação.
– Documentação acessível: políticas públicas sobre limites, fontes e treinamento do modelo.
– Indicadores de confiança: sinais que indiquem quando o sistema está incerto ou quando respostas foram geradas a partir de inferência estatística versus dados verificáveis.
– Mecanismos de reclamação e suporte humano: canais para escalonamento a operadores humanos quando necessário.

Essas medidas também têm efeito pedagógico, contribuindo para a alfabetização digital de pais, educadores e menores.

Responsabilização e fiscalização

Para que o GUARD Act alcance seus objetivos, mecanismos de fiscalização e sanção precisam ser bem definidos. Possíveis estruturas incluem:

– Autoridade regulatória com poder de aplicação (multas, ordens de cessação).
– Auditorias independentes e relatórios de conformidade periódicos.
– Obrigações de notificação de incidentes envolvendo menores.
– Incentivos à adoção de melhores práticas por meio de certificações.

A imposição de penalidades financeiras deve ser calibrada para evitar desproporcionalidade entre grandes empresas e pequenos fornecedores, mas com clareza suficiente para desencorajar práticas negligentes.

Impactos no desenvolvimento e na inovação em IA

A introdução de requisitos estritos pode afetar o ritmo de inovação. Por um lado, regulações bem desenhadas podem aumentar a confiança pública nas tecnologias de IA, favorecendo adoção sustentável. Por outro lado, exigências operacionais e custos de conformidade podem:

– Elevar barreiras de entrada para startups;
– Forçar migração de serviços para mercados com regulação mais permissiva;
– Reduzir disponibilidade de experimentos de pesquisa em ambientes abertos.

Políticas equilibradas devem prever flexibilidades para pesquisa acadêmica, sandboxes regulatórios e isenções condicionais que permitam progresso científico sem comprometer a proteção infantil.

Desafios técnicos e operacionais na implementação

A implementação prática do GUARD Act enfrenta desafios técnicos significativos:

– Escalabilidade: verificação de idade em larga escala sem degradar experiência do usuário.
– Precisão: minimizar falsos positivos que bloqueiem adultos e falsos negativos que permitam menores.
– Interoperabilidade: definição de padrões entre plataformas e provedores de verificação.
– Custos: infraestrutura e operações de compliance podem ser onerosas para empresas menores.
– Robustez contra fraude: prevenção de uso de documentos falsos e deepfakes para burlar a verificação.

Soluções híbridas, combinando múltiplos métodos de verificação, auditoria contínua e atualização de modelos de detecção de fraude, são prováveis necessidades operacionais.

Cenário internacional e precedentes comparativos

Diversas jurisdições já discutem ou implementam políticas relacionadas ao uso de IA por menores. A União Europeia, por exemplo, tem avançado na regulação ampla da IA e da proteção de menores online, enquanto o Reino Unido e alguns estados dos EUA examinam medidas específicas. O GUARD Act se insere nesse movimento global de maior escrutínio regulatório.

Comparações com medidas existentes, como a Children’s Online Privacy Protection Act (COPPA) nos EUA, mostram que abordagens de proteção infantil têm precedentes, mas a especificidade técnica dos chatbots de IA exige adaptação normativa e técnica. Lições: políticas devem ser tecnologicamente neutras, baseadas em risco e acompanhadas de suporte à implementação.

Impacto social e considerações éticas

Proteger menores envolve considerações éticas além da técnica e legal. Interromper interações com chatbots pode impedir que jovens acessem informação útil ou apoio emocional em contextos de necessidade. Logo, é necessário:

– Desenvolver alternativas seguras: chatbots projetados especificamente para menores, com supervisão humana e conteúdos validados.
– Programas educativos: capacitar pais, educadores e jovens sobre riscos e uso seguro da tecnologia.
– Avaliação de impacto social: monitorar efeitos da norma sobre grupos marginalizados e populações com menos acesso a serviços de saúde mental.

A proteção não deve resultar em exclusão digital; deve promover inclusão segura.

Recomendações para formuladores de políticas e setor privado

Com base na análise, seguem recomendações práticas:

– Adotar abordagem baseada em risco: focar em sistemas com potencial de dano elevado, não em todos os agentes conversacionais.
– Definir padrões técnicos mínimos de verificação com salvaguardas de privacidade: por exemplo, validação sem retenção de dados sensíveis sempre que possível.
– Habilitar soluções de verificação escaláveis e auditáveis por terceiros independentes.
– Incentivar disclosure claro e testes de robustez (red teaming) para minimizar outputs nocivos.
– Criar mecanismos de suporte humano e encaminhamento para serviços apropriados quando chatbots detectem sinais de vulnerabilidade.
– Prever medidas de transição e apoio regulatório para pequenas empresas e pesquisa acadêmica (sandboxes, prazos diferenciados).
– Promover cooperação internacional para evitar fragmentação regulatória e “regulation shopping”.

Essas recomendações equilibram proteção, inovação e direitos fundamentais, incluindo privacidade e liberdade de expressão.

Conclusão

O GUARD Act representa uma resposta legislativa significativa às preocupações sobre a interação de menores com chatbots de IA. Ao combinar verificação de idade e requisitos de divulgação, a proposta busca mitigar riscos imediatos à segurança e bem-estar de jovens. No entanto, a eficácia dependerá fortemente do desenho detalhado das obrigações, da implementação técnica, da proteção de dados e da proporcionalidade das sanções.

Para ser eficaz e justa, a norma deve incorporar salvaguardas de privacidade, flexibilidade para pesquisa e mecanismos de apoio que protejam sem excluir. A colaboração entre legisladores, reguladores, indústria, academia, pais e organizações de proteção infantil será essencial para transformar a intenção do GUARD Act em proteção real e sustentável para menores na era da inteligência artificial.

Citação da fonte conforme normas ABNT:
Segundo reportagem da Fox News, “a new bipartisan bill introduced by Sens. Josh Hawley, R-Mo., and Richard Blumenthal, D-Conn., would bar minors (under 18) from interacting with certain AI chatbots” (FOX NEWS, 2025).

Referência bibliográfica (ABNT):
FOX NEWS. Protecting kids from AI chatbots: What the GUARD Act means. 05 nov. 2025. Disponível em: https://www.foxnews.com/tech/protecting-kids-from-ai-chatbots-what-guard-act-means. Acesso em: 05 nov. 2025.
Fonte: Fox News. Reportagem de . Protecting kids from AI chatbots: What the GUARD Act means. 2025-11-05T16:05:03Z. Disponível em: https://www.foxnews.com/tech/protecting-kids-from-ai-chatbots-what-guard-act-means. Acesso em: 2025-11-05T16:05:03Z.

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comentários
Inline Feedbacks
View all comments
plugins premium WordPress