Trump busca bloquear leis estaduais de IA enquanto Nova York amplia a regulação da inteligência artificial

A ordem executiva do presidente Trump visando impedir a fiscalização estadual sobre inteligência artificial acende um confronto com Nova York, que avança com regras mais rigorosas. Nesta análise, examinamos a resposta da Assembleia de Nova York e do deputado Alex Bores — autor do projeto de lei estadual sobre regulação de IA — e avaliamos as implicações legais, econômicas e tecnológicas para a regulação de IA nos Estados Unidos. Palavras-chave: regulação de IA, leis estaduais de IA, ordem executiva, Nova York, Alex Bores, fiscalização estadual, inteligência artificial.

Introdução

O anúncio de uma ordem executiva do presidente Donald Trump destinada a limitar a capacidade dos estados de regular sistemas de inteligência artificial reacendeu um debate crucial sobre a governança dessa tecnologia nos Estados Unidos. Ao mesmo tempo, o Estado de Nova York sinaliza um caminho contrário, promulgando ou propondo medidas mais severas para supervisão e segurança de sistemas de IA. A tensão entre autoridade federal e iniciativas estaduais, personificada na reação do deputado Alex Bores — autor de projeto de lei estadual voltado à regulação de IA — sintetiza conflitos jurídicos, políticos e técnicos que definirão o futuro da política pública sobre inteligência artificial no país (ROBBINS, 2025).

Neste artigo, baseado na reportagem de Sarah Robbins para a NPR, apresentamos uma análise aprofundada das motivações e do conteúdo da ordem executiva, da resposta legislativa de Nova York e das possíveis consequências para empresas, órgãos reguladores e cidadãos. A análise inclui avaliação das bases jurídicas, impactos econômicos e recomendações de políticas públicas para conciliar inovação e proteção social. As referências à reportagem original seguem as normas da ABNT (ROBBINS, 2025).

Contexto político e regulatório

A regulação de inteligência artificial tem se expandido globalmente em ritmo acelerado. Enquanto a União Europeia consolidou um texto robusto com o Regulamento de IA (AI Act), nos Estados Unidos o debate permanece fragmentado entre iniciativas federais incipientes e leis estaduais emergentes. Estados como Califórnia e Nova York têm apresentado propostas para proteger privacidade, mitigar viés algorítmico e aumentar transparência de modelos automatizados. Essas iniciativas estaduais refletem tanto preocupações técnicas quanto demanda pública por maior responsabilização das empresas de tecnologia.

Historicamente, políticas tecnológicas nos EUA oscilam entre abordagens pró-inovação com mínima intervenção e intervenções mais restritivas em resposta a riscos percebidos. A ordem executiva em questão expressa a tentativa do Executivo federal de padronizar ou limitar o campo de atuação regulatória dos estados, justificando-se em argumentos de coesão nacional e eficiência regulatória. Entretanto, na prática, essa ação suscita questionamentos constitucionais relativos ao princípio federativo e à divisão de competências entre níveis de governo (ROBBINS, 2025).

A ordem executiva do Presidente Trump: objetivos e argumentos

Segundo a reportagem da NPR, a ordem executiva assinada pelo presidente busca impedir que estados adotem regulamentações que, no entendimento do Executivo, possam criar entraves à inovação e fragmentar o mercado interno de tecnologia. O texto presidencial argumenta que normas estatais díspares podem gerar insegurança jurídica para empresas que atuam em múltiplas jurisdições, onerar desenvolvedores e reduzir a competitividade internacional das empresas americanas (ROBBINS, 2025).

Do ponto de vista retórico, a ordem enfatiza dois objetivos principais: 1) promover um ambiente regulatório uniforme que favoreça desenvolvimento tecnológico e atração de investimentos; e 2) evitar que regras locais criem barreiras de conformidade que onerem especialmente startups e instituições de pesquisa. No entanto, críticos apontam que a justificativa ignora a função dos estados como laboratórios de políticas públicas e subestima a necessidade de respostas locais a riscos concretos, como discriminação algorítmica em serviços públicos e vieses em decisões automatizadas.

A ordem também recorre a argumentos de segurança nacional e competitividade internacional, sugerindo que padrões regulatórios dispersos poderiam comprometer a capacidade dos EUA de competir com atores globais que adotam políticas nacionais coordenadas. Esse argumento, embora relevante, não resolve a tensão existente entre padronização e adequação normativa às especificidades locais.

Resposta de Alex Bores e iniciativa legislativa de Nova York

Alex Bores, membro da Assembleia Estadual de Nova York e autor de projeto de lei que visa regulamentar o uso de inteligência artificial em diferentes setores, respondeu publicamente à ordem executiva, defendendo a prerrogativa do estado de proteger seus cidadãos e de adotar normas mais rigorosas quando necessário. Bores argumenta que a supervisão estadual é essencial para mitigar riscos específicos, preservar direitos civis e garantir que a adoção de IA ocorra de maneira responsável e transparente (ROBBINS, 2025).

A proposta de Nova York, patrocinada por Bores, inclui dispositivos focados em transparência algorítmica, avaliação de impacto sobre direitos civis, auditorias independentes e requisitos de notificação em caso de decisões automatizadas que afetem significativamente indivíduos. Essas medidas refletem preocupações concretas sobre vieses em algoritmos de recrutamento, decisões judiciais assistidas por IA, e sistemas de vigilância automatizados.

Ao articular sua resposta, Bores destaca que a ação federal não deve ser usada para obstruir iniciativas que busquem corrigir lacunas regulatórias e proteger populações vulneráveis. A postura de Nova York pode servir de modelo ou catalisador para outros estados que desejam adotar padrões mais exigentes em matéria de regulação de IA.

Aspectos constitucionais e legais do conflito federal-estadual

O enfrentamento entre ordem executiva federal e legislação estadual sobre IA suscita uma série de questões constitucionais. O sistema americano de federalismo distribui competências, e a capacidade do Executivo federal de “prevalecer” sobre leis estaduais depende do escopo e da natureza da autoridade invocada. Existem três vias legais principais a considerar:

1. Supremacia federal: quando o Congresso legisla de forma explícita em um campo, leis federais pré-emptam legislação estadual conflitante. No entanto, uma ordem executiva não tem o mesmo peso legislativo do Congresso, e sua capacidade de impedir diretamente ações estaduais é mais limitada, especialmente sem base em legislação federal clara.

2. Competência administrativa: se a ordem invoca poderes executivos para regular políticas administrativas federais (por exemplo, contratos federais, uso de IA por agências federais), o Executivo pode condicionar recursos federais à conformidade, o que cria forte influência sobre políticas estaduais. Contudo, condicionamento de verbas federais está sujeito a limites constitucionais.

3. Judicialização: é previsível que estados como Nova York contestem a ordem executiva em tribunais federais, alegando invasão de competência e excesso de poder. Tribunais avaliarão, entre outros aspectos, se a ordem excede a autoridade executiva e se fere princípios de autonomia estadual (ROBBINS, 2025).

Dessa forma, a disputa tende a deslocar-se do terreno político para o jurídico, exigindo interpretações constitucionais e possivelmente decisões da Suprema Corte que delimitem o alcance do poder presidencial sobre políticas tecnológicas estaduais.

Implicações para empresas de tecnologia e mercado

A ordem executiva e a reação de estados como Nova York criam um ambiente de incerteza regulatória para empresas que desenvolvem e aplicam soluções de IA. Em curto prazo, companhias que atuam em múltiplos estados enfrentam dilemas de conformidade: seguir padrões estaduais mais rigorosos, que podem se tornar um custo operacional, ou adotar uma postura de conformidade mínima baseada em orientações federais.

Empresas maiores, com mais recursos, tendem a internalizar compliance e podem até se beneficiar de padrões mais elevados, utilizando conformidade como diferencial competitivo. Startups e pequenas empresas, por outro lado, podem sofrer maior impacto financeiro ao terem que cumprir normas heterogêneas. Isso pode reduzir a diversidade de atores no mercado e aumentar barreiras de entrada, contrapondo-se ao argumento pró-inovação apresentado pela ordem executiva.

Além disso, investidores avaliam riscos regulatórios na hora de financiar projetos de IA. Uma malha regulatória incerta pode frear investimentos, sobretudo em áreas de IA aplicada a serviços sensíveis (saúde, crédito, justiça), enquanto um marco regulatório claro e confiável tende a diminuir riscos e fomentar mercados.

Riscos sociais e técnicos que justificam fiscalização

A defesa de maior regulação estadual não é apenas uma questão política: há riscos técnicos e sociais concretos que justificam intervenção. Entre eles:

– Viés algorítmico e discriminação: algoritmos treinados em dados enviesados podem replicar e amplificar discriminações raciais, de gênero e socioeconômicas em decisões de emprego, crédito e policiamento preditivo.
– Opacidade e falta de explicabilidade: modelos de IA complexos dificultam auditoria e responsabilização, reduzindo capacidade de indivíduos e reguladores entenderem como decisões foram tomadas.
– Segurança e robustez: sistemas de IA podem ser vulneráveis a ataques adversariais, causando resultados erráticos ou manipulados.
– Impacto no mercado de trabalho: automação acelerada pode provocar deslocamentos ocupacionais, exigindo políticas públicas de requalificação.
– Privacidade: coleta e processamento massivo de dados pessoais implicam riscos de violação de privacidade e uso indevido de informações sensíveis.

Esses riscos incentivam a adoção de medidas de mitigação, incluindo avaliações de impacto, requisitos de transparência, auditorias independentes e mecanismos de recurso para pessoas afetadas por decisões automatizadas. Estados com maior concentração populacional e diversidade, como Nova York, têm interesse particular em adotar salvaguardas robustas.

Análise comparada: lições da União Europeia e outras jurisdições

A experiência da União Europeia com o AI Act oferece lições relevantes. A UE buscou um equilíbrio entre restrições a sistemas de alto risco e flexibilidades para inovação. Sua abordagem baseada em categorias de risco e requisitos proporcionais — incluindo avaliações de conformidade e supervisão por entidades nacionais — demonstra que é possível combinar proteção e previsibilidade regulatória.

Nos EUA, a ausência de legislação federal abrangente cria espaço para que estados inovem. No entanto, a multiplicidade de regimes pode fragmentar o mercado interno. Um caminho possível seria a adoção de princípios federais mínimos complementados por normas estaduais mais específicas para riscos locais, mantendo, assim, um piso regulatório nacional sem impedir a experimentação territorial.

Perspectivas jurídicas e cenários futuros

Diante da ordem executiva e da reação de estados como Nova York, é possível desenhar alguns cenários plausíveis:

1. Prevalência federal: tribunais confirmam a autoridade do Executivo para limitar certas ações estaduais, levando a um ambiente mais centralizado de regulação de IA. Isso poderia promover uniformidade, mas também reduzir experimentação local e proteção diferenciada.

2. Vitórias estaduais: cortes suspendem ou invalidam partes da ordem executiva, preservando espaço para legislações estaduais. Esse cenário reforçaria o pluralismo regulatório e poderia incentivar uma rede de normas estaduais que, por pressure, conduzam a padrões nacionais mais altos no médio prazo.

3. Compromisso legislativo: Congresso aprova legislação que estabelece um marco nacional com abertura para normas estaduais suplementares. Esse seria o resultado ideal para reduzir incerteza, mas depende de consenso político difícil no atual panorama polarizado.

4. Fragmentação prolongada: litígios e políticas divergentes mantêm incerteza por anos, afetando investimentos e adoção de tecnologias.

Qualquer que seja o cenário, atores privados, governos estaduais e federais precisam trabalhar conjuntamente para desenvolver capacidades técnicas de fiscalização, promover padrões de interoperabilidade e garantir mecanismos eficazes de responsabilização.

Recomendações de políticas públicas

Com base na análise apresentada, recomenda-se considerar as seguintes linhas de ação:

– Estabelecer princípios federais mínimos: definir requisitos básicos de transparência, avaliação de impacto e responsabilidade que sirvam como piso para todas as jurisdições.
– Permitir normas estaduais suplementares: reconhecer a legitimidade de estados em adotar medidas mais rigorosas quando justificadas por riscos locais.
– Incentivar interoperabilidade regulatória: criar frameworks técnicos e padrões comuns para facilitar conformidade multiplataforma e reduzir custos para empresas.
– Apoiar capacidade técnica reguladora: investimentos em recursos humanos e tecnológicos para que agências federais e estaduais possam avaliar sistemas de IA com expertise.
– Promover auditorias independentes e mecanismos de recurso: garantir que indivíduos possam contestar decisões automatizadas e acessar relatórios de conformidade.
– Fomentar diálogo público-setorial: mesas interinstitucionais com representantes de sociedade civil, academia, setor privado e governos para desenvolver normas balanceadas.
– Estabelecer mecanismos de cooperação internacional: alinhar-se a melhores práticas globais para não perder competitividade e ao mesmo tempo proteger direitos.

Essas medidas visam criar um ambiente que concilie inovação e proteção, reduzindo a probabilidade de conflitos constitucionais e incerteza regulatória prolongada.

Citação e referência conforme ABNT

Ao longo deste texto, utilizamos como fonte principal a reportagem de Sarah Robbins publicada pela NPR. Para referência conforme as normas da ABNT, indicamos a citação no corpo do texto como (ROBBINS, 2025) e a referência completa conforme abaixo:

ROBBINS, Sarah. President Trump moves to block state AI laws as New York pushes tougher rules. NPR, 14 dez. 2025. Disponível em: https://www.npr.org/2025/12/14/nx-s1-5644086/president-trump-moves-to-block-state-ai-laws-as-new-york-pushes-tougher-rules. Acesso em: 14 dez. 2025. (ROBBINS, 2025)

Conclusão

O confronto entre a ordem executiva do presidente Trump e as iniciativas regulatórias de estados como Nova York simboliza o delicado equilíbrio entre uniformização e autonomia na governança da inteligência artificial. A resposta de Alex Bores ressalta a centralidade das perspectivas locais na formulação de políticas públicas para tecnologias que têm impactos sociais diversos e muitas vezes assimétricos.

Do ponto de vista prático, o desfecho dessa disputa terá efeitos significativos sobre empresas, consumidores e sobre a própria trajetória de inovação nos Estados Unidos. Um modelo eficiente parece residir em um arranjo híbrido: princípios federais mínimos que assegurem previsibilidade e um espaço regulatório ordenado, combinados com capacidade estatal para adotar medidas suplementares quando necessário. A judicialização provável do tema exigirá atenção jurídica e política, e a comunidade técnica e civil deve participar ativamente para que as normas resultantes equilibrem proteção, transparência e desenvolvimento tecnológico.
Fonte: NPR. Reportagem de Sarah Robbins. President Trump moves to block state AI laws as New York pushes tougher rules. 2025-12-14T22:35:39Z. Disponível em: https://www.npr.org/2025/12/14/nx-s1-5644086/president-trump-moves-to-block-state-ai-laws-as-new-york-pushes-tougher-rules. Acesso em: 2025-12-14T22:35:39Z.

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comentários
Inline Feedbacks
View all comments
plugins premium WordPress