Regulação global de IA ganha contornos concretos em 2025, com o EUA avançando por meio de uma ordem executiva assinada em 11 de dezembro de 2025, e a UE mantendo foco em um regime baseado em risco. O Brasil, por sua vez, traça seu Marco Legal da IA (PL 2.338/2023), sinalizando uma posição intermediária entre as duas frentes.
Nos Estados Unidos, a ordem “Ensuring a National Policy Framework for Artificial Intelligence” propõe substituir o que o governo classifica como fragmentação regulatória por um padrão nacional minimamente oneroso e a criação de uma AI Litigation Task Force no DoJ para contestar leis estaduais conflitantes. O texto também condiciona determinados fundos federais à adesão de estados à norma federal e orienta a FTC a tratar da preempção de leis estaduais.
O contraste com o AI Act europeu é evidente: a UE opera com uma classificação de sistemas por risco (mínimo, limitado, alto, proibido) e obriga transparência, avaliações de impacto e supervisão humana. Já os EUA apostam em diretrizes mais abertas, com ênfase em inovação e cooperação entre governo e mercado.
No Brasil, o PL 2.338/2023 pretende um Sistema Nacional de Governança da IA, coordenado pela ANPD, com princípios de transparência, responsabilidade e supervisão humana, além de proibições a usos de risco excessivo e uma governança com instrumentos de accountability e responsabilidade objetiva em cenários específicos.
Para as empresas brasileiras, a situação impõe uma abordagem “multi-jurisdição by design”: mapear portfolios por região, adaptar contratos, implementar políticas de governança alinhadas a UE e Brasil, e manter monitoramento constante da evolução legislativa e judicial mundial. Em resumo, a regulação de IA passa a ser jogo estratégico de prazos, custos e inovação.