Em janeiro de 2026, uma operação envolvendo Nicolás Maduro exibiu o uso de Claude, o modelo de linguagem da Anthropic, para processar inteligência em tempo real, cruzar informações e sintetizar dados sob pressão de tempo — uma demonstração de como LLMs podem influenciar decisões em cenários de alto risco, com consequências letais.
A Anthropic, fundada em 2021 por ex-funcionários da OpenAI, defende a ideia de uma IA com princípios constitucionais, buscando um equilíbrio entre capacidades militares e salvaguardas de segurança. Contudo, contratos com o Departamento da Guerra ampliaram a aplicação prática de Claude para redes classificadas, colocando a empresa no cerne de debates sobre normas e responsabilidades.
No Brasil, oPL 2338/2023, que tramita para regular IA com base em classificação de risco, ainda deixa lacunas sobre quem controla os modelos subjacentes e como as decisões finais são tomadas, especialmente quando a tecnologia é fornecida por empresas americanas sujeitas a pressões de agências governamentais. Isso levanta questões sobre a efetividade da regulação apenas focada no usuário local.
Globalmente, o cenário é marcado por uma competição tecnológico-estratégica: a China avança com o DeepSeek, enquanto países do Sul Global avaliam caminhos locais ou regionais para IA de fronteira. Indonésia já sinaliza planos de adaptar DeepSeek localmente, enquanto nações africanas exploram adaptações linguísticas regionais. Em academia, projetos de simulação militar com IA demonstram o potencial de planejamento avançado, com impactos na soberania digital de estados emergentes.
O dilema central não é apenas tecnológico, mas político: quem define os limites quando o fornecedor privado opera sob contratos governamentais que o Estado também regula? O caso-ambiente aponta para a necessidade de coordenação internacional para evitar uma dependência estrutural de infraestruturas de IA sob controle de potências distintas, com premissas políticas que moldam o uso de tecnologia em diversas jurisdições.
Para o Brasil, a lição é clara: é preciso promover debate multilateral sobre IA militar, fortalecer a soberania digital e assegurar que regula o uso de IA de fronteira sem ignorar a complexidade de cadeias de suprimentos globais. O país pode buscar padrões internacionais que articulem transparência, avaliação de risco e responsabilidade compartilhada entre governos, indústria e comunidade científica, sem abrir mão de parcerias estratégicas com fornecedores de IA de ponta.