O governo dos Estados Unidos intensificou a pressão sobre a Anthropic, detentora da IA Claude, exigindo a liberação da tecnologia para uso irrestrito pelo Exército. O Secretário de Guerra, Pete Hegseth, estabeleceu um prazo até esta sexta-feira para a empresa atender à demanda, sob pena de romper contratos com o governo e classificá-la como um \”risco da cadeia de suprimentos\”.
O Claude é uma ferramenta de IA voltada para segurança, e a Anthropic tem sido a última entre as concorrentes a resistir à exigência de integrar a tecnologia a uma nova rede interna das Forças Armadas dos EUA. O veículo de imprensa The Wall Street Journal reportou que Claude já foi utilizado pelo Exército em operações que resultaram na deposição de Nicolás Maduro, no início deste ano.
A Anthropic afirma restringir o uso da IA para fins de violência e, ao longo de várias declarações, o CEO Dario Amodei expressou preocupações éticas com o uso governamental sem limites, citando riscos de drones autônomos e de vigilância em massa com IA.
Com a pressão aumentando, Hegseth sugeriu a possibilidade de classificar a Anthropic como “risco à cadeia de suprimentos” ou invocar a Lei de Produção de Defesa (DPA) para ampliar a autoridade de uso militar, mesmo sem a anuência da empresa sobre as condições de aplicação. Uma classificação assim elevaria a Anthropic a alvos de restrições de importação e exclusões de licitações.
O episódio acentua o debate sobre o papel da IA na segurança nacional, responsabilidade ética e limites à vigilância. O Pentágono manteve reuniões entre representantes da empresa e autoridades, com Amodei mantendo posição de linhas vermelhas: evitar operações de mira totalmente autônomas e vigilância doméstica de cidadãos.