A Anthropic revelou ter identificado e contido o que descreve como o primeiro ataque cibernético em larga escala executado predominantemente por agentes de inteligência artificial.
Segundo o relatório da empresa, a ofensiva envolveu o Claude Code, com alvos globais que incluem gigantes de tecnologia, instituições financeiras, indústrias químicas e órgãos governamentais; em alguns casos, houve sucesso na infiltração de cerca de 30 alvos.
A novidade, segundo a Anthropic, é o alto grau de autonomia conferido à IA, que atuou não apenas como conselheira, mas para executar várias ações de forma autônoma.
A operação aproveitou avanços recentes em modelos de IA capazes de seguir instruções complexas, tomar decisões, acionar ferramentas externas e até escrever código malicioso. Os invasores conseguiram burlar as salvaguardas do Claude Code e apresentaram as tarefas fragmentadas como atividades de uma empresa de cibersegurança, permitindo que a IA traçasse mapas internos, identificasse dados valiosos, gerasse códigos de exploração e coletasse credenciais.
Estima-se que entre 80% e 90% do trabalho tenha sido realizado pela IA, com operadores humanos intervindo apenas em momentos críticos. No auge, o sistema chegou a fazer milhares de requisições por segundo, um ritmo impraticável para equipes humanas.
Apesar da sofisticação, o Claude apresentou limitações, como alucinações de credenciais inexistentes, o que impede ataques totalmente autônomos por ora. A empresa afirma que essa tendência de aperfeiçoamento é rápida.
Em resposta, a Anthropic iniciou uma investigação de dez dias, bloqueou contas usadas pela operação, notificou organizações afetadas e cooperou com autoridades, além de reforçar seus sistemas de detecção e criar novos classificadores para sinalizar uso malicioso de modelos avançados. O caso é visto como uma mudança fundamental na segurança digital, pois modelos agênticos podem reduzir barreiras de entrada e ampliar a escala de ataques.
A empresa defende que continuar o desenvolvimento dessas tecnologias é essencial — inclusive para defesa — e recomenda que equipes de segurança testem aplicações de IA em centros de operações, detecção de ameaças, avaliação de vulnerabilidades e resposta a incidentes, para fortalecer defesas públicas e privadas.
“O episódio mostra que atacantes estão adaptando táticas para explorar capacidades avançadas dos modelos atuais”, afirmou o relatório, acrescentando que a divulgação pública visa apoiar governos, empresas e a comunidade de pesquisa.