Uma falha estrutural no Claude Code, o assistente de programação da Anthropic, foi identificada pela Lakera AI em abril de 2026. A vulnerabilidade permite que chaves de API, tokens de autenticação e credenciais de produção sejam expostos em pacotes publicados no registro npm.
O mecanismo é simples, mas perigoso: ao usar o comando no terminal com a opção ‘allow always’, o texto exato do comando — incluindo segredos — é gravado no arquivo .claude/settings.local.json. Como diretórios ocultos costumam não ser ignorados pelo npm, essas credenciais podem ser enviadas para a nuvem junto ao código, de forma invisível durante o fluxo de trabalho.
Observações da Lakera AI indicaram que, em uma amostra de 46.500 pacotes, aproximadamente 1 em 13 arquivos .claude publicados continham segredos de segurança.
Entre as credenciais expostas estavam tokens de autenticação do npm, chaves de acesso do GitHub, tokens da API de bots do Telegram e credenciais de produção para serviços de terceiros, além de chaves da Hugging Face.
Paralelamente, em 31 de março de 2026, a Anthropic expôs acidentalmente o código-fonte completo do Claude Code por meio de um source map incluído no pacote npm 2.1.88, abrindo a possibilidade de identificação de vulnerabilidades internas e distribuição de malwares. O episódio levou à remoção do pacote e a notificações DMCA pela empresa.
Especialistas ressaltam que o risco não se limita ao ecossistema npm. A Lakera AI alerta que falhas semelhantes podem afetar PyPI, RubyGems e Maven, exigindo auditorias de segurança para equipes que utilizam Claude Code em pipelines de publicação de pacotes.
As medidas recomendadas incluem verificar se o arquivo .claude/settings.local.json está listado no .gitignore e no .npmignore, realizar varreduras retrospectivas em pacotes já publicados, rotacionar credenciais comprometidas e inserir ferramentas de secret scanning no pipeline de publicação, além de adotar controles de qualidade para configurações criadas por IA em ambientes corporativos.