Uma recente descoberta levantou preocupações importantes sobre a segurança de ferramentas de inteligência artificial usadas no desenvolvimento de software.

A empresa de segurança israelense Adversa revelou uma vulnerabilidade séria no Claude Code, ferramenta criada pela Anthropic. O problema ocorre quando o sistema recebe uma quantidade muito grande de subcomandos de uma só vez.
Onde está o problema?
Dentro do Claude Code existe um limite interno — fixado em 50 subcomandos — que define quantas ações podem ser analisadas pelos mecanismos de segurança. Até esse número, o sistema consegue identificar e bloquear operações consideradas perigosas, como requisições externas ou execuções suspeitas.
No entanto, quando esse limite é ultrapassado, algo inesperado acontece:
o sistema deixa de bloquear automaticamente essas ações e passa apenas a pedir confirmação ao usuário.
Como isso pode ser explorado?
Na prática, um atacante pode criar um fluxo de comandos extremamente longo e esconder ações maliciosas dentro dele. Como o sistema já não está mais bloqueando automaticamente, ele apenas mostra um aviso.
O risco aumenta porque muitos desenvolvedores, durante longas sessões de trabalho, acabam clicando em “permitir” quase que automaticamente, sem analisar cada solicitação com atenção.
Resultado: o código malicioso pode ser executado sem resistência.
Risco ainda maior em ambientes automatizados
O cenário fica ainda mais crítico em ambientes de CI/CD (integração e entrega contínua). Nesses casos, muitas vezes não há interação humana direta — o sistema pode simplesmente ignorar verificações ou aprovar ações automaticamente.
Isso abre espaço para execuções perigosas sem qualquer intervenção.
Existe solução?
Curiosamente, a própria Anthropic já desenvolveu internamente um sistema mais avançado para lidar com esse tipo de problema. Esse novo mecanismo seria capaz de analisar comandos de forma mais robusta, sem depender de limites simples como contagem de subcomandos.
Especialistas em segurança recomendam que a empresa:
- Libere essa nova solução o quanto antes
- Substitua o modelo atual de “perguntar ao usuário” por um sistema mais rigoroso de bloqueio automático
- Revise o uso de limites fixos que podem ser facilmente explorados
Conclusão
Esse caso mostra como pequenos detalhes técnicos — como um limite fixo no código — podem gerar grandes riscos quando explorados de forma criativa.
Para desenvolvedores e empresas, fica o alerta:
não basta confiar apenas nas ferramentas de IA. É essencial manter boas práticas de segurança e revisar cuidadosamente qualquer execução automatizada.
A evolução da tecnologia traz produtividade, mas também exige atenção redobrada.