Falha crítica em ferramenta de IA expõe risco sério para desenvolvedores

Uma descoberta recente acendeu um alerta vermelho na comunidade de tecnologia. Pesquisadores de segurança da Adversa identificaram uma vulnerabilidade grave no Claude Code, assistente de programação da Anthropic, que pode permitir a execução de comandos maliciosos sem qualquer bloqueio.
🚨 O problema: comandos “invisíveis” após o limite
O erro acontece quando o sistema processa comandos compostos muito longos. Veja o que foi descoberto:
- O Claude Code analisa corretamente até 50 subcomandos.
- A partir do 51º comando, o sistema simplesmente para de aplicar as regras de segurança.
- Ou seja: qualquer instrução maliciosa depois desse ponto pode passar despercebida.
💣 Como o ataque pode acontecer
O cenário é mais simples (e perigoso) do que parece:
- Um atacante cria um repositório aparentemente inocente.
- Dentro dele, inclui um arquivo
CLAUDE.mdcom comandos encadeados. - Os primeiros 50 comandos parecem normais.
- O 51º comando contém código malicioso (ex: roubo de chaves SSH ou tokens de API).
- O sistema executa sem bloqueio.
Resultado: dados sensíveis podem ser comprometidos sem que o usuário perceba.
⚙️ A origem do bug: escolha por performance
Curiosamente, essa falha não surgiu por incompetência técnica, mas por uma decisão de otimização:
- Analisar comandos muito longos causava lentidão na interface.
- A equipe assumiu que usuários não criariam comandos com mais de 50 etapas.
- Com isso, limitaram a verificação a esse número.
O problema? Ataques com IA não seguem comportamento humano — e exploram exatamente essas suposições.
🤯 O mais surpreendente
Segundo os pesquisadores, a própria Anthropic já tinha desenvolvido uma solução melhor:
- Um novo sistema baseado em tree-sitter, capaz de analisar comandos complexos com segurança.
- O código estava pronto e testado…
- Mas nunca foi implementado na versão final do produto.
📊 Impacto
- Mais de 500 mil desenvolvedores potencialmente afetados
- Produto-chave de uma empresa com receita anual de cerca de US$ 2,5 bilhões
- Falha justamente na camada que deveria proteger contra abusos
✅ Correção já foi aplicada
Após a divulgação, a Anthropic agiu rapidamente:
- Lançou a versão Claude Code v2.1.90 (em 4 de abril)
- Corrigiu o problema descrito como falha no fallback de análise de comandos
🔐 Recomendações de segurança
Mesmo com a correção, fica um aprendizado importante:
- Não confie cegamente nas proteções da IA
- Sempre revise arquivos como
CLAUDE.mdantes de executar - Limite permissões de shell ao mínimo necessário
- Trate repositórios desconhecidos com cautela
🧠 Conclusão
Esse caso mostra que, mesmo em ferramentas avançadas de IA, decisões de design podem abrir brechas críticas. Segurança não pode ser sacrificada em nome da performance — especialmente quando estamos lidando com automação e execução de código.
No fim das contas, a responsabilidade ainda é compartilhada: tecnologia ajuda, mas atenção humana continua sendo essencial.