Com o lançamento oficial do Opus 4.6, da Anthropic, um experimento ousado sobre programação autônoma por IA tomou conta das discussões no mundo da tecnologia.
O pesquisador de segurança da Anthropic, Nicholas Carlini, revelou que montou uma verdadeira equipe de agentes de IA: 16 modelos Claude trabalhando em conjunto, quase sem intervenção humana, para criar do zero um compilador de C escrito em Rust. Não estamos falando de um projeto simples — o resultado chamou a atenção até dos engenheiros mais experientes.
Um experimento caro, mas impressionante
O projeto durou cerca de duas semanas. Nesse período, os agentes de IA participaram de quase 2.000 sessões de código, consumiram aproximadamente 2 bilhões de tokens de entrada e geraram um custo de API em torno de US$ 20 mil (cerca de R$ 144 mil).
O retorno? Nada modesto:
- Mais de 100 mil linhas de código geradas automaticamente
- Um compilador funcional capaz de compilar o kernel Linux 6.9
- Compatibilidade com arquiteturas x86, ARM e RISC-V
Na prática, as IAs conseguiram realizar um trabalho que normalmente exigiria uma equipe humana altamente especializada e meses de desenvolvimento.
Entusiasmo… e um certo desconforto
Apesar do sucesso técnico, Carlini descreveu sua reação como uma mistura de empolgação e inquietação. Ele observou que as IAs são extremamente eficientes para trabalhar sem parar, 24 horas por dia, resolvendo sempre o “próximo problema mais óbvio”. Porém, isso também revelou limitações importantes.
Segundo ele, a qualidade do código ainda não alcança o nível dos melhores programadores humanos, e, quando não recebem direcionamento claro, os agentes podem cair em loops improdutivos, realizando testes repetitivos sem avanço real.
Alguns desenvolvedores no GitHub ironizaram a situação, comentando que esse tipo de código seria apenas uma “colagem” baseada em grandes volumes de dados de treinamento, e não uma criação verdadeiramente original.
O que esse experimento nos ensina?
Esse caso mostra, de forma concreta, o potencial dos agentes de IA trabalhando em equipe para lidar com projetos extremamente complexos. Ao mesmo tempo, levanta questões sérias sobre:
- Confiabilidade do código gerado automaticamente
- Riscos de segurança
- Necessidade de validação humana
- Limites da autonomia da IA no desenvolvimento de software
A experiência não responde todas as perguntas, mas deixa uma coisa clara: a automação avançada do desenvolvimento de software já não é mais teoria. Agora, cabe à comunidade técnica, às empresas e aos pesquisadores decidir como usar esse poder com responsabilidade, garantindo segurança, qualidade e controle.
O futuro da programação pode não ser totalmente humano — mas também ainda está longe de ser totalmente automático.