Anthropic Testa Programação Autônoma com IA e Cria Compilador de C em Apenas Duas Semanas

Com o lançamento oficial do Opus 4.6, da Anthropic, um experimento ousado sobre programação autônoma por IA tomou conta das discussões no mundo da tecnologia.

O pesquisador de segurança da Anthropic, Nicholas Carlini, revelou que montou uma verdadeira equipe de agentes de IA: 16 modelos Claude trabalhando em conjunto, quase sem intervenção humana, para criar do zero um compilador de C escrito em Rust. Não estamos falando de um projeto simples — o resultado chamou a atenção até dos engenheiros mais experientes.

Um experimento caro, mas impressionante

O projeto durou cerca de duas semanas. Nesse período, os agentes de IA participaram de quase 2.000 sessões de código, consumiram aproximadamente 2 bilhões de tokens de entrada e geraram um custo de API em torno de US$ 20 mil (cerca de R$ 144 mil).

O retorno? Nada modesto:

  • Mais de 100 mil linhas de código geradas automaticamente
  • Um compilador funcional capaz de compilar o kernel Linux 6.9
  • Compatibilidade com arquiteturas x86, ARM e RISC-V

Na prática, as IAs conseguiram realizar um trabalho que normalmente exigiria uma equipe humana altamente especializada e meses de desenvolvimento.

Entusiasmo… e um certo desconforto

Apesar do sucesso técnico, Carlini descreveu sua reação como uma mistura de empolgação e inquietação. Ele observou que as IAs são extremamente eficientes para trabalhar sem parar, 24 horas por dia, resolvendo sempre o “próximo problema mais óbvio”. Porém, isso também revelou limitações importantes.

Segundo ele, a qualidade do código ainda não alcança o nível dos melhores programadores humanos, e, quando não recebem direcionamento claro, os agentes podem cair em loops improdutivos, realizando testes repetitivos sem avanço real.

Alguns desenvolvedores no GitHub ironizaram a situação, comentando que esse tipo de código seria apenas uma “colagem” baseada em grandes volumes de dados de treinamento, e não uma criação verdadeiramente original.

O que esse experimento nos ensina?

Esse caso mostra, de forma concreta, o potencial dos agentes de IA trabalhando em equipe para lidar com projetos extremamente complexos. Ao mesmo tempo, levanta questões sérias sobre:

  • Confiabilidade do código gerado automaticamente
  • Riscos de segurança
  • Necessidade de validação humana
  • Limites da autonomia da IA no desenvolvimento de software

A experiência não responde todas as perguntas, mas deixa uma coisa clara: a automação avançada do desenvolvimento de software já não é mais teoria. Agora, cabe à comunidade técnica, às empresas e aos pesquisadores decidir como usar esse poder com responsabilidade, garantindo segurança, qualidade e controle.

O futuro da programação pode não ser totalmente humano — mas também ainda está longe de ser totalmente automático.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top