Pentágono classifica Anthropic como risco estratégico após recusa em permitir uso militar de sua IA Claude

Pentágono classifica Anthropic como “risco na cadeia de suprimentos” e intensifica debate sobre uso militar de IA

Pentágono classifica Anthropic como risco estratégico após recusa em permitir uso militar de sua IA Claude

Uma decisão inédita do Departamento de Defesa dos Estados Unidos colocou uma das empresas mais importantes do setor de inteligência artificial no centro de uma grande controvérsia tecnológica e política.

No dia 5 de março de 2026, o Pentágono classificou a startup de IA Anthropic — conhecida pelo modelo Claude — como um “risco na cadeia de suprimentos”. Esse tipo de classificação normalmente é reservado a empresas ou tecnologias ligadas a países considerados adversários dos EUA. Aplicá-la a uma empresa americana marca um momento sem precedentes no relacionamento entre o governo e os principais laboratórios de IA.

O que levou à decisão

Segundo informações divulgadas pela Bloomberg, a medida foi resultado de semanas de tensão entre a Anthropic e o Departamento de Defesa.

O CEO da empresa, Dario Amodei, teria se recusado a permitir que a tecnologia da empresa fosse utilizada em dois cenários considerados sensíveis:

  • Monitoramento em massa de cidadãos americanos
  • Desenvolvimento de armas totalmente autônomas sem intervenção humana

Para o Pentágono, porém, empresas privadas não deveriam limitar o uso militar de tecnologias avançadas, especialmente quando elas podem ter impacto estratégico.

Impacto imediato na indústria de defesa

A classificação como “risco na cadeia de suprimentos” tem consequências práticas importantes.

Agora, qualquer organização que trabalhe com o Departamento de Defesa dos EUA precisa provar que não utiliza modelos Claude em seus sistemas.

O problema é que a tecnologia da Anthropic já estava integrada em plataformas militares importantes. Um exemplo é o sistema Maven, desenvolvido pela Palantir, utilizado para gerenciar e analisar dados operacionais em cenários de combate, inclusive em operações no Oriente Médio.

Com a nova restrição, parte dessa infraestrutura pode precisar ser reconstruída ou substituída, o que cria incerteza dentro do ecossistema de tecnologia militar.

OpenAI segue caminho diferente

Enquanto a Anthropic adotou uma posição mais restritiva em relação ao uso militar da IA, a OpenAI tomou uma direção diferente.

A empresa firmou um acordo com o Departamento de Defesa permitindo que seus sistemas sejam utilizados para “todos os usos legais” pelas forças armadas dos Estados Unidos.

Além disso, o presidente da empresa, Greg Brockman, teria doado US$ 25 milhões para organizações políticas relacionadas ao debate tecnológico e regulatório em Washington.

Reação dentro das empresas de tecnologia

A decisão também provocou forte reação entre funcionários do setor de IA.

Centenas de empregados da OpenAI e do Google organizaram protestos internos e manifestações pedindo que esse tipo de classificação seja revisto. Muitos defendem que o desenvolvimento de inteligência artificial não deveria ser guiado principalmente por objetivos militares.

Um novo capítulo na governança da IA

Mais do que um conflito isolado, o episódio revela um dilema crescente no setor de tecnologia:

  • Até que ponto empresas privadas podem impor limites éticos ao uso de suas tecnologias?
  • E até que ponto governos podem exigir acesso total a ferramentas estratégicas de IA?

A disputa entre o Pentágono e a Anthropic mostra que a corrida pela inteligência artificial não é apenas tecnológica — é também política, ética e estratégica.

Para muitos analistas, esse caso pode marcar o início de uma nova fase de regulação mais dura e centralizada, na qual governos terão influência cada vez maior sobre como as tecnologias de IA são desenvolvidas e utilizadas no mundo.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top