Anthropic contesta decisão do Departamento de Defesa dos EUA e promete batalha judicial

A empresa de inteligência artificial Anthropic entrou em confronto direto com o Departamento de Defesa dos Estados Unidos (DOD) após ser incluída na lista de “entidades de risco para a cadeia de suprimentos”. O CEO da companhia, Dario Amodei, declarou nesta quinta-feira que a empresa pretende contestar oficialmente a decisão na Justiça, afirmando que a classificação “não tem base legal suficiente”.
Conflito sobre controle de sistemas de IA
Segundo Amodei, antes da decisão do DOD, as duas partes passaram semanas discutindo o nível de controle que os militares teriam sobre os sistemas de inteligência artificial da empresa.
O ponto central do impasse foi o seguinte:
- A Anthropic afirma que não permitirá que sua tecnologia seja usada para vigilância em massa.
- A empresa também rejeita o uso de IA para a criação de armas totalmente autônomas.
Já o Departamento de Defesa teria solicitado acesso irrestrito aos modelos de IA para “qualquer uso legal”, algo que a empresa considera incompatível com seus princípios de segurança.
Impacto limitado para a maioria dos clientes
Amodei também tentou tranquilizar usuários e parceiros comerciais. Segundo ele, a decisão afeta principalmente clientes que possuem contratos diretos com o Departamento do Exército dos EUA.
Para a grande maioria das empresas e usuários comuns, não deve haver mudanças significativas no acesso às tecnologias da Anthropic.
O CEO argumenta ainda que a legislação exige que o governo adote medidas “minimamente restritivas” para proteger a cadeia de suprimentos, e que a classificação aplicada à empresa é ampla demais e carece de justificativa sólida.
Apoio temporário ao governo durante a transição
Apesar da disputa, a Anthropic afirmou que não pretende interromper abruptamente o suporte tecnológico ao governo americano.
Para evitar impactos em operações consideradas críticas, a empresa se comprometeu a continuar fornecendo seus modelos de IA ao Departamento de Defesa por um custo simbólico durante o período de transição.
A prioridade, segundo Amodei, é garantir que equipes que dependem dessas ferramentas continuem tendo acesso enquanto a situação é resolvida.
CEO pede desculpas por comentário sobre a OpenAI
Outro ponto que ganhou atenção foi um e-mail interno vazado, no qual Amodei teria criticado um acordo entre a OpenAI e o Departamento de Defesa, chamando-o de uma espécie de “teatro de segurança”.
Diante da repercussão, o executivo pediu desculpas publicamente. Ele afirmou que a mensagem foi escrita em um momento de forte pressão interna e que representava uma reação emocional, não uma posição refletida da empresa.
Debate maior sobre IA e uso militar
O caso reforça um debate crescente no setor de tecnologia: qual deve ser o limite do uso de inteligência artificial em aplicações militares e de vigilância.
Enquanto governos buscam ampliar o acesso a ferramentas avançadas de IA para segurança nacional, algumas empresas do setor tentam impor restrições éticas ao uso de suas tecnologias.
A disputa entre Anthropic e o Departamento de Defesa pode se tornar um marco importante na definição dessas regras nos próximos anos.