Anthropic desafia Pentágono na Justiça após ser classificada como risco e recusa uso militar irrestrito de sua IA

Anthropic contesta decisão do Departamento de Defesa dos EUA e promete batalha judicial

Anthropic desafia Pentágono na Justiça após ser classificada como risco e recusa uso militar irrestrito de sua IA

A empresa de inteligência artificial Anthropic entrou em confronto direto com o Departamento de Defesa dos Estados Unidos (DOD) após ser incluída na lista de “entidades de risco para a cadeia de suprimentos”. O CEO da companhia, Dario Amodei, declarou nesta quinta-feira que a empresa pretende contestar oficialmente a decisão na Justiça, afirmando que a classificação “não tem base legal suficiente”.

Conflito sobre controle de sistemas de IA

Segundo Amodei, antes da decisão do DOD, as duas partes passaram semanas discutindo o nível de controle que os militares teriam sobre os sistemas de inteligência artificial da empresa.

O ponto central do impasse foi o seguinte:

  • A Anthropic afirma que não permitirá que sua tecnologia seja usada para vigilância em massa.
  • A empresa também rejeita o uso de IA para a criação de armas totalmente autônomas.

Já o Departamento de Defesa teria solicitado acesso irrestrito aos modelos de IA para “qualquer uso legal”, algo que a empresa considera incompatível com seus princípios de segurança.

Impacto limitado para a maioria dos clientes

Amodei também tentou tranquilizar usuários e parceiros comerciais. Segundo ele, a decisão afeta principalmente clientes que possuem contratos diretos com o Departamento do Exército dos EUA.

Para a grande maioria das empresas e usuários comuns, não deve haver mudanças significativas no acesso às tecnologias da Anthropic.

O CEO argumenta ainda que a legislação exige que o governo adote medidas “minimamente restritivas” para proteger a cadeia de suprimentos, e que a classificação aplicada à empresa é ampla demais e carece de justificativa sólida.

Apoio temporário ao governo durante a transição

Apesar da disputa, a Anthropic afirmou que não pretende interromper abruptamente o suporte tecnológico ao governo americano.

Para evitar impactos em operações consideradas críticas, a empresa se comprometeu a continuar fornecendo seus modelos de IA ao Departamento de Defesa por um custo simbólico durante o período de transição.

A prioridade, segundo Amodei, é garantir que equipes que dependem dessas ferramentas continuem tendo acesso enquanto a situação é resolvida.

CEO pede desculpas por comentário sobre a OpenAI

Outro ponto que ganhou atenção foi um e-mail interno vazado, no qual Amodei teria criticado um acordo entre a OpenAI e o Departamento de Defesa, chamando-o de uma espécie de “teatro de segurança”.

Diante da repercussão, o executivo pediu desculpas publicamente. Ele afirmou que a mensagem foi escrita em um momento de forte pressão interna e que representava uma reação emocional, não uma posição refletida da empresa.

Debate maior sobre IA e uso militar

O caso reforça um debate crescente no setor de tecnologia: qual deve ser o limite do uso de inteligência artificial em aplicações militares e de vigilância.

Enquanto governos buscam ampliar o acesso a ferramentas avançadas de IA para segurança nacional, algumas empresas do setor tentam impor restrições éticas ao uso de suas tecnologias.

A disputa entre Anthropic e o Departamento de Defesa pode se tornar um marco importante na definição dessas regras nos próximos anos.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top