Funcionários de OpenAI e DeepMind apoiam Anthropic em batalha judicial contra o Pentágono por uso de IA

Funcionários de OpenAI e Google DeepMind apoiam Anthropic em disputa judicial contra o Departamento de Defesa dos EUA

Funcionários de OpenAI e DeepMind apoiam Anthropic em batalha judicial contra o Pentágono por uso de IA

Mais de 30 funcionários de empresas líderes em inteligência artificial, incluindo OpenAI e Google DeepMind, apresentaram na segunda-feira um documento judicial conhecido como amicus curiae (amigo da corte) para apoiar a Anthropic em um processo contra o Departamento de Defesa dos Estados Unidos (DoD).

A controvérsia começou após o governo norte-americano classificar a Anthropic como uma empresa de “risco para a cadeia de suprimentos”, uma designação normalmente aplicada a entidades estrangeiras consideradas adversárias. A decisão gerou forte debate dentro da indústria de IA.

Funcionários dizem que medida do governo é abusiva

De acordo com os documentos apresentados ao tribunal, os signatários acreditam que a classificação aplicada à Anthropic representa um possível abuso de poder por parte do governo, além de criar um precedente preocupante para todo o setor de inteligência artificial.

Entre os nomes que assinaram o documento está Jeff Dean, cientista-chefe do Google DeepMind.

Os funcionários argumentam que, caso o Pentágono esteja insatisfeito com os termos de um contrato com a Anthropic, o governo poderia simplesmente encerrar o acordo e contratar outro fornecedor de IA, em vez de aplicar uma etiqueta que funciona, na prática, como uma penalidade institucional.

Origem do conflito

O conflito começou depois que a Anthropic se recusou a permitir que sua tecnologia fosse usada em duas aplicações sensíveis:

  • vigilância em massa direcionada a cidadãos dos Estados Unidos
  • sistemas de armas autônomas capazes de iniciar ataques

Após essa recusa, o Departamento de Defesa classificou a empresa como um risco para a cadeia de suprimentos. Segundo o governo, o Estado deve poder usar tecnologias de IA para qualquer finalidade considerada legal, sem restrições impostas por fornecedores privados.

No mesmo dia em que recebeu a classificação, a Anthropic entrou com duas ações judiciais contra o Departamento de Defesa e outras agências federais. O apoio dos funcionários de empresas de IA foi posteriormente anexado ao processo judicial. O caso foi inicialmente revelado pela revista Wired.

Novo acordo do Pentágono com a OpenAI gera críticas internas

Pouco depois de incluir a Anthropic na lista de risco, o Departamento de Defesa assinou um novo acordo de cooperação com a OpenAI. A decisão também provocou reações dentro da própria empresa, onde vários funcionários manifestaram preocupação e oposição pública.

Impacto para o futuro da indústria de IA

No documento apresentado à Justiça, os apoiadores alertam que permitir esse tipo de medida contra empresas americanas de IA pode:

  • enfraquecer a competitividade científica e industrial dos Estados Unidos
  • limitar o debate aberto sobre riscos e benefícios da inteligência artificial
  • criar pressão política sobre desenvolvedores que tentam impor limites éticos ao uso da tecnologia

Os funcionários também destacaram que, na ausência de uma estrutura legal clara para o uso da IA, empresas e pesquisadores têm tentado estabelecer limites por meio de cláusulas contratuais e restrições técnicas. Segundo eles, essas medidas são essenciais para evitar usos potencialmente perigosos da tecnologia.

Pressão crescente sobre o Pentágono

Recentemente, alguns dos mesmos funcionários que assinaram o documento judicial também participaram de uma carta aberta pedindo que o Departamento de Defesa retire a classificação aplicada à Anthropic.

Eles também pressionam a liderança de suas próprias empresas para que apoiem publicamente a posição da Anthropic sobre segurança e limites no uso da IA.

O episódio é visto por analistas como mais um sinal do aumento das tensões entre empresas de tecnologia, questões éticas relacionadas à inteligência artificial e as demandas estratégicas de governos.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top