Crise de confiança: parceria da OpenAI com o Departamento de Defesa provoca onda de desinstalações do ChatGPT

Uma decisão recente da OpenAI colocou a empresa no centro de uma grande controvérsia nos Estados Unidos. A companhia anunciou uma parceria com o Departamento de Defesa dos EUA (DoD) para implementar seus modelos de inteligência artificial em redes militares altamente seguras. A notícia rapidamente gerou uma forte reação pública — e desencadeou um movimento de boicote ao ChatGPT.
Explosão de desinstalações após anúncio
Dados da empresa de inteligência de mercado Sensor Tower mostram que, no dia 28 de fevereiro de 2026, data em que a parceria foi oficialmente anunciada, o aplicativo ChatGPT registrou um aumento de 295% nas desinstalações no mercado americano em comparação com o dia anterior.
Para se ter uma ideia da magnitude dessa mudança, durante o mês anterior o aplicativo mantinha uma média diária de apenas 9% de taxa de desinstalação. A súbita disparada indica que muitos usuários decidiram remover o aplicativo como forma de protesto contra o possível uso militar da tecnologia de IA.
Avaliações despencam nas lojas de aplicativos
A reação negativa não se limitou às desinstalações. A reputação do ChatGPT nas lojas de aplicativos também sofreu um impacto significativo.
Nas 48 horas após o anúncio, as avaliações de uma estrela aumentaram 775%, enquanto as avaliações de cinco estrelas caíram cerca de 50%.
Nos comentários, muitos usuários expressaram preocupação com o rumo da inteligência artificial. Algumas mensagens diziam:
- “A IA deveria ajudar a humanidade, não apoiar guerras.”
- “Estamos criando algo parecido com o ‘Skynet’ da ficção científica.”
Essas críticas refletem um medo crescente de que tecnologias avançadas possam ser utilizadas em contextos militares ou de vigilância.
Sam Altman tenta conter a crise
Diante da repercussão negativa, o CEO da OpenAI, Sam Altman, publicou esclarecimentos nas redes sociais. Segundo ele, a parceria inclui regras éticas extremamente rígidas e diretrizes de segurança claras.
Altman também reconheceu que a forma como o anúncio foi feito pode ter sido precipitada, classificando a comunicação inicial como “apressada e oportunista”.
Mesmo assim, as explicações não foram suficientes para acalmar completamente a opinião pública.
Concorrente Anthropic ganha espaço
Enquanto a OpenAI enfrenta críticas, uma concorrente acabou se beneficiando da situação.
A empresa Anthropic, que anteriormente declarou que não pretende permitir que seus modelos de IA sejam usados para vigilância ou sistemas de armas autônomas, viu seu aplicativo Claude ganhar grande popularidade.
No próprio dia 28 de fevereiro, o Claude alcançou o primeiro lugar entre os aplicativos gratuitos da App Store nos Estados Unidos, impulsionado pelo aumento repentino de downloads.
Debate sobre ética na IA volta ao centro das atenções
A OpenAI já informou que está revisando e atualizando os termos da parceria, incluindo uma cláusula explícita que proíbe o uso da tecnologia para vigilância em massa de cidadãos americanos.
Mesmo assim, especialistas apontam que a discussão vai muito além de um único acordo. O episódio evidencia uma questão maior: quais devem ser os limites éticos da inteligência artificial na era dos grandes modelos?
Para muitos usuários, o caso se tornou um marco importante no debate global sobre como a IA deve — ou não deve — ser utilizada no futuro.