Meta e Google se unem em acordo bilionário para reduzir dependência da Nvidia no mercado de chips de IA
No universo da inteligência artificial, uma nova disputa bilionária está ganhando força — e o alvo é claro: diminuir a dependência da Nvidia.
A gigante das redes sociais Meta fechou um acordo de vários bilhões de dólares com o Google para utilizar as TPUs (Tensor Processing Units), chips desenvolvidos internamente pelo Google, no treinamento de sua próxima geração de modelos de IA.
A movimentação marca uma mudança estratégica importante no mercado de semicondutores voltados para IA.
O fim da dependência exclusiva da Nvidia?
Historicamente, a Nvidia tem sido a principal fornecedora de GPUs para treinamento de modelos avançados de inteligência artificial. A própria Meta anunciou recentemente planos para adquirir milhões de GPUs da Nvidia e também da AMD.
Mas agora, ao alugar TPUs do Google, a Meta demonstra que quer diversificar sua infraestrutura computacional.
O objetivo é duplo:
- Reduzir riscos de dependência de um único fornecedor
- Explorar alternativas tecnológicas para seus próprios data centers
- Ganhar poder de negociação em futuras compras
Segundo informações do setor, a Meta inclusive avalia comprar TPUs diretamente a partir do próximo ano.
O movimento estratégico do Google
O papel do Google nessa história é curioso — e estratégico.
Ao mesmo tempo em que é um dos maiores compradores de chips da Nvidia para manter sua competitividade no mercado de nuvem, o Google quer expandir a adoção de suas próprias TPUs.
Executivos do Google Cloud teriam estabelecido uma meta ambiciosa: conquistar cerca de 10% da receita anual da Nvidia, o que representaria algo em torno de US$ 20 bilhões.
Para isso, o Google está:
- Oferecendo TPUs como alternativa às GPUs
- Firmando parcerias com grandes empresas de IA
- Trabalhando com investidores para ampliar a oferta de capacidade computacional
Ou seja: cliente e concorrente ao mesmo tempo.
Efeito dominó: pressão nos preços
Essa competição crescente já começa a gerar impactos no mercado.
Fontes do setor indicam que a existência de alternativas como as TPUs ajudou empresas como a OpenAI a negociar reduções de até 30% no preço de GPUs da Nvidia.
Para desenvolvedores e startups, isso é uma excelente notícia: mais concorrência significa melhores condições comerciais e maior acesso a infraestrutura avançada.
O que muda daqui para frente?
A disputa pelo “coração” da IA — os chips que alimentam os modelos — está entrando em uma nova fase.
Não se trata apenas de quem tem mais capacidade de produção, mas de:
- Arquitetura de hardware
- Eficiência energética
- Integração com ecossistemas de software
- Estratégia comercial
Com gigantes como Meta apostando em uma estratégia multichip, o domínio absoluto da Nvidia começa a ser desafiado de forma mais concreta.
A corrida da inteligência artificial deixou de ser apenas sobre modelos e algoritmos. Agora, é também uma batalha estratégica pelo controle da infraestrutura que sustenta toda essa revolução tecnológica.