A corrida por poder computacional no universo dos grandes modelos de linguagem (LLMs) está entrando em uma nova fase. Em vez de focar apenas em software, a disputa agora avança para um território mais profundo e estratégico: o desenvolvimento de chips especializados em IA.

No dia 24 de fevereiro de 2026, a startup de chips de inteligência artificial MatX — fundada por um ex-engenheiro sênior do TPU do Google — anunciou a conclusão de uma rodada Série B no valor de US$ 500 milhões (cerca de R$ 2 bilhões). O anúncio chamou atenção não apenas pelo valor, mas também pelo peso dos investidores envolvidos.
Entre os participantes estratégicos estão gigantes do setor de semicondutores como a Alchip e a Marvell, além de fundos de investimento de ponta que apostam forte no futuro da infraestrutura para IA.
O grande diferencial: o chip MatX One
O principal trunfo da empresa é o MatX One, um processador de nova geração projetado para resolver um dos maiores desafios da era dos LLMs: como equilibrar alta taxa de processamento (throughput) com baixa latência.
Arquitetura inovadora
O MatX One utiliza uma estrutura chamada “matriz sistólica divisível”. Na prática, isso combina o melhor dos dois mundos:
- A eficiência energética de grandes matrizes
- A flexibilidade operacional de matrizes menores
Essa abordagem permite maximizar a utilização do hardware, algo essencial em cargas de trabalho intensas como inferência de modelos de linguagem.
Avanço em memória
Outro ponto forte está no sistema de memória. O chip combina:
- A baixíssima latência do SRAM
- A alta capacidade de contexto proporcionada pela HBM (High Bandwidth Memory)
Essa integração busca eliminar gargalos tradicionais de arquitetura, principalmente em tarefas que exigem longos contextos e grande volume de dados.
Adaptado para diferentes cenários
O MatX One foi projetado para atuar em múltiplos cenários de IA, incluindo:
- Prefill (fase inicial de processamento do prompt)
- Decodificação de tokens em tempo real
- Treinamento com reforço (Reinforcement Learning)
Segundo a empresa, o desempenho promete estar no mesmo nível — ou até acima — de chips tradicionais amplamente utilizados no mercado.
Impacto direto: redução no custo dos LLMs
Hoje, um dos maiores desafios das empresas que trabalham com modelos de linguagem é reduzir o custo por token gerado. Quanto mais eficiente o chip, menor o custo de operação, implantação e manutenção.
De acordo com informações divulgadas pela própria MatX, sua solução pode atingir uma eficiência de processamento comparável (ou superior) à dos líderes atuais, o que pode reduzir significativamente a barreira de entrada para empresas que desejam implementar LLMs em larga escala.
O cenário global: a guerra dos chips de IA
A movimentação da MatX faz parte de uma tendência maior. O setor de chips para IA está em plena ebulição.
Recentemente:
- A SambaNova anunciou sua quinta geração de chips RDU e firmou uma parceria estratégica com a Intel para fortalecer sua presença no mercado corporativo.
- A Positron revelou o chip Asimov, alegando atingir até cinco vezes mais desempenho por watt em comparação com a arquitetura Rubin da NVIDIA.
- Na China, pesquisadores desenvolveram um chip de IA flexível com custo inferior a US$ 1, capaz de suportar até 40 mil dobras — uma inovação que pode abrir caminho para uma nova geração de dispositivos vestíveis inteligentes.
Um novo capítulo na infraestrutura de IA
O que está claro é que a próxima grande disputa no mercado de inteligência artificial não será apenas sobre quem tem o melhor modelo, mas sobre quem controla a infraestrutura mais eficiente.
Chips mais especializados, com arquiteturas inovadoras e melhor relação custo-benefício, podem redefinir completamente o mercado. Empresas como a MatX mostram que ainda há muito espaço para inovação no nível mais fundamental da tecnologia: o silício.
Para o ecossistema de IA, isso significa uma coisa: a corrida está apenas começando.