Criadores do vLLM fundam Inferact e levantam US$ 150 milhões para liderar a nova corrida da inferência em IA

Enquanto os holofotes globais da IA ainda se concentram nos modelos gigantes que devoram trilhões de parâmetros, uma revolução silenciosa na eficiência computacional já está acontecendo nas profundezas do código. Os criadores do vLLM, um dos motores de inferência open source mais avançados do mundo, anunciaram oficialmente sua nova ambição: a criação da empresa de infraestrutura de IA Inferact, com o objetivo de estabelecer uma nova ordem no ainda pouco explorado território da inferência em inteligência artificial. Não se trata apenas de um salto tecnológico, mas de uma declaração épica sobre como a IA pode, finalmente, entrar de vez na fase de uso prático e escalável.

Criadores do vLLM fundam Inferact e levantam US$ 150 milhões para liderar a nova corrida da inferência em IA

O mercado financeiro reagiu com entusiasmo quase frenético a essa nova estrela que já nasce privilegiada. Segundo relatos, a Inferact alcançou uma avaliação impressionante de cerca de US$ 800 milhões já na rodada seed, levantando US$ 150 milhões em investimentos. A lista de apoiadores por trás desse aporte é um verdadeiro retrato do poder global do capital de risco: liderada por Andreessen Horowitz e Lightspeed Venture Partners, com a participação de nomes de peso como Sequoia Capital, Altimeter Capital, Redpoint Ventures e ZhenFund, todos apostando forte nesse motor de inferência do futuro.

Queridinho da comunidade open source, o vLLM já deixou uma marca profunda entre desenvolvedores ao redor do mundo. Ele dá suporte a mais de 500 arquiteturas de modelos, roda com eficiência em mais de 200 tipos de aceleradores de hardware e já sustenta operações de inferência em escala global. A missão da Inferact é ainda mais ambiciosa e clara: levar o vLLM à liderança mundial, quebrar de vez as correntes dos altos custos de inferência e permitir que a inteligência artificial flua com velocidade extrema para cada nó computacional.

No grande panorama da evolução da IA, se o treinamento de modelos é como um longo processo de pesquisa a portas fechadas, a inferência é o momento da batalha real no mundo prático. Com a expansão acelerada das aplicações de grandes modelos, o consumo de recursos computacionais na fase de inferência cresce como uma bola de neve, tornando-se um fator decisivo para o sucesso ou fracasso da comercialização. A entrada da Inferact em cena sinaliza uma mudança clara de rumo no setor: o foco está migrando dos caros campos de treinamento para o campo de batalha da implantação eficiente. Isso não apenas comprova o enorme potencial comercial do open source, como também mostra que a competição em infraestrutura de IA entrou em sua segunda metade — a era da busca obsessiva pela máxima eficiência.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top