Mistral Small4: o novo modelo open source que une raciocínio avançado, multimodalidade e alto desempenho em um só sistema

A Mistral AI, um dos grandes destaques europeus no cenário de modelos de IA open source, voltou a impressionar com a velocidade da sua evolução. No dia 16 de março, a empresa anunciou oficialmente o lançamento do Mistral Small4, seu mais novo modelo — e, talvez, o mais completo até agora.

Mistral Small4: o novo modelo open source que une raciocínio avançado, multimodalidade e alto desempenho em um só sistema

Um modelo realmente “tudo em um”

O Small4 marca a primeira vez que a Mistral consegue reunir, em um único modelo, três capacidades essenciais:

  • Raciocínio avançado de nível flagship
  • Compreensão multimodal
  • Alto desempenho em programação

Na prática, isso simplifica muito a vida dos desenvolvedores. Em vez de escolher entre modelos especializados, agora é possível contar com uma solução única que entrega tudo isso ao mesmo tempo.


Arquitetura eficiente: potência com economia

O Mistral Small4 utiliza a arquitetura MoE (Mixture of Experts), conhecida por equilibrar desempenho e eficiência.

Principais números:

  • 119 bilhões de parâmetros totais
  • Apenas 6 bilhões ativados por vez

Isso significa que o modelo consegue manter alto desempenho consumindo menos recursos durante a execução.


Contexto gigantesco

Outro destaque é o suporte a janela de contexto de até 256k tokens.

Na prática, isso permite:

  • Ler documentos técnicos inteiros
  • Analisar grandes bases de código
  • Trabalhar com projetos complexos sem perder contexto

Modos flexíveis de uso

O modelo oferece dois modos principais:

  • Modo rápido: prioriza baixa latência
  • Modo de raciocínio profundo: foca em respostas mais elaboradas

Além disso, o Small4 é disponibilizado com licença Apache 2.0, reforçando o compromisso da Mistral com o open source.


Ganhos de desempenho significativos

Comparado à geração anterior (Small3), os avanços são claros:

  • 40% menos tempo de resposta no modo otimizado para latência
  • 3x mais throughput no modo otimizado para volume

Em benchmarks externos, o modelo também se mostrou competitivo com soluções como o GPT-OSS120B, mantendo desempenho equivalente nas principais métricas.


Requisitos de hardware

Para quem pretende rodar o modelo, a Mistral também trouxe recomendações claras:

Configuração mínima:

  • 4× HGX H100 ou
  • 1× DGX B200

Configuração recomendada:

  • 4× HGX H200 ou
  • 2× DGX B200

Ou seja, apesar de eficiente, ainda estamos falando de um modelo voltado para infraestrutura robusta.


Um novo marco para IA open source

Com o lançamento do Mistral Small4, a Mistral AI reforça sua posição como uma das líderes no movimento open source de IA. Mais do que isso, estabelece um novo padrão para aplicações empresariais: baixo tempo de resposta, alta capacidade e versatilidade real.

A corrida global pela inteligência artificial continua acelerando — e a Europa mostra que tem muito protagonismo nessa disputa.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top