A Mistral AI, um dos grandes destaques europeus no cenário de modelos de IA open source, voltou a impressionar com a velocidade da sua evolução. No dia 16 de março, a empresa anunciou oficialmente o lançamento do Mistral Small4, seu mais novo modelo — e, talvez, o mais completo até agora.

Um modelo realmente “tudo em um”
O Small4 marca a primeira vez que a Mistral consegue reunir, em um único modelo, três capacidades essenciais:
- Raciocínio avançado de nível flagship
- Compreensão multimodal
- Alto desempenho em programação
Na prática, isso simplifica muito a vida dos desenvolvedores. Em vez de escolher entre modelos especializados, agora é possível contar com uma solução única que entrega tudo isso ao mesmo tempo.
Arquitetura eficiente: potência com economia
O Mistral Small4 utiliza a arquitetura MoE (Mixture of Experts), conhecida por equilibrar desempenho e eficiência.
Principais números:
- 119 bilhões de parâmetros totais
- Apenas 6 bilhões ativados por vez
Isso significa que o modelo consegue manter alto desempenho consumindo menos recursos durante a execução.
Contexto gigantesco
Outro destaque é o suporte a janela de contexto de até 256k tokens.
Na prática, isso permite:
- Ler documentos técnicos inteiros
- Analisar grandes bases de código
- Trabalhar com projetos complexos sem perder contexto
Modos flexíveis de uso
O modelo oferece dois modos principais:
- Modo rápido: prioriza baixa latência
- Modo de raciocínio profundo: foca em respostas mais elaboradas
Além disso, o Small4 é disponibilizado com licença Apache 2.0, reforçando o compromisso da Mistral com o open source.
Ganhos de desempenho significativos
Comparado à geração anterior (Small3), os avanços são claros:
- 40% menos tempo de resposta no modo otimizado para latência
- 3x mais throughput no modo otimizado para volume
Em benchmarks externos, o modelo também se mostrou competitivo com soluções como o GPT-OSS120B, mantendo desempenho equivalente nas principais métricas.
Requisitos de hardware
Para quem pretende rodar o modelo, a Mistral também trouxe recomendações claras:
Configuração mínima:
- 4× HGX H100 ou
- 1× DGX B200
Configuração recomendada:
- 4× HGX H200 ou
- 2× DGX B200
Ou seja, apesar de eficiente, ainda estamos falando de um modelo voltado para infraestrutura robusta.
Um novo marco para IA open source
Com o lançamento do Mistral Small4, a Mistral AI reforça sua posição como uma das líderes no movimento open source de IA. Mais do que isso, estabelece um novo padrão para aplicações empresariais: baixo tempo de resposta, alta capacidade e versatilidade real.
A corrida global pela inteligência artificial continua acelerando — e a Europa mostra que tem muito protagonismo nessa disputa.