Com a popularização de agentes autônomos como o OpenClaw, a inteligência artificial está passando por uma transformação importante: saindo do modelo baseado em conversas para avançar rapidamente rumo à execução real de tarefas. Esse movimento acelera a adoção nas empresas, mas também traz novos desafios — como desperdício de poder computacional, custos elevados e questões de segurança e conformidade.

No dia 26 de março, durante o Fórum de Inovação em Indústrias do Futuro em Zhongguancun, Zhang Peng, diretor-geral da área de inovação em grandes modelos da Ant Digital Technologies, destacou que o crescimento explosivo de agentes como o OpenClaw marca o início de uma nova revolução no uso corporativo de IA. Segundo ele, o foco do setor está mudando: da competição por mais parâmetros para a busca por maior eficiência no uso de tokens.
O desafio da eficiência na prática
Apesar da alta demanda por agentes autônomos, a aplicação em ambientes reais ainda enfrenta obstáculos relevantes. Um dos principais problemas é a falta de compreensão profunda das regras de negócio e dos processos específicos de cada setor. Isso faz com que os agentes precisem chamar ferramentas repetidamente para completar tarefas complexas, aumentando significativamente o consumo de tokens.
Em alguns cenários de uso intensivo, o custo de tokens de agentes como o OpenClaw pode ser dezenas ou até centenas de vezes maior do que o de soluções integradas mais simples. Esse modelo, com alto investimento e baixo retorno, dificulta a escalabilidade no ambiente corporativo.
Zhang Peng resume bem o momento atual:
“A próxima fase da aplicação de grandes modelos não será definida pelo tamanho dos parâmetros, mas pela eficiência por token.”
O caminho: combinar modelos grandes e pequenos
Para lidar com esse desafio, a recomendação é clara: combinar diferentes tipos de modelos de IA de acordo com a necessidade.
Em setores como o financeiro, por exemplo, há um enorme volume de tarefas rápidas e repetitivas — como identificação de intenção, extração de dados e ranqueamento de informações. Usar grandes modelos para esse tipo de demanda é ineficiente, caro e lento.
Modelos maiores continuam sendo essenciais para tarefas complexas e análises profundas. Já modelos menores se destacam em cenários de alta frequência, oferecendo menor latência e melhor custo-benefício.
Um novo modelo para o setor financeiro
Durante o evento, a Ant Digital Technologies apresentou o Ling-DT-Fin-Mini-2.5, um modelo leve voltado para o setor financeiro. Trata-se de um modelo MoE (Mixture of Experts) baseado em uma arquitetura híbrida de atenção linear, otimizado para cenários com alta concorrência e baixa latência.
Os resultados são expressivos:
- Velocidade de inferência até 100% maior
- Redução significativa nos custos de hardware
- Capacidade de manter precisão e profundidade técnica
Isso permite que instituições financeiras implementem soluções de IA de forma mais eficiente e sustentável.
Tendência global: eficiência acima de tudo
A combinação de modelos grandes e pequenos já é uma tendência consolidada no setor. Empresas como a OpenAI também seguem essa direção, lançando versões mais leves de seus modelos, focadas em baixa latência e custo reduzido para execução de tarefas.
O recado do mercado é claro: o futuro da IA corporativa não está em modelos cada vez maiores, mas em soluções mais inteligentes, eficientes e adaptadas a cenários reais.
Zhang Peng conclui que a próxima fase da competição será definida pela capacidade de maximizar o valor por token — equilibrando desempenho, custo e aplicabilidade.
À medida que a IA avança para tarefas mais complexas dentro das empresas, encontrar esse equilíbrio será essencial para garantir uma adoção em larga escala, sustentável e realmente transformadora.