{"id":543,"date":"2026-01-28T02:22:21","date_gmt":"2026-01-28T02:22:21","guid":{"rendered":"https:\/\/hizhongguo.com\/index.php\/2026\/01\/28\/ant-group\/"},"modified":"2026-01-28T02:22:21","modified_gmt":"2026-01-28T02:22:21","slug":"ant-group","status":"publish","type":"post","link":"https:\/\/hizhongguo.com\/index.php\/2026\/01\/28\/ant-group\/","title":{"rendered":"Ant Group"},"content":{"rendered":"<p>Ap\u00f3s a abertura de c\u00f3digo do modelo de percep\u00e7\u00e3o espacial de alta precis\u00e3o LingBot-Depth ontem, a Lingbo Technology, subsidi\u00e1ria do Ant Group, anunciou hoje a abertura completa do modelo de base de IA incorporada LingBot-VLA. Como um \u201calicerce inteligente\u201d voltado para cen\u00e1rios reais de opera\u00e7\u00e3o rob\u00f3tica, o LingBot-VLA alcan\u00e7a capacidades de generaliza\u00e7\u00e3o entre diferentes corpos rob\u00f3ticos e diferentes tarefas, reduz significativamente os custos de p\u00f3s-treinamento e impulsiona a engenharia pr\u00e1tica do conceito de \u201cum c\u00e9rebro para m\u00faltiplas m\u00e1quinas\u201d.<\/p>\n<figure id=\"attachment_mmd_542\" class=\"wp-block-image \"><img decoding=\"async\" width=\"1536\" height=\"1024\" src=\"https:\/\/hizhongguo.com\/wp-content\/uploads\/2026\/01\/cover-142.webp\" class=\"attachment-full size-full\" alt=\"Ant Group\" loading=\"lazy\" \/><\/figure>\n<p>Nos testes do benchmark aberto de IA incorporada GM-100, desenvolvido pela Universidade Jiao Tong de Xangai (que inclui 100 tarefas reais de opera\u00e7\u00e3o), o LingBot-VLA foi avaliado em tr\u00eas plataformas rob\u00f3ticas reais diferentes. A taxa m\u00e9dia de sucesso em generaliza\u00e7\u00e3o entre diferentes corpos rob\u00f3ticos aumentou de 13,0% do Pi0.5 para 15,7% (sem Depth). Com a introdu\u00e7\u00e3o de informa\u00e7\u00f5es de profundidade (com Depth), a capacidade de percep\u00e7\u00e3o espacial foi aprimorada e a taxa m\u00e9dia de sucesso subiu ainda mais para 17,3%, estabelecendo um novo recorde em avalia\u00e7\u00f5es com rob\u00f4s reais e comprovando sua vantagem de desempenho em cen\u00e1rios do mundo real.<\/p>\n<p>\uff08Legenda: No benchmark GM-100 com rob\u00f4s reais, o LingBot-VLA supera o Pi0.5 em generaliza\u00e7\u00e3o entre diferentes corpos rob\u00f3ticos\uff09<\/p>\n<p>No benchmark de simula\u00e7\u00e3o RoboTwin 2.0 (que inclui 50 tarefas), diante de fortes interfer\u00eancias de aleatoriedade ambiental (como varia\u00e7\u00f5es de ilumina\u00e7\u00e3o, objetos aleat\u00f3rios e perturba\u00e7\u00f5es de altura), o LingBot-VLA, gra\u00e7as ao seu mecanismo exclusivo de alinhamento de consultas aprend\u00edvel e \u00e0 profunda integra\u00e7\u00e3o de informa\u00e7\u00f5es de profundidade, alcan\u00e7ou uma taxa de sucesso 9,92% superior \u00e0 do Pi0.5, liderando o desempenho de ponta a ponta, da simula\u00e7\u00e3o \u00e0 aplica\u00e7\u00e3o no mundo real.<\/p>\n<p>\uff08Legenda: No benchmark de simula\u00e7\u00e3o RoboTwin 2.0, o LingBot-VLA supera o Pi0.5 em generaliza\u00e7\u00e3o entre tarefas\uff09<\/p>\n<p>Por muito tempo, diferen\u00e7as de corpo rob\u00f3tico, de tarefas e de ambientes impuseram s\u00e9rios desafios de generaliza\u00e7\u00e3o \u00e0 aplica\u00e7\u00e3o pr\u00e1tica de modelos de IA incorporada. Desenvolvedores frequentemente precisam coletar grandes volumes de dados espec\u00edficos para cada hardware e tarefa, realizando p\u00f3s-treinamentos repetidos, o que eleva diretamente os custos de implementa\u00e7\u00e3o e dificulta a cria\u00e7\u00e3o de um modelo de entrega escal\u00e1vel e replic\u00e1vel no setor.<\/p>\n<p>Para enfrentar esses desafios, o LingBot-VLA foi pr\u00e9-treinado com mais de 20.000 horas de dados reais de rob\u00f4s, cobrindo nove configura\u00e7\u00f5es principais de rob\u00f4s b\u00edmanos (incluindo AgileX, Galaxea R1Pro, R1Lite, AgiBot G1, entre outros). Assim, um mesmo \u201cc\u00e9rebro\u201d pode ser transferido de forma cont\u00ednua para diferentes configura\u00e7\u00f5es rob\u00f3ticas, mantendo taxas de sucesso e robustez est\u00e1veis mesmo diante de mudan\u00e7as de tarefas e ambientes. Em conjunto com o modelo de percep\u00e7\u00e3o espacial de alta precis\u00e3o LingBot-Depth, o LingBot-VLA obt\u00e9m representa\u00e7\u00f5es de profundidade de maior qualidade. Com essa evolu\u00e7\u00e3o da \u201cvis\u00e3o\u201d, o rob\u00f4 passa a \u201cver com mais clareza e agir com mais precis\u00e3o\u201d.<\/p>\n<p>Com suas s\u00f3lidas capacidades de modelo de base, o LingBot-VLA reduz significativamente a barreira de adapta\u00e7\u00e3o para tarefas downstream, exigindo apenas 80 exemplos de demonstra\u00e7\u00e3o para alcan\u00e7ar migra\u00e7\u00e3o de tarefas de alta qualidade. Al\u00e9m disso, gra\u00e7as \u00e0 otimiza\u00e7\u00e3o profunda da base de c\u00f3digo, sua efici\u00eancia de treinamento \u00e9 de 1,5 a 2,8 vezes superior a frameworks populares como StarVLA e OpenPI, reduzindo simultaneamente os custos de dados e de computa\u00e7\u00e3o.<\/p>\n<p>Esta abertura de c\u00f3digo n\u00e3o inclui apenas os pesos do modelo, mas tamb\u00e9m libera um conjunto completo de c\u00f3digos que abrangem processamento de dados, ajuste fino eficiente e avalia\u00e7\u00e3o automatizada. Essa iniciativa encurta significativamente o ciclo de treinamento, reduz as exig\u00eancias de computa\u00e7\u00e3o e tempo para a implementa\u00e7\u00e3o comercial e permite que desenvolvedores adaptem rapidamente o modelo aos seus pr\u00f3prios cen\u00e1rios com menor custo, ampliando substancialmente a utilidade pr\u00e1tica do modelo.<\/p>\n<p>Segundo Zhu Xing, CEO da Ant Lingbo Technology, \u201cpara que a IA incorporada seja aplicada em larga escala, \u00e9 essencial contar com modelos de base eficientes. Isso determina diretamente se a tecnologia \u00e9 utiliz\u00e1vel e se seu custo \u00e9 vi\u00e1vel. Com a abertura do LingBot-VLA, esperamos explorar ativamente os limites da IA incorporada e acelerar a transi\u00e7\u00e3o da pesquisa para uma nova fase de reutiliza\u00e7\u00e3o, valida\u00e7\u00e3o e aplica\u00e7\u00e3o em escala, permitindo que a IA se integre mais rapidamente ao mundo f\u00edsico e beneficie as pessoas o quanto antes\u201d.<\/p>\n<p>O LingBot-VLA \u00e9 o primeiro modelo de base de IA incorporada de c\u00f3digo aberto do Ant Group e tamb\u00e9m mais um resultado explorat\u00f3rio da empresa em sua pesquisa em AGI. Zhu Xing destacou que o Ant Group mant\u00e9m um compromisso firme com a explora\u00e7\u00e3o da AGI por meio de um modelo aberto, para o qual criou a InclusionAI, um ecossistema t\u00e9cnico e open source que abrange modelos fundamentais, multimodalidade, racioc\u00ednio, novas arquiteturas e IA incorporada. A abertura do LingBot-VLA \u00e9 uma pr\u00e1tica-chave da InclusionAI. \u201cEsperamos colaborar com desenvolvedores de todo o mundo para acelerar a evolu\u00e7\u00e3o tecnol\u00f3gica e a aplica\u00e7\u00e3o em escala da IA incorporada, contribuindo para a chegada mais r\u00e1pida da AGI.\u201d<\/p>\n<p>De acordo com informa\u00e7\u00f5es dispon\u00edveis, durante a fase de coleta de dados, o LingBot-VLA utilizou plataformas de hardware da Xinghaitu e da Songling. Empresas como Leju, Kupasi, o Centro Nacional e Local de Inova\u00e7\u00e3o em Rob\u00f4s Humanoides, a Beijing Humanoid Robot Innovation Center Co., Ltd., Bodeng Intelligence e Ruilman tamb\u00e9m forneceram dados de alta qualidade para o pr\u00e9-treinamento do modelo. Atualmente, o LingBot-VLA j\u00e1 foi adaptado em parceria com fabricantes como Xinghaitu, Songling e Leju, comprovando sua capacidade de migra\u00e7\u00e3o entre diferentes configura\u00e7\u00f5es rob\u00f3ticas.<\/p>","protected":false},"excerpt":{"rendered":"<p>Ap\u00f3s a abertura de c\u00f3digo do modelo de percep\u00e7\u00e3o espacial de alta precis\u00e3o LingBot-Depth ontem, a Lingbo Technology, subsidi\u00e1ria do [&hellip;]<\/p>","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[1],"tags":[],"class_list":["post-543","post","type-post","status-publish","format-standard","hentry","category-ai-news"],"_links":{"self":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts\/543","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/comments?post=543"}],"version-history":[{"count":0,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts\/543\/revisions"}],"wp:attachment":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/media?parent=543"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/categories?post=543"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/tags?post=543"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}