{"id":587,"date":"2026-01-28T07:27:09","date_gmt":"2026-01-28T07:27:09","guid":{"rendered":"https:\/\/hizhongguo.com\/index.php\/2026\/01\/28\/ant-group-abre-o-codigo-do-lingbot-vla-e-acelera-a-evolucao-de-robos-inteligentes-com-ia-cross-embodiment\/"},"modified":"2026-01-28T07:27:09","modified_gmt":"2026-01-28T07:27:09","slug":"ant-group-abre-o-codigo-do-lingbot-vla-e-acelera-a-evolucao-de-robos-inteligentes-com-ia-cross-embodiment","status":"publish","type":"post","link":"https:\/\/hizhongguo.com\/index.php\/2026\/01\/28\/ant-group-abre-o-codigo-do-lingbot-vla-e-acelera-a-evolucao-de-robos-inteligentes-com-ia-cross-embodiment\/","title":{"rendered":"Ant Group abre o c\u00f3digo do LingBot-VLA e acelera a evolu\u00e7\u00e3o de rob\u00f4s inteligentes com IA cross-embodiment"},"content":{"rendered":"<p>Recentemente, a Ant Group, por meio de sua subsidi\u00e1ria Ant Lingbo Technology, anunciou oficialmente a abertura total do c\u00f3digo de seu grande modelo de intelig\u00eancia incorporada \u2014 <strong>LingBot-VLA<\/strong>, juntamente com os c\u00f3digos de p\u00f3s-treinamento relacionados. Essa iniciativa n\u00e3o apenas marca um avan\u00e7o importante no campo da rob\u00f3tica, como tamb\u00e9m comprova a capacidade do modelo de realizar <strong>transfer\u00eancia entre diferentes tipos de rob\u00f4s (cross-embodiment)<\/strong>, impulsionando ainda mais o desenvolvimento de rob\u00f4s inteligentes.<\/p>\n<figure id=\"attachment_mmd_586\" class=\"wp-block-image \"><img decoding=\"async\" width=\"1536\" height=\"1024\" src=\"https:\/\/hizhongguo.com\/wp-content\/uploads\/2026\/01\/cover-164.webp\" class=\"attachment-full size-full\" alt=\"Ant Group abre o c\u00f3digo do LingBot-VLA e acelera a evolu\u00e7\u00e3o de rob\u00f4s inteligentes com IA cross-embodiment\" loading=\"lazy\" \/><\/figure>\n<p>Atualmente, o <strong>LingBot-VLA<\/strong> j\u00e1 foi adaptado com sucesso para diversos fabricantes de rob\u00f4s, como Xinghaitu, Songling e Leju. Com o uso de uma cadeia de ferramentas de p\u00f3s-treinamento desenvolvida pela Ant Lingbo Technology, o modelo consegue atingir uma efici\u00eancia de treinamento de <strong>261 amostras por segundo<\/strong> em uma configura\u00e7\u00e3o com <strong>8 GPUs<\/strong>. Esse desempenho \u00e9 de <strong>1,5 a 2,8 vezes superior<\/strong> aos frameworks mais populares do mercado, como StarVLA e OpenPI, reduzindo de forma significativa os custos com dados e poder computacional.<\/p>\n<p>Com base em uma grande quantidade de dados do mundo real, a Ant Lingbo realizou, pela primeira vez, um estudo sistem\u00e1tico sobre o desempenho de modelos VLA em tarefas reais de rob\u00f3tica. Os resultados mostram que, \u00e0 medida que o volume de dados de pr\u00e9-treinamento aumenta, a taxa de sucesso do modelo em tarefas downstream tamb\u00e9m cresce de forma cont\u00ednua. Desde treinamentos com <strong>3.000 horas de dados<\/strong> at\u00e9 chegar a <strong>20.000 horas<\/strong>, a taxa de sucesso apresentou um crescimento consistente, evidenciando uma rela\u00e7\u00e3o positiva entre quantidade de dados e desempenho do modelo.<\/p>\n<p>Ainda mais animador \u00e9 o desempenho do <strong>LingBot-VLA<\/strong> no benchmark aberto <strong>GM-100<\/strong>, disponibilizado pela Universidade Jiao Tong de Xangai. Em tr\u00eas plataformas diferentes de rob\u00f4s reais, a taxa m\u00e9dia de sucesso em generaliza\u00e7\u00e3o cross-embodiment aumentou de <strong>13,0% para 15,7%<\/strong>. Com a introdu\u00e7\u00e3o de informa\u00e7\u00f5es de profundidade, esse \u00edndice subiu ainda mais, alcan\u00e7ando <strong>17,3%<\/strong>.<\/p>\n<p>Al\u00e9m disso, no dia <strong>27 de janeiro<\/strong>, a Ant Lingbo Technology lan\u00e7ou o modelo de percep\u00e7\u00e3o espacial <strong>LingBot-Depth<\/strong>. Esse modelo \u00e9 focado em <strong>complementa\u00e7\u00e3o de profundidade em cen\u00e1rios reais<\/strong>, utilizando c\u00e2meras 3D est\u00e9reo para a coleta e valida\u00e7\u00e3o de dados RGB-Depth. O LingBot-Depth \u00e9 capaz de transformar dados de profundidade incompletos e afetados por ru\u00eddos em <strong>medi\u00e7\u00f5es tridimensionais de alta qualidade<\/strong>, melhorando significativamente a percep\u00e7\u00e3o de profundidade e a compreens\u00e3o 3D do ambiente.<\/p>\n<p>Em diversos testes de benchmark, o <strong>LingBot-Depth<\/strong> apresentou excelente desempenho em tarefas como complementa\u00e7\u00e3o de profundidade e estimativa de profundidade monocular, demonstrando lideran\u00e7a do setor em termos de precis\u00e3o e estabilidade. A valida\u00e7\u00e3o bem-sucedida desse modelo tamb\u00e9m oferece capacidades de vis\u00e3o tridimensional muito mais precisas para terminais inteligentes, como <strong>rob\u00f4s<\/strong> e <strong>ve\u00edculos aut\u00f4nomos<\/strong>.<\/p>","protected":false},"excerpt":{"rendered":"<p>Recentemente, a Ant Group, por meio de sua subsidi\u00e1ria Ant Lingbo Technology, anunciou oficialmente a abertura total do c\u00f3digo de [&hellip;]<\/p>","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[1],"tags":[],"class_list":["post-587","post","type-post","status-publish","format-standard","hentry","category-ai-news"],"_links":{"self":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts\/587","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/comments?post=587"}],"version-history":[{"count":0,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts\/587\/revisions"}],"wp:attachment":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/media?parent=587"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/categories?post=587"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/tags?post=587"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}