{"id":577,"date":"2026-01-28T07:13:31","date_gmt":"2026-01-28T07:13:31","guid":{"rendered":"https:\/\/hizhongguo.com\/index.php\/2026\/01\/28\/lingbot-vla-modelo-open-source-do-ant-group-impulsiona-a-inteligencia-incorporada-com-alto-desempenho-e-baixo-custo\/"},"modified":"2026-01-28T07:13:31","modified_gmt":"2026-01-28T07:13:31","slug":"lingbot-vla-modelo-open-source-do-ant-group-impulsiona-a-inteligencia-incorporada-com-alto-desempenho-e-baixo-custo","status":"publish","type":"post","link":"https:\/\/hizhongguo.com\/index.php\/2026\/01\/28\/lingbot-vla-modelo-open-source-do-ant-group-impulsiona-a-inteligencia-incorporada-com-alto-desempenho-e-baixo-custo\/","title":{"rendered":"LingBot-VLA: modelo open source do Ant Group impulsiona a intelig\u00eancia incorporada com alto desempenho e baixo custo"},"content":{"rendered":"<p>A empresa de intelig\u00eancia incorporada Lingbo Technology, ligada ao Ant Group, anunciou recentemente a abertura oficial do c\u00f3digo do seu grande modelo de intelig\u00eancia incorporada, o <strong>LingBot-VLA<\/strong>. O modelo n\u00e3o s\u00f3 apresenta desempenho excepcional em diversos benchmarks de refer\u00eancia, como tamb\u00e9m disponibiliza todo o c\u00f3digo de p\u00f3s-treinamento, com o objetivo de reduzir significativamente a barreira de entrada no desenvolvimento de intelig\u00eancia incorporada.<\/p>\n<figure id=\"attachment_mmd_576\" class=\"wp-block-image \"><img decoding=\"async\" width=\"1536\" height=\"1024\" src=\"https:\/\/hizhongguo.com\/wp-content\/uploads\/2026\/01\/cover-159.webp\" class=\"attachment-full size-full\" alt=\"LingBot-VLA: modelo open source do Ant Group impulsiona a intelig\u00eancia incorporada com alto desempenho e baixo custo\" loading=\"lazy\" \/><\/figure>\n<p><strong>Desempenho: generaliza\u00e7\u00e3o multiplataforma e controle preciso<\/strong><br \/>\nO LingBot-VLA demonstrou alta precis\u00e3o e forte capacidade de generaliza\u00e7\u00e3o tanto em ambientes reais quanto em cen\u00e1rios simulados:<\/p>\n<p><strong>Avalia\u00e7\u00e3o em cen\u00e1rios reais:<\/strong> No benchmark GM-100 da Universidade Jiao Tong de Xangai, o LingBot-VLA alcan\u00e7ou uma taxa m\u00e9dia de sucesso de 15,7% em generaliza\u00e7\u00e3o entre diferentes rob\u00f4s, em tr\u00eas plataformas distintas, superando o Pi0.5, que obteve 13,0%.<br \/>\n<strong>Percep\u00e7\u00e3o espacial aprimorada:<\/strong> Com a introdu\u00e7\u00e3o de informa\u00e7\u00f5es de profundidade, a taxa m\u00e9dia de sucesso aumentou ainda mais, chegando a 17,3%.<br \/>\n<strong>Lideran\u00e7a em ambientes simulados:<\/strong> Na avalia\u00e7\u00e3o de simula\u00e7\u00e3o RoboTwin 2.0, enfrentando interfer\u00eancias aleat\u00f3rias como varia\u00e7\u00f5es de ilumina\u00e7\u00e3o e presen\u00e7a de objetos diversos, a taxa de sucesso operacional foi 9,92% maior do que a do Pi0.5.<\/p>\n<p><strong>N\u00facleo t\u00e9cnico: cadeia de ferramentas de p\u00f3s-treinamento altamente eficiente<\/strong><br \/>\nAs vantagens do LingBot-VLA v\u00e3o al\u00e9m do desempenho, destacando-se tamb\u00e9m pela efici\u00eancia de treinamento e capacidade de transfer\u00eancia:<\/p>\n<p><strong>Transfer\u00eancia de baixo custo:<\/strong> Gra\u00e7as ao pr\u00e9-treinamento em larga escala, o modelo consegue superar modelos mainstream em tarefas downstream utilizando uma quantidade significativamente menor de dados.<br \/>\n<strong>Treinamento de alto throughput:<\/strong> A equipe desenvolveu uma cadeia de ferramentas altamente eficiente que, em uma configura\u00e7\u00e3o com 8 GPUs, alcan\u00e7a 261 amostras por segundo por GPU. Essa efici\u00eancia \u00e9 de 1,5 a 2,8 vezes superior a frameworks populares como StarVLA e OpenPI.<\/p>\n<p><strong>Conte\u00fado open source: todos os recursos dispon\u00edveis em um s\u00f3 lugar<\/strong><br \/>\nA iniciativa de c\u00f3digo aberto da Lingbo Technology \u00e9 bastante abrangente, oferecendo suporte completo de ponta a ponta:<\/p>\n<p><strong>Pesos do modelo:<\/strong> J\u00e1 dispon\u00edveis simultaneamente no Hugging Face e na comunidade ModelScope.<br \/>\n<strong>Reposit\u00f3rio de c\u00f3digo:<\/strong> O GitHub foi aberto com todo o conjunto de c\u00f3digos, incluindo processamento de dados, fine-tuning eficiente e avalia\u00e7\u00e3o automatizada.<br \/>\n<strong>Conjuntos de dados e relat\u00f3rios:<\/strong> Tamb\u00e9m foram disponibilizados o dataset GM-100 e um relat\u00f3rio t\u00e9cnico detalhado.<\/p>\n<p>Com essa abertura completa, o LingBot-VLA oferece aos desenvolvedores de rob\u00f3tica uma op\u00e7\u00e3o de modelo VLA realmente pr\u00e1tica, eficiente e de baixo custo, com grande potencial para acelerar a transi\u00e7\u00e3o da intelig\u00eancia incorporada do laborat\u00f3rio para aplica\u00e7\u00f5es reais em larga escala.<\/p>","protected":false},"excerpt":{"rendered":"<p>A empresa de intelig\u00eancia incorporada Lingbo Technology, ligada ao Ant Group, anunciou recentemente a abertura oficial do c\u00f3digo do seu [&hellip;]<\/p>","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[1],"tags":[],"class_list":["post-577","post","type-post","status-publish","format-standard","hentry","category-ai-news"],"_links":{"self":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts\/577","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/comments?post=577"}],"version-history":[{"count":0,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts\/577\/revisions"}],"wp:attachment":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/media?parent=577"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/categories?post=577"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/tags?post=577"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}