{"id":3233,"date":"2026-03-31T03:18:41","date_gmt":"2026-03-31T03:18:41","guid":{"rendered":"https:\/\/hizhongguo.com\/index.php\/2026\/03\/31\/lingbot-depth-dataset-novo-mega-dataset-rgb-d-com-3-milhoes-de-amostras-impulsiona-a-visao-3d-e-a-ia-no-mundo-real\/"},"modified":"2026-03-31T03:18:41","modified_gmt":"2026-03-31T03:18:41","slug":"lingbot-depth-dataset-novo-mega-dataset-rgb-d-com-3-milhoes-de-amostras-impulsiona-a-visao-3d-e-a-ia-no-mundo-real","status":"publish","type":"post","link":"https:\/\/hizhongguo.com\/index.php\/2026\/03\/31\/lingbot-depth-dataset-novo-mega-dataset-rgb-d-com-3-milhoes-de-amostras-impulsiona-a-visao-3d-e-a-ia-no-mundo-real\/","title":{"rendered":"LingBot-Depth-Dataset: novo mega dataset RGB-D com 3 milh\u00f5es de amostras impulsiona a vis\u00e3o 3D e a IA no mundo real"},"content":{"rendered":"<p>No dia 31 de mar\u00e7o, a Ant Lingbo Technology anunciou a abertura do <strong>LingBot-Depth-Dataset<\/strong>, um dos maiores conjuntos de dados RGB-D j\u00e1 disponibilizados na comunidade open source. Com <strong>3 milh\u00f5es de pares de dados de alta qualidade<\/strong>, sendo <strong>2 milh\u00f5es capturados em cen\u00e1rios reais<\/strong> e <strong>1 milh\u00e3o gerados por renderiza\u00e7\u00e3o<\/strong>, o dataset totaliza impressionantes <strong>2,71 TB<\/strong> e cobre <strong>seis modelos populares de c\u00e2meras de profundidade<\/strong>.<\/p>\n<figure id=\"attachment_mmd_3232\" class=\"wp-block-image \"><img decoding=\"async\" width=\"1536\" height=\"1024\" src=\"https:\/\/hizhongguo.com\/wp-content\/uploads\/2026\/03\/cover-715.webp\" class=\"attachment-full size-full\" alt=\"LingBot-Depth-Dataset: novo mega dataset RGB-D com 3 milh\u00f5es de amostras impulsiona a vis\u00e3o 3D e a IA no mundo real\" loading=\"lazy\" \/><\/figure>\n<h2>Um salto importante para vis\u00e3o 3D e intelig\u00eancia incorporada<\/h2>\n<p>Esse lan\u00e7amento representa um avan\u00e7o significativo para \u00e1reas como:<\/p>\n<ul>\n<li>Intelig\u00eancia incorporada (embodied AI)  <\/li>\n<li>Percep\u00e7\u00e3o espacial  <\/li>\n<li>Vis\u00e3o computacional 3D  <\/li>\n<\/ul>\n<p>Cada amostra do dataset inclui:<\/p>\n<ul>\n<li>Imagem RGB  <\/li>\n<li>Mapa de profundidade bruto do sensor  <\/li>\n<li>Mapa de profundidade com ground truth (valor real)  <\/li>\n<\/ul>\n<p>Isso permite que pesquisadores treinem e avaliem modelos com muito mais precis\u00e3o, especialmente em tarefas como <strong>estimativa de profundidade<\/strong> e <strong>preenchimento de dados ausentes (depth completion)<\/strong>.<\/p>\n<h2>Superando limita\u00e7\u00f5es dos datasets anteriores<\/h2>\n<p>Durante anos, datasets p\u00fablicos de profundidade enfrentaram problemas como:<\/p>\n<ul>\n<li>Volume limitado de dados  <\/li>\n<li>Pouca diversidade de cen\u00e1rios reais  <\/li>\n<li>Depend\u00eancia excessiva de dados sint\u00e9ticos  <\/li>\n<li>Uso de apenas um tipo de hardware  <\/li>\n<\/ul>\n<p>Essas limita\u00e7\u00f5es dificultavam a aplica\u00e7\u00e3o pr\u00e1tica dos modelos, j\u00e1 que dados sint\u00e9ticos n\u00e3o reproduzem com fidelidade problemas reais como:<\/p>\n<ul>\n<li>Ru\u00eddo do sensor  <\/li>\n<li>\u00c1reas com falhas (buracos de profundidade)  <\/li>\n<li>Reflexos e transpar\u00eancias  <\/li>\n<\/ul>\n<p>O LingBot-Depth-Dataset resolve esses desafios ao focar fortemente em <strong>dados reais<\/strong>, oferecendo uma base muito mais pr\u00f3xima das condi\u00e7\u00f5es do mundo f\u00edsico.<\/p>\n<h2>Compatibilidade com m\u00faltiplos sensores<\/h2>\n<p>O dataset cobre seis c\u00e2meras amplamente utilizadas no mercado:<\/p>\n<ul>\n<li>Orbbec 335  <\/li>\n<li>Orbbec 335L  <\/li>\n<li>Intel RealSense D405  <\/li>\n<li>Intel RealSense D415  <\/li>\n<li>Intel RealSense D435  <\/li>\n<li>Intel RealSense D455  <\/li>\n<\/ul>\n<p>Isso \u00e9 essencial para treinar modelos mais robustos, capazes de funcionar bem em diferentes dispositivos e ambientes.<\/p>\n<h2>Resultados pr\u00e1ticos impressionantes<\/h2>\n<p>O modelo <strong>LingBot-Depth<\/strong>, tamb\u00e9m desenvolvido pela empresa, foi treinado com esse dataset e j\u00e1 demonstra resultados expressivos:<\/p>\n<ul>\n<li>Redu\u00e7\u00e3o de mais de <strong>70% no erro de previs\u00e3o de profundidade<\/strong> em ambientes internos  <\/li>\n<li>Redu\u00e7\u00e3o de cerca de <strong>47% no erro em tarefas de preenchimento de profundidade<\/strong>  <\/li>\n<\/ul>\n<p>Al\u00e9m disso, c\u00e2meras comerciais equipadas com esse modelo conseguem lidar melhor com cen\u00e1rios desafiadores, como:<\/p>\n<ul>\n<li>Vidros transparentes  <\/li>\n<li>Superf\u00edcies refletivas  <\/li>\n<li>Condi\u00e7\u00f5es de contraluz  <\/li>\n<\/ul>\n<p>Em alguns casos, o desempenho chega a superar equipamentos industriais de alto n\u00edvel \u2014 sem necessidade de upgrade de hardware.<\/p>\n<h2>Impacto para pesquisa e ind\u00fastria<\/h2>\n<p>Para universidades e centros de pesquisa, a abertura desse dataset reduz significativamente:<\/p>\n<ul>\n<li>O custo de coleta de dados  <\/li>\n<li>O esfor\u00e7o de anota\u00e7\u00e3o manual  <\/li>\n<\/ul>\n<p>Mais do que isso, acelera a transi\u00e7\u00e3o de tecnologias do laborat\u00f3rio para aplica\u00e7\u00f5es reais.<\/p>\n<p>Com o avan\u00e7o da rob\u00f3tica e da intelig\u00eancia incorporada, datasets grandes, realistas e bem estruturados como o LingBot-Depth-Dataset se tornam pe\u00e7as-chave para o futuro da \u00e1rea.<\/p>\n<hr \/>\n<p>Em resumo, essa iniciativa n\u00e3o apenas preenche uma lacuna importante no ecossistema de dados, como tamb\u00e9m fortalece toda a base tecnol\u00f3gica necess\u00e1ria para a pr\u00f3xima gera\u00e7\u00e3o de sistemas inteligentes no mundo real.<\/p>","protected":false},"excerpt":{"rendered":"<p>No dia 31 de mar\u00e7o, a Ant Lingbo Technology anunciou a abertura do LingBot-Depth-Dataset, um dos maiores conjuntos de dados [&hellip;]<\/p>","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[1],"tags":[],"class_list":["post-3233","post","type-post","status-publish","format-standard","hentry","category-ai-news"],"_links":{"self":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts\/3233","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/comments?post=3233"}],"version-history":[{"count":0,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts\/3233\/revisions"}],"wp:attachment":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/media?parent=3233"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/categories?post=3233"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/tags?post=3233"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}