{"id":693,"date":"2026-01-30T07:23:32","date_gmt":"2026-01-30T07:23:32","guid":{"rendered":"https:\/\/hizhongguo.com\/index.php\/2026\/01\/30\/sensetime-abre-o-codigo-do-sensenova-mars-primeiro-modelo-multimodal-agentic-com-raciocinio-autonomo\/"},"modified":"2026-01-30T07:23:32","modified_gmt":"2026-01-30T07:23:32","slug":"sensetime-abre-o-codigo-do-sensenova-mars-primeiro-modelo-multimodal-agentic-com-raciocinio-autonomo","status":"publish","type":"post","link":"https:\/\/hizhongguo.com\/index.php\/2026\/01\/30\/sensetime-abre-o-codigo-do-sensenova-mars-primeiro-modelo-multimodal-agentic-com-raciocinio-autonomo\/","title":{"rendered":"SenseTime abre o c\u00f3digo do SenseNova-MARS, primeiro modelo multimodal agentic com racioc\u00ednio aut\u00f4nomo"},"content":{"rendered":"<p>A SenseTime anunciou oficialmente, em <strong>29 de janeiro de 2026<\/strong>, a abertura do c\u00f3digo do seu novo modelo de <strong>IA multimodal com racioc\u00ednio aut\u00f4nomo<\/strong>, o <strong>SenseNova-MARS<\/strong>, disponibilizando duas vers\u00f5es: <strong>8B<\/strong> e <strong>32B<\/strong>. O lan\u00e7amento representa um passo importante na evolu\u00e7\u00e3o dos grandes modelos multimodais, especialmente no campo do racioc\u00ednio visual avan\u00e7ado.<\/p>\n<figure id=\"attachment_mmd_692\" class=\"wp-block-image \"><img decoding=\"async\" width=\"1536\" height=\"1024\" src=\"https:\/\/hizhongguo.com\/wp-content\/uploads\/2026\/01\/cover-214.webp\" class=\"attachment-full size-full\" alt=\"SenseTime abre o c\u00f3digo do SenseNova-MARS, primeiro modelo multimodal agentic com racioc\u00ednio aut\u00f4nomo\" loading=\"lazy\" \/><\/figure>\n<h2>Um avan\u00e7o t\u00e9cnico in\u00e9dito: o primeiro Agentic VLM<\/h2>\n<p>O SenseNova-MARS traz uma arquitetura inovadora e se destaca como o <strong>primeiro Agentic VLM (Visual Language Model com comportamento de agente)<\/strong> do setor. Isso significa que o modelo vai al\u00e9m da simples interpreta\u00e7\u00e3o de imagens e textos.<\/p>\n<p>Entre seus principais diferenciais est\u00e3o:<\/p>\n<ul>\n<li><strong>Racioc\u00ednio visual din\u00e2mico<\/strong>: o modelo consegue analisar imagens de forma ativa, ajustando sua l\u00f3gica conforme o contexto.<\/li>\n<li><strong>Capacidade aut\u00f4noma de planejamento<\/strong>: atua como um agente inteligente, tomando decis\u00f5es e estruturando etapas de racioc\u00ednio por conta pr\u00f3pria.<\/li>\n<li><strong>Integra\u00e7\u00e3o profunda com busca em texto e imagem<\/strong>: ao combinar compreens\u00e3o visual com acesso a informa\u00e7\u00f5es externas via internet, o modelo resolve tarefas visuais complexas que exigem conhecimento adicional.<\/li>\n<\/ul>\n<h2>Racioc\u00ednio aut\u00f4nomo aplicado ao mundo real<\/h2>\n<p>Diferente dos modelos tradicionais, o SenseNova-MARS n\u00e3o apenas \u201centende\u201d o que v\u00ea. Ele \u00e9 capaz de:<\/p>\n<ul>\n<li>Interpretar cen\u00e1rios visuais complexos  <\/li>\n<li>Buscar informa\u00e7\u00f5es relevantes em tempo real  <\/li>\n<li>Cruzar dados visuais e textuais  <\/li>\n<li>Gerar conclus\u00f5es mais precisas e contextualizadas  <\/li>\n<\/ul>\n<p>Isso amplia significativamente seu potencial de uso em \u00e1reas como an\u00e1lise industrial, cidades inteligentes, educa\u00e7\u00e3o, sa\u00fade e aplica\u00e7\u00f5es corporativas avan\u00e7adas.<\/p>\n<h2>Duas vers\u00f5es abertas para diferentes necessidades<\/h2>\n<p>Ao optar por um lan\u00e7amento <strong>open source em dois tamanhos<\/strong>, a SenseTime busca atender perfis variados de desenvolvedores e empresas:<\/p>\n<ul>\n<li>\n<p><strong>Vers\u00e3o 8B<\/strong><br \/>\nIdeal para ambientes com recursos computacionais limitados ou dispositivos de borda (edge). Oferece um bom equil\u00edbrio entre desempenho e efici\u00eancia.<\/p>\n<\/li>\n<li>\n<p><strong>Vers\u00e3o 32B<\/strong><br \/>\nFocada em aplica\u00e7\u00f5es mais complexas, com maior capacidade de racioc\u00ednio l\u00f3gico e an\u00e1lise profunda, atendendo demandas industriais e corporativas de alto n\u00edvel.<\/p>\n<\/li>\n<\/ul>\n<h2>Impacto para a comunidade global<\/h2>\n<p>A abertura do SenseNova-MARS fortalece o ecossistema de pesquisa e desenvolvimento em IA multimodal, oferecendo ferramentas mais flex\u00edveis e poderosas para inova\u00e7\u00e3o. Para desenvolvedores, pesquisadores e empresas, o modelo representa uma nova gera\u00e7\u00e3o de sistemas capazes de <strong>ver, pensar, buscar informa\u00e7\u00f5es na internet e decidir de forma integrada<\/strong>.<\/p>\n<p>Com esse lan\u00e7amento, a SenseTime refor\u00e7a seu papel de destaque na pr\u00f3xima fase da intelig\u00eancia artificial: <strong>modelos que raciocinam de forma ativa e colaboram de maneira mais pr\u00f3xima com o mundo real<\/strong>.<\/p>","protected":false},"excerpt":{"rendered":"<p>A SenseTime anunciou oficialmente, em 29 de janeiro de 2026, a abertura do c\u00f3digo do seu novo modelo de IA [&hellip;]<\/p>","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[1],"tags":[],"class_list":["post-693","post","type-post","status-publish","format-standard","hentry","category-ai-news"],"_links":{"self":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts\/693","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/comments?post=693"}],"version-history":[{"count":0,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts\/693\/revisions"}],"wp:attachment":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/media?parent=693"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/categories?post=693"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/tags?post=693"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}