{"id":1275,"date":"2026-02-16T04:12:39","date_gmt":"2026-02-16T04:12:39","guid":{"rendered":"https:\/\/hizhongguo.com\/index.php\/2026\/02\/16\/jd-lanca-joyai-llm-flash-em-codigo-aberto-modelo-moe-de-48b-com-128k-de-contexto-e-alta-eficiencia\/"},"modified":"2026-02-16T04:12:39","modified_gmt":"2026-02-16T04:12:39","slug":"jd-lanca-joyai-llm-flash-em-codigo-aberto-modelo-moe-de-48b-com-128k-de-contexto-e-alta-eficiencia","status":"publish","type":"post","link":"https:\/\/hizhongguo.com\/index.php\/2026\/02\/16\/jd-lanca-joyai-llm-flash-em-codigo-aberto-modelo-moe-de-48b-com-128k-de-contexto-e-alta-eficiencia\/","title":{"rendered":"JD lan\u00e7a JoyAI-LLM-Flash em c\u00f3digo aberto: modelo MoE de 4,8B com 128K de contexto e alta efici\u00eancia"},"content":{"rendered":"<p>A JD anunciou no dia 14 de fevereiro, na plataforma Hugging Face, o lan\u00e7amento oficial em c\u00f3digo aberto do seu mais novo modelo de linguagem: <strong>JoyAI-LLM-Flash<\/strong>. A novidade refor\u00e7a a presen\u00e7a da empresa no cen\u00e1rio global de intelig\u00eancia artificial e mostra um avan\u00e7o significativo em efici\u00eancia e desempenho.<\/p>\n<figure id=\"attachment_mmd_1274\" class=\"wp-block-image \"><img decoding=\"async\" width=\"1536\" height=\"1024\" src=\"https:\/\/hizhongguo.com\/wp-content\/uploads\/2026\/02\/cover-249.webp\" class=\"attachment-full size-full\" alt=\"JD lan\u00e7a JoyAI-LLM-Flash em c\u00f3digo aberto: modelo MoE de 4,8B com 128K de contexto e alta efici\u00eancia\" loading=\"lazy\" \/><\/figure>\n<h2>Um modelo robusto e eficiente<\/h2>\n<p>O JoyAI-LLM-Flash possui <strong>4,8 bilh\u00f5es de par\u00e2metros no total<\/strong>, sendo <strong>300 milh\u00f5es de par\u00e2metros ativados<\/strong>. Ele foi pr\u00e9-treinado com impressionantes <strong>20 trilh\u00f5es de tokens de texto<\/strong>, o que garante uma base s\u00f3lida de conhecimento, excelente capacidade de racioc\u00ednio e habilidades avan\u00e7adas em programa\u00e7\u00e3o.<\/p>\n<p>Na pr\u00e1tica, isso significa que o modelo consegue compreender melhor contextos complexos, resolver problemas com mais precis\u00e3o e gerar c\u00f3digos de forma mais eficiente \u2014 caracter\u00edsticas cada vez mais valorizadas no mercado de IA.<\/p>\n<h2>Tecnologia inovadora por tr\u00e1s do desempenho<\/h2>\n<p>Um dos grandes diferenciais do JoyAI-LLM-Flash \u00e9 o uso do novo framework de otimiza\u00e7\u00e3o chamado <strong>FiberPO<\/strong>. Essa abordagem introduz conceitos da teoria de fibrados (fiber bundle theory) no processo de aprendizado por refor\u00e7o, trazendo mais estabilidade ao treinamento de modelos de grande escala.<\/p>\n<p>Al\u00e9m disso, o modelo combina:<\/p>\n<ul>\n<li><strong>Otimizador Muon<\/strong><\/li>\n<li><strong>T\u00e9cnica de previs\u00e3o densa de m\u00faltiplos tokens (MTP)<\/strong><\/li>\n<\/ul>\n<p>Essa combina\u00e7\u00e3o resolve problemas comuns de instabilidade que surgem quando modelos crescem em tamanho. Comparado \u00e0 vers\u00e3o sem MTP, o JoyAI-LLM-Flash alcan\u00e7a um aumento de <strong>1,3x a 1,7x no throughput<\/strong>, o que significa maior velocidade de processamento e melhor aproveitamento de recursos computacionais.<\/p>\n<h2>Arquitetura moderna e preparada para grandes contextos<\/h2>\n<p>O modelo utiliza uma arquitetura <strong>Mixture of Experts (MoE)<\/strong>, que permite ativar apenas partes espec\u00edficas da rede para cada tarefa, tornando o processamento mais eficiente.<\/p>\n<p>Entre suas principais especifica\u00e7\u00f5es t\u00e9cnicas est\u00e3o:<\/p>\n<ul>\n<li><strong>40 camadas<\/strong><\/li>\n<li><strong>Suporte a at\u00e9 128K de contexto<\/strong><\/li>\n<li><strong>Vocabul\u00e1rio com 129 mil tokens<\/strong><\/li>\n<\/ul>\n<p>Esse suporte a contextos longos \u00e9 especialmente importante para aplica\u00e7\u00f5es que exigem an\u00e1lise de grandes volumes de texto, como documentos extensos, bases jur\u00eddicas ou c\u00f3digos complexos.<\/p>\n<h2>Um passo importante no cen\u00e1rio de IA<\/h2>\n<p>Com o lan\u00e7amento do JoyAI-LLM-Flash como modelo open-source, a JD demonstra seu compromisso com inova\u00e7\u00e3o e colabora\u00e7\u00e3o na \u00e1rea de intelig\u00eancia artificial. Ao disponibilizar uma tecnologia de alto desempenho para a comunidade, a empresa contribui para acelerar o desenvolvimento de novas aplica\u00e7\u00f5es e solu\u00e7\u00f5es baseadas em IA.<\/p>\n<p>Esse movimento n\u00e3o apenas fortalece o ecossistema open-source, mas tamb\u00e9m posiciona a JD como um dos players relevantes na evolu\u00e7\u00e3o dos grandes modelos de linguagem.<\/p>","protected":false},"excerpt":{"rendered":"<p>A JD anunciou no dia 14 de fevereiro, na plataforma Hugging Face, o lan\u00e7amento oficial em c\u00f3digo aberto do seu [&hellip;]<\/p>","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[1],"tags":[],"class_list":["post-1275","post","type-post","status-publish","format-standard","hentry","category-ai-news"],"_links":{"self":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts\/1275","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/comments?post=1275"}],"version-history":[{"count":0,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts\/1275\/revisions"}],"wp:attachment":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/media?parent=1275"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/categories?post=1275"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/tags?post=1275"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}