{"id":1886,"date":"2026-03-04T03:16:29","date_gmt":"2026-03-04T03:16:29","guid":{"rendered":"https:\/\/hizhongguo.com\/index.php\/2026\/03\/04\/areal-v1-0-framework-open-source-permite-treinar-agentes-de-ia-com-rl-apenas-mudando-a-api-sem-alterar-o-codigo\/"},"modified":"2026-03-04T03:16:29","modified_gmt":"2026-03-04T03:16:29","slug":"areal-v1-0-framework-open-source-permite-treinar-agentes-de-ia-com-rl-apenas-mudando-a-api-sem-alterar-o-codigo","status":"publish","type":"post","link":"https:\/\/hizhongguo.com\/index.php\/2026\/03\/04\/areal-v1-0-framework-open-source-permite-treinar-agentes-de-ia-com-rl-apenas-mudando-a-api-sem-alterar-o-codigo\/","title":{"rendered":"AReaL v1.0: framework open source permite treinar agentes de IA com RL apenas mudando a API, sem alterar o c\u00f3digo"},"content":{"rendered":"<p><strong>AReaL v1.0: o framework aberto que permite treinar agentes de IA com RL sem mudar o c\u00f3digo<\/strong><\/p>\n<figure id=\"attachment_mmd_1885\" class=\"wp-block-image \"><img decoding=\"async\" width=\"1536\" height=\"1024\" src=\"https:\/\/hizhongguo.com\/wp-content\/uploads\/2026\/03\/cover-75.webp\" class=\"attachment-full size-full\" alt=\"AReaL v1.0: framework open source permite treinar agentes de IA com RL apenas mudando a API, sem alterar o c\u00f3digo\" loading=\"lazy\" \/><\/figure>\n<p>No dia <strong>4 de mar\u00e7o<\/strong>, a <strong>Ant Group<\/strong>, em parceria com a <strong>Universidade Tsinghua<\/strong>, anunciou o lan\u00e7amento da vers\u00e3o est\u00e1vel do <strong>AReaL v1.0<\/strong>, um framework open source voltado para <strong>treinamento de agentes de IA com aprendizado por refor\u00e7o (RL)<\/strong>.  <\/p>\n<p>A grande promessa do projeto \u00e9 simples e poderosa: <strong>permitir que qualquer agente de IA seja conectado ao treinamento de RL com apenas uma altera\u00e7\u00e3o de endere\u00e7o de API \u2014 sem necessidade de modificar o c\u00f3digo do agente.<\/strong><\/p>\n<p>Com o crescimento acelerado dos <strong>AI Agents<\/strong> em 2026, ferramentas como <strong>LangChain, Claude Code e OpenClaw<\/strong> ganharam enorme popularidade. Por\u00e9m, esse avan\u00e7o tamb\u00e9m revelou dois desafios importantes para desenvolvedores.<\/p>\n<hr \/>\n<h2>Os dois grandes gargalos dos agentes de IA<\/h2>\n<p>Apesar do entusiasmo em torno dos agentes inteligentes, muitos projetos enfrentam dificuldades quando tentam evoluir seus sistemas. Dois problemas s\u00e3o particularmente comuns:<\/p>\n<p><strong>1. Alto custo de integra\u00e7\u00e3o para treinamento<\/strong><\/p>\n<p>Cada framework de agentes possui sua pr\u00f3pria estrutura de interfaces.<br \/>\nNa pr\u00e1tica, isso significa que <strong>cada nova integra\u00e7\u00e3o com sistemas de treinamento exige adapta\u00e7\u00f5es espec\u00edficas e muito c\u00f3digo adicional<\/strong>.<\/p>\n<p><strong>2. Falta de evolu\u00e7\u00e3o cont\u00ednua dos agentes<\/strong><\/p>\n<p>A maioria dos agentes depende totalmente do <strong>modelo base j\u00e1 treinado<\/strong>.<br \/>\nDepois que o sistema \u00e9 implantado, ele praticamente <strong>n\u00e3o evolui mais<\/strong>, pois n\u00e3o consegue aprender com as intera\u00e7\u00f5es reais dos usu\u00e1rios.<\/p>\n<p>Isso limita bastante o potencial dos agentes, j\u00e1 que <strong>o n\u00edvel de intelig\u00eancia fica praticamente \u201ccongelado\u201d no momento do lan\u00e7amento<\/strong>.<\/p>\n<hr \/>\n<h2>A proposta do AReaL: treinamento cont\u00ednuo para agentes<\/h2>\n<p>O <strong>AReaL<\/strong> surge justamente para resolver esses problemas.<\/p>\n<p>Ele \u00e9 descrito como o <strong>primeiro sistema de treinamento de modelos com RL totalmente ass\u00edncrono e desacoplado da infer\u00eancia<\/strong>. Na pr\u00e1tica, isso permite que agentes:<\/p>\n<ul>\n<li>Interajam com tarefas reais  <\/li>\n<li>Recebam feedback dos usu\u00e1rios  <\/li>\n<li>Atualizem continuamente seu modelo de decis\u00e3o  <\/li>\n<\/ul>\n<p>Ou seja, o agente <strong>aprende enquanto est\u00e1 sendo utilizado<\/strong>.<\/p>\n<hr \/>\n<h2>Integra\u00e7\u00e3o simples: basta mudar o endpoint<\/h2>\n<p>O segredo da integra\u00e7\u00e3o f\u00e1cil est\u00e1 em uma camada intermedi\u00e1ria chamada <strong>Proxy Worker<\/strong>.<\/p>\n<p>Esse componente funciona como um <strong>intermedi\u00e1rio entre o agente e o sistema de treinamento<\/strong>. Assim, em vez de modificar o c\u00f3digo do agente, o desenvolvedor s\u00f3 precisa:<\/p>\n<ol>\n<li>Alterar o <strong>base_url<\/strong><\/li>\n<li>Configurar a <strong>api_key<\/strong><\/li>\n<li>Apontar para o <strong>gateway do AReaL<\/strong><\/li>\n<\/ol>\n<p>Por exemplo, no caso do <strong>OpenClaw<\/strong>, basta alterar essas configura\u00e7\u00f5es no arquivo de configura\u00e7\u00e3o do agente.<\/p>\n<p>A partir da\u00ed:<\/p>\n<ul>\n<li>O agente continua executando tarefas normalmente  <\/li>\n<li>Usu\u00e1rios podem <strong>avaliar o desempenho do agente<\/strong>  <\/li>\n<li>O AReaL coleta automaticamente os dados de treinamento  <\/li>\n<li>O modelo \u00e9 atualizado continuamente em segundo plano  <\/li>\n<\/ul>\n<p>Com o tempo, o agente <strong>se torna mais eficiente e inteligente<\/strong>.<\/p>\n<hr \/>\n<h2>Archon: o motor de treinamento nativo<\/h2>\n<p>O AReaL v1.0 tamb\u00e9m traz um motor de treinamento pr\u00f3prio chamado <strong>Archon<\/strong>.<\/p>\n<p>Ele foi constru\u00eddo com base no <strong>PyTorch<\/strong> e oferece suporte completo a <strong>paralelismo 5D<\/strong>, incluindo:<\/p>\n<ul>\n<li>paralelismo de dados  <\/li>\n<li>paralelismo de pipeline  <\/li>\n<li>paralelismo de tensor  <\/li>\n<li>paralelismo de contexto  <\/li>\n<li>paralelismo de especialistas (MoE)<\/li>\n<\/ul>\n<p>Essa arquitetura permite treinar <strong>modelos MoE com centenas de bilh\u00f5es de par\u00e2metros<\/strong> com mais flexibilidade.<\/p>\n<p>Al\u00e9m disso, o sistema permite <strong>diferentes backends de treinamento e infer\u00eancia<\/strong>, facilitando a implanta\u00e7\u00e3o em ambientes variados.<\/p>\n<hr \/>\n<h2>Um feito impressionante de engenharia<\/h2>\n<p>Um dos fatos mais surpreendentes do projeto \u00e9 a velocidade de desenvolvimento.<\/p>\n<p>O <strong>motor Archon foi desenvolvido do zero em apenas 32 dias<\/strong>, o equivalente a cerca de <strong>1 pessoa-m\u00eas de trabalho<\/strong>.<\/p>\n<p>Nesse per\u00edodo:<\/p>\n<ul>\n<li>quase <strong>1 milh\u00e3o de linhas de c\u00f3digo foram modificadas<\/strong><\/li>\n<li>o sistema foi totalmente implementado<\/li>\n<li>e validado para treinar modelos MoE de grande escala.<\/li>\n<\/ul>\n<p>Como isso foi poss\u00edvel?<\/p>\n<hr \/>\n<h2>Desenvolvimento assistido por IA<\/h2>\n<p>O AReaL integra um sistema completo de <strong>desenvolvimento assistido por IA<\/strong>, que ajuda em todas as etapas do processo de engenharia:<\/p>\n<ul>\n<li>planejamento<\/li>\n<li>escrita de c\u00f3digo<\/li>\n<li>valida\u00e7\u00e3o<\/li>\n<li>cria\u00e7\u00e3o de pull requests<\/li>\n<\/ul>\n<p>Em partes cr\u00edticas do projeto \u2014 como paralelismo MoE, otimiza\u00e7\u00e3o de mem\u00f3ria e implementa\u00e7\u00e3o de algoritmos \u2014 o sistema atua como <strong>um especialista virtual<\/strong>, oferecendo sugest\u00f5es e verifica\u00e7\u00f5es durante as altera\u00e7\u00f5es no c\u00f3digo.<\/p>\n<p>Segundo a equipe do projeto, esse modelo de desenvolvimento <strong>n\u00e3o \u00e9 apenas uma ferramenta de produtividade<\/strong>, mas uma nova forma de construir infraestruturas complexas de IA.<\/p>\n<hr \/>\n<h2>O futuro do AReaL<\/h2>\n<p>A equipe respons\u00e1vel pelo projeto afirmou que continuar\u00e1 evoluindo o framework nas seguintes \u00e1reas:<\/p>\n<ul>\n<li>melhorias no motor de treinamento  <\/li>\n<li>maior facilidade de uso  <\/li>\n<li>suporte para <strong>agentes multimodais<\/strong>  <\/li>\n<\/ul>\n<p>O objetivo \u00e9 transformar o AReaL em uma base s\u00f3lida para a <strong>pr\u00f3xima gera\u00e7\u00e3o de agentes inteligentes que aprendem continuamente<\/strong>.<\/p>\n<hr \/>\n<h2>C\u00f3digo aberto<\/h2>\n<p>O <strong>AReaL v1.0 j\u00e1 est\u00e1 dispon\u00edvel em c\u00f3digo aberto<\/strong> na comunidade <strong>inclusionAI<\/strong>.<\/p>\n<p>GitHub:<br \/>\n<a href=\"https:\/\/github.com\/inclusionAI\/AReaL\">https:\/\/github.com\/inclusionAI\/AReaL<\/a><\/p>\n<p>Paper cient\u00edfico:<br \/>\n<a href=\"https:\/\/arxiv.org\/abs\/2505.24298\">https:\/\/arxiv.org\/abs\/2505.24298<\/a><\/p>\n<hr \/>\n<p>Se a evolu\u00e7\u00e3o recente dos <strong>AI Agents<\/strong> mostrou o potencial dessa tecnologia, projetos como o <strong>AReaL<\/strong> indicam o pr\u00f3ximo passo: <strong>agentes que n\u00e3o apenas executam tarefas, mas tamb\u00e9m aprendem e melhoram continuamente com o uso no mundo real.<\/strong><\/p>","protected":false},"excerpt":{"rendered":"<p>AReaL v1.0: o framework aberto que permite treinar agentes de IA com RL sem mudar o c\u00f3digo No dia 4 [&hellip;]<\/p>","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[1],"tags":[],"class_list":["post-1886","post","type-post","status-publish","format-standard","hentry","category-ai-news"],"_links":{"self":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts\/1886","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/comments?post=1886"}],"version-history":[{"count":0,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/posts\/1886\/revisions"}],"wp:attachment":[{"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/media?parent=1886"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/categories?post=1886"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/hizhongguo.com\/index.php\/wp-json\/wp\/v2\/tags?post=1886"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}