360 divulga guia de segurança para implantação do OpenClaw e alerta sobre novos riscos em agentes de IA

No dia 11 de março, a empresa de segurança digital 360 anunciou o primeiro Guia de Implantação Segura e Boas Práticas do OpenClaw no país. O documento foi criado para ajudar desenvolvedores e empresas a adotarem o popular agente de inteligência artificial open source OpenClaw de forma mais segura.
Com o avanço dos agentes de IA, que estão evoluindo rapidamente para funcionar como verdadeiros “gêmeos digitais” capazes de executar tarefas automaticamente, surgem também novos desafios de segurança. Esses sistemas conseguem acessar diferentes serviços, aplicativos e dados, o que aumenta significativamente o impacto de possíveis vulnerabilidades.
Principais riscos identificados
Especialistas da 360 apontam que, atualmente, a implantação de agentes como o OpenClaw enfrenta diversos riscos de segurança, entre eles:
- Exposição de interfaces de gerenciamento
- Vazamento de credenciais
- Escalada de privilégios no Shell do sistema
- Ataques de injeção de prompts
- Ataques à cadeia de suprimentos de plugins
Entre esses problemas, dois chamam especialmente a atenção: injeção de prompts e ataques à cadeia de plugins. Esses tipos de ataque são relativamente novos e muitas vezes passam despercebidos pelos desenvolvedores, mas podem permitir que agentes de IA executem comandos maliciosos ou acessem dados sensíveis.
Estratégia: primeiro controle, depois eficiência
Para lidar com esses desafios, o guia propõe uma estratégia clara: “controle primeiro, eficiência depois”. A ideia é garantir um ambiente seguro antes de expandir o uso dos agentes de IA.
O documento apresenta recomendações diferentes dependendo do tamanho do projeto ou organização.
Para desenvolvedores individuais e startups
Para projetos menores, o guia recomenda práticas como:
- Utilizar tecnologia de containers para criar ambientes isolados
- Aplicar o princípio do menor privilégio
- Usar injeção segura de chaves e criptografia de credenciais
Essas medidas ajudam a reduzir o impacto de falhas e evitam que agentes tenham acesso desnecessário ao sistema.
Para organizações e ambientes corporativos
Já em cenários corporativos ou governamentais, onde vários agentes de IA podem operar em conjunto, o guia sugere uma arquitetura baseada em Zero Trust (confiança zero).
Entre as medidas recomendadas estão:
- Uso de gateways de segurança para controlar o tráfego
- RBAC (controle de acesso baseado em funções) com permissões detalhadas
- análise de comportamento e linha de base de atividades
- interceptação em tempo real de comandos suspeitos
Segurança se torna prioridade na era dos agentes de IA
Com a rápida comercialização e adoção de AI Agents em diferentes setores, especialistas acreditam que a discussão sobre segurança está mudando de foco. Antes, o principal objetivo era desenvolver funcionalidades e melhorar a eficiência. Agora, segurança e conformidade estão se tornando elementos centrais.
A publicação desse guia marca um passo importante para o setor, pois reforça a necessidade de construir um ecossistema de aplicações de IA mais seguro, confiável e resiliente, especialmente à medida que os agentes ganham mais autonomia e acesso a sistemas críticos.