Novo ataque “font rendering” engana IA e expõe usuários a comandos maliciosos invisíveis

Uma nova técnica de ataque digital, revelada recentemente pela empresa de segurança LayerX, está chamando a atenção da comunidade tecnológica. Batizada de “font rendering” (renderização de fontes), essa abordagem explora uma diferença crítica entre o que os usuários veem na tela e o que os sistemas de IA realmente interpretam nos bastidores.

Novo ataque “font rendering” engana IA e expõe usuários a comandos maliciosos invisíveis

Como funciona esse tipo de ataque?

O método é engenhoso — e preocupante.

Os hackers utilizam fontes personalizadas e estilos CSS para manipular a forma como o texto é exibido. Na prática, isso cria uma espécie de “ilusão visual”:

  • Mapeamento de caracteres alterado: letras aparentemente normais podem ser exibidas como algo inofensivo, enquanto o conteúdo real (como comandos perigosos) fica escondido.
  • Manipulação visual com CSS: textos maliciosos podem ser ocultados com tamanho minúsculo ou cores invisíveis, enquanto instruções aparentemente seguras são destacadas.

Resultado?
👉 O usuário vê algo “seguro”.
👉 A IA analisa outra coisa completamente diferente.

Por que isso é perigoso?

Ferramentas como ChatGPT, Claude e Copilot analisam o texto real, não a forma como ele aparece visualmente no navegador. Isso abre espaço para ataques onde:

  • A IA avalia um código como seguro
  • O usuário, confiando nessa análise, executa comandos que na verdade são maliciosos

A LayerX demonstrou um exemplo prático:
um site disfarçado como “easter egg” de jogo incentivava o usuário a rodar um código. Ao pedir análise para uma IA, a resposta era de que o código era “totalmente seguro”. No entanto, ele continha instruções perigosas, como execução de reverse shell, que permite acesso remoto ao dispositivo da vítima.

Reação das empresas

A vulnerabilidade foi reportada em dezembro de 2025, mas as respostas variaram bastante:

  • Microsoft: respondeu rapidamente e já corrigiu o problema.
  • Google: inicialmente classificou como grave, mas depois rebaixou a importância, alegando dependência de engenharia social.
  • Outras empresas: em sua maioria, consideraram o problema fora do escopo de proteção.

O que isso significa para você?

Esse caso reforça um ponto importante:
👉 Não confie cegamente em análises de IA quando se trata de segurança.

Mesmo ferramentas avançadas podem ser enganadas por técnicas sofisticadas de manipulação visual.

Boas práticas para se proteger:

  • Evite executar códigos de fontes desconhecidas
  • Desconfie de instruções encontradas em páginas suspeitas
  • Use múltiplas fontes de verificação (não apenas IA)
  • Sempre revise manualmente comandos antes de executá-los

Conclusão

A técnica de “font rendering” mostra que os ataques digitais estão evoluindo — explorando não apenas falhas técnicas, mas também a confiança dos usuários em ferramentas inteligentes.

A IA continua sendo uma aliada poderosa, mas não substitui o pensamento crítico e a cautela.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top