Youzan esclarece envolvimento em polêmica de “AI poisoning” e reforça limites de uso ético da IA no marketing

Recentemente, a empresa chinesa Youzan divulgou um comunicado oficial para esclarecer rumores que ligavam uma de suas empresas investidas ao caso de “AI poisoning” (manipulação de resultados de IA) exposto no programa televisivo chinês CCTV 3·15, conhecido por investigar práticas comerciais irregulares.
Segundo a empresa, algumas reportagens associaram indevidamente produtos relacionados ao conceito de GEO (Generative Engine Optimization) à companhia Nanjing Xiaoliebian Network Technology Co., Ltd., que recebeu investimento da Youzan em 2021. No entanto, a Youzan afirmou que esse investimento foi restrito ao desenvolvimento de ferramentas para o ecossistema do WeCom (Enterprise WeChat) e não possui qualquer ligação com produtos ou serviços de GEO.
A empresa destacou que, após verificação interna, o sistema chamado “Liqing GEO Optimization System”, acusado de manipular resultados gerados por grandes modelos de IA, não foi desenvolvido nem operado pela Xiaoliebian.
O que é o chamado “AI poisoning”
O episódio também trouxe à tona um problema crescente no setor de tecnologia: o uso indevido do chamado GEO (otimização para mecanismos generativos).
De acordo com reportagens anteriores, algumas empresas estariam criando informações falsas sobre produtos e utilizando sistemas automatizados de GEO para publicar grandes volumes de conteúdos promocionais. O objetivo seria influenciar as respostas de modelos de IA quando usuários fazem perguntas como, por exemplo, “qual é a melhor pulseira inteligente de saúde?”.
Com isso, os sistemas de IA poderiam acabar apresentando rankings manipulados ou recomendações enganosas, gerando uma nova forma de fraude digital conhecida como “AI poisoning”, ou seja, contaminação intencional das informações usadas por sistemas de inteligência artificial.
Posicionamento da Youzan sobre marketing com IA
A Youzan enfatizou que seu produto de IA voltado ao marketing, chamado “Jiawo Recommendation Officer”, tem como objetivo melhorar a comunicação das marcas, e não criar descrições enganosas ou manipular recomendações.
A empresa declarou que se opõe firmemente a práticas de marketing baseadas em manipulação de informações e reforçou que seu serviço segue princípios de segurança, transparência e conformidade.
Além disso, a companhia informou que já estabeleceu diálogo e alinhamento com grandes desenvolvedores de modelos de IA, garantindo que suas soluções estejam dentro das normas e boas práticas do setor.
Desafio crescente para o setor de IA
Com a rápida expansão da inteligência artificial em aplicações comerciais, especialistas apontam que o setor enfrenta um desafio importante: diferenciar otimização legítima de conteúdo gerado por IA de tentativas maliciosas de manipulação de informação.
Enquanto empresas buscam aproveitar o potencial da IA para marketing e comunicação digital, autoridades regulatórias começam a intensificar a supervisão sobre a veracidade e a transparência de conteúdos gerados ou influenciados por IA.
A tendência é que, nos próximos anos, novos padrões regulatórios e diretrizes da indústria sejam estabelecidos para garantir que a inovação tecnológica continue avançando sem comprometer a confiança dos usuários.