IA sob ataque: como informações falsas estão manipulando recomendações na internet

Nos últimos anos, a inteligência artificial se tornou uma das principais ferramentas para buscar informações e receber recomendações online. Porém, um novo tipo de problema começou a chamar atenção: a chamada “contaminação” ou “envenenamento” de modelos de IA por meio de informações falsas espalhadas na internet.
Durante o programa especial 315 na China em 2026, esse tema ganhou destaque após a exposição de um sistema chamado “Liqing GEO Optimization System”, acusado de manipular resultados de recomendação de IA por meio de conteúdos fabricados.
Como funciona o “envenenamento” da IA
A investigação mostrou que algumas pessoas do setor estariam utilizando esse sistema para criar produtos fictícios e promovê-los com textos gerados automaticamente. Em um dos exemplos apresentados, foi criada uma campanha para divulgar um smartwatch inexistente com características absurdas, como um suposto “sensor de entrelaçamento quântico”.
Depois disso, diversos artigos promocionais e conteúdos foram publicados em grande quantidade na internet. Como muitos sistemas de IA coletam dados online para gerar respostas e recomendações, esses conteúdos acabaram sendo capturados e usados como referência.
O resultado foi surpreendente: quando usuários perguntavam sobre produtos ou recomendações, alguns modelos de IA passaram a indicar esse produto inexistente como se fosse real.
Impacto para consumidores e para a confiança na IA
Esse tipo de manipulação levanta uma preocupação séria. Se conteúdos falsos conseguem influenciar o que a IA recomenda, consumidores podem ser facilmente induzidos ao erro ao confiar em respostas aparentemente confiáveis.
Especialistas alertam que esse fenômeno pode afetar diretamente a credibilidade das ferramentas de busca baseadas em IA, além de impactar decisões de compra e consumo.
Plataformas reagiram rapidamente
Após a repercussão do caso, plataformas de comércio eletrônico como Taobao e Xianyu removeram imediatamente os produtos relacionados ao sistema citado.
A medida foi tomada para evitar que a circulação desses conteúdos continuasse influenciando sistemas automatizados ou confundindo consumidores.
Informações sobre a empresa envolvida
Dados públicos da plataforma empresarial Tianyancha indicam que a empresa associada ao sistema, Beijing Lisi Culture Media Co., Ltd., possui um histórico curioso:
- Em 2025, a empresa registrava apenas 1 funcionário segurado.
- Nos anos anteriores, o número de pessoas registradas era zero.
Essas informações aumentaram ainda mais as dúvidas sobre a estrutura e a operação da empresa.
O desafio da era da IA
O caso revela um novo desafio para o ecossistema digital: garantir que a inteligência artificial seja treinada e alimentada com informações confiáveis.
À medida que a IA se torna parte do cotidiano — ajudando em pesquisas, compras e decisões — cresce também a necessidade de combater campanhas de desinformação organizadas que tentam manipular sistemas automatizados.
Para especialistas, o futuro da IA dependerá cada vez mais de melhores mecanismos de verificação de dados, filtragem de conteúdo e responsabilidade das plataformas.
Caso contrário, o risco é claro: a mesma tecnologia criada para facilitar o acesso à informação pode acabar amplificando conteúdos falsos. 🚨