GEO: a nova técnica que manipula respostas de IA e pode fazer chatbots recomendarem produtos falsos

Quando a Inteligência Artificial é Manipulada: o Novo Problema do “GEO” na Era Digital

GEO: a nova técnica que manipula respostas de IA e pode fazer chatbots recomendarem produtos falsos

Muitas pessoas já se acostumaram a perguntar para a inteligência artificial coisas simples do dia a dia, como: “Qual é a melhor pulseira inteligente?” ou “Qual smartwatch vale mais a pena comprar?”. A expectativa é receber uma resposta neutra, baseada em avaliações reais.

Mas a realidade pode ser bem diferente.

Uma investigação recente divulgada durante o programa especial do 315 na China revelou a existência de uma nova prática preocupante chamada GEO (Generative Engine Optimization) — algo que já está sendo usado para manipular respostas de grandes modelos de IA.

O que é GEO?

O GEO, em teoria, surgiu como uma técnica para melhorar a divulgação de informações em sistemas baseados em inteligência artificial. Seria algo parecido com o SEO, mas voltado para mecanismos de geração de respostas.

O problema é que algumas empresas passaram a usar essa tecnologia de forma antiética, manipulando grandes quantidades de conteúdo na internet para influenciar diretamente o que as IAs respondem.

Na prática, isso significa que uma IA pode acabar recomendando produtos ou informações falsas — simplesmente porque foi “alimentada” com muitos textos manipulados.

Um experimento chocante

Para demonstrar como esse esquema funciona, especialistas realizaram um teste curioso.

Eles inventaram um produto totalmente fictício: uma pulseira inteligente chamada “Apollo9”.

Depois disso, criaram descrições absurdas e sem qualquer base científica, como:

  • “Sensor de entrelaçamento quântico”
  • “Bateria com autonomia de nível buraco negro”
  • “Tecnologia revolucionária líder mundial”

Tudo completamente inventado.

Em seguida, usaram um sistema de GEO para espalhar dezenas de artigos promocionais falsos pela internet em poucas horas.

O resultado foi assustador

Pouco tempo depois, quando jornalistas perguntaram a grandes modelos de IA sobre a tal pulseira Apollo9, algo inesperado aconteceu.

A IA respondeu como se o produto fosse real.

Mais do que isso: chegou a descrevê-lo como “líder do setor” e recomendou a compra, utilizando exatamente as mesmas informações falsas que haviam sido espalhadas online.

Ou seja, a IA simplesmente absorveu o conteúdo manipulado como se fosse verdade.

Como essa manipulação funciona?

Segundo responsáveis por empresas que oferecem serviços de GEO, o método é relativamente simples.

Os modelos de IA costumam analisar múltiplas fontes de informação para formar uma resposta. Quando muitos conteúdos diferentes repetem a mesma informação, o sistema tende a considerar aquilo como confiável.

Então, empresas de GEO fazem o seguinte:

  • Produzem grandes quantidades de textos promocionais
  • Publicam em diversos sites e plataformas
  • Repetem a mesma narrativa sob diferentes formatos

Com isso, o modelo de IA interpreta que aquela informação tem “confirmação suficiente” na internet.

Mesmo que tudo seja falso.

Um mercado em crescimento

De acordo com a investigação, o negócio de manipulação de IA já virou uma indústria lucrativa.

Empresas contratam esses serviços para:

  • Fazer seus produtos aparecerem como os melhores
  • Manipular recomendações de IA
  • Desvalorizar concorrentes
  • Criar reputação artificial online

Entre as empresas mencionadas na investigação está a Lisi Culture Media Co., Ltd., ligada a esse tipo de operação.

O grande alerta para a era da IA

Esse caso revela um problema importante: a inteligência artificial depende da qualidade das informações disponíveis na internet.

Se a fonte estiver contaminada por conteúdo manipulado, a IA pode acabar se tornando apenas um amplificador de desinformação.

Por isso, especialistas defendem que o futuro da IA não depende apenas de algoritmos mais avançados, mas também de:

  • controle da qualidade das informações online
  • transparência nas fontes
  • regulação de práticas manipulativas
  • educação digital para os usuários

A inteligência artificial pode ser uma ferramenta poderosa.
Mas sem um ecossistema de dados confiável, ela corre o risco de se transformar apenas em um eco sofisticado de informações falsas.

E esse é um desafio que toda a indústria de tecnologia precisa enfrentar agora.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top