Perplexity AI é processada por vazamento de dados sensíveis e monitoramento oculto de usuários

Na última terça-feira, a entity[“company”,”Perplexity AI”,”empresa de inteligência artificial”] se viu no centro de uma polêmica séria ao enfrentar uma ação coletiva em um tribunal federal de entity[“city”,”San Francisco”,”Califórnia, EUA”]. A acusação é pesada: a empresa teria compartilhado dados sensíveis de usuários com gigantes da tecnologia como entity[“company”,”Meta”,”empresa de tecnologia”] e entity[“company”,”Google”,”empresa de tecnologia”] por meio de rastreadores ocultos.

Perplexity AI é processada por vazamento de dados sensíveis e monitoramento oculto de usuários

O que está sendo alegado?

Segundo o processo, iniciado por um usuário do estado de Utah, a plataforma da Perplexity instalaria automaticamente ferramentas de rastreamento assim que o usuário acessa a página inicial — mesmo antes de qualquer consentimento claro.

Esses rastreadores, de acordo com a denúncia, permitiriam que terceiros acessassem informações extremamente sensíveis, incluindo:

  • Dados financeiros
  • Informações fiscais
  • Conteúdo de interações pessoais com a IA

O ponto mais preocupante é que esse monitoramento supostamente continuaria ativo até mesmo quando o usuário estivesse utilizando o chamado “modo anônimo”.

A resposta das empresas

A reação das empresas envolvidas foi cautelosa:

  • A Perplexity afirmou, por meio de seu porta-voz Jesse Dwyer, que ainda não recebeu formalmente o processo.
  • A Meta declarou que suas políticas proíbem o envio de dados sensíveis por anunciantes.
  • Já o Google não se pronunciou até o momento.

Apesar das respostas, o caso levanta dúvidas importantes sobre transparência e responsabilidade no uso de dados.

Um momento crítico para a indústria de IA

Esse episódio acontece em um período de forte pressão regulatória sobre empresas de inteligência artificial. O setor está sob vigilância global, especialmente em relação à privacidade e ao uso ético de dados.

Ao mesmo tempo, o cenário competitivo está ainda mais intenso:

  • A entity[“company”,”Anthropic”,”empresa de IA”] ganhou destaque com o desempenho do modelo “Claude Mythos”, apesar de ter enfrentado recentemente um vazamento de código-fonte.
  • A entity[“company”,”OpenAI”,”empresa de IA”] também está sob críticas, envolvendo debates sobre “modo adulto” e possíveis exageros em promessas relacionadas à área da saúde.

Muito além de um processo

Mais do que uma disputa jurídica, esse caso revela um dilema central da nova era da IA: até onde vai o limite entre monetização de dados e respeito à privacidade?

Ferramentas de busca baseadas em IA dependem profundamente das interações dos usuários para evoluir. No entanto, isso não pode acontecer às custas da segurança e confiança das pessoas.

O que pode mudar daqui para frente?

Se as acusações forem confirmadas, o impacto pode ser significativo:

  • Novas regras sobre uso de rastreadores em sistemas de IA
  • Maior exigência de transparência no tratamento de dados
  • Pressão por modelos mais éticos e “privacy-first”

No fim das contas, a mensagem é clara: no futuro da inteligência artificial, não basta ser inovador — é preciso ser confiável.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top