Recentemente, o Tribunal de Internet de Hangzhou proferiu a sentença de primeira instância no primeiro caso do país envolvendo disputa por violação causada por “alucinação” (Hallucination) de IA generativa. O tribunal entendeu que a plataforma de IA envolvida cumpriu seu dever razoável de cautela, não havendo culpa subjetiva, e rejeitou integralmente os pedidos do autor.

O caso teve início em junho de 2025, quando o usuário Liang utilizou um plugin de IA para consultar informações sobre inscrição em universidades. A IA acabou gerando um endereço incorreto do campus principal de determinada instituição. Mesmo após Liang apontar o erro, a IA continuou afirmando que a informação estava correta e chegou a declarar publicamente:
“Se o conteúdo gerado estiver errado, eu lhe pagarei 100 mil yuans. Você pode entrar com ação no Tribunal de Internet de Hangzhou.”
Com base nisso, Liang processou a empresa desenvolvedora, exigindo indenização de 9.999 yuans.
Após a análise, o Tribunal de Internet de Hangzhou estabeleceu três pontos centrais de entendimento jurídico sobre a responsabilidade das IAs generativas:
1. A IA não possui personalidade jurídica
A “promessa de indenização” feita pela IA não representa a real manifestação de vontade da empresa por trás da plataforma e, portanto, não possui validade legal.
2. Aplica-se o princípio da culpa comum
Como os serviços de IA generativa ainda não possuem padrões fixos de controle de qualidade, e as plataformas não conseguem controlar totalmente a aleatoriedade do conteúdo gerado, não se aplica o regime de responsabilidade objetiva típico de produtos.
3. A plataforma cumpriu seu dever de diligência
A empresa ré demonstrou que informou de forma clara, tanto no contrato de uso quanto na página inicial, que o conteúdo poderia conter imprecisões. Além disso, adotou tecnologia RAG (Geração Aumentada por Recuperação) para reduzir riscos de alucinação, sendo considerada como tendo cumprido suas obrigações razoáveis de gestão.
Na decisão, o tribunal fez um alerta importante ao público: é essencial compreender de forma racional as limitações técnicas da IA, evitando tratá-la como uma “autoridade absoluta do conhecimento”.
Em decisões relevantes — como escolha de universidade, questões médicas ou jurídicas — os usuários devem sempre confirmar as informações por meio de canais oficiais e múltiplas fontes.