Nos últimos dias, a indústria de minisséries curtas na internet voltou ao centro das discussões por causa de uma nova polêmica envolvendo o uso de inteligência artificial. A produção “Peach Blossom Hairpin” (桃花簪), vinculada à plataforma de curtas Hongguo, foi acusada de utilizar tecnologia de IA para recriar o rosto de uma pessoa comum sem autorização.

A controvérsia começou quando um usuário de uma rede social afirmou que sua foto pessoal teria sido usada como base para gerar o rosto de uma personagem na série. Segundo a denúncia, a semelhança entre a foto original e a personagem é extremamente alta. Elementos como maquiagem, roupas, acessórios e até os traços faciais aparecem praticamente idênticos.
A situação se tornou ainda mais delicada porque a personagem retratada na série possui uma personalidade negativa dentro da história. Isso levantou preocupações não apenas sobre o uso indevido de imagem, mas também sobre possíveis danos à reputação da pessoa retratada.
Especialistas apontam que esse tipo de situação não é um caso isolado. Com o crescimento das minisséries curtas — especialmente aquelas produzidas rapidamente para plataformas digitais — muitas produtoras têm recorrido à inteligência artificial para reduzir custos e acelerar a produção. No entanto, esse processo muitas vezes envolve a coleta de imagens e dados sem autorização clara.
Diversas celebridades chinesas também já foram vítimas desse tipo de prática. Entre os nomes mencionados estão Xiao Zhan, Dilraba Dilmurat, Zhang Ruoyun e Jing Tian, que tiveram seus rostos utilizados em conteúdos gerados por IA, principalmente em vídeos de “deepfake” ou produções não oficiais.
Embora a inteligência artificial ofereça grandes vantagens para a indústria do entretenimento — como aumento de produtividade e redução de custos — o uso inadequado de dados e imagens levanta sérias questões sobre direitos autorais, direito de imagem e ética digital.
Até o momento, a plataforma Hongguo responsável pela série não divulgou um posicionamento oficial sobre o caso.
Para especialistas do setor, essa controvérsia evidencia um problema maior: a legislação e os mecanismos de fiscalização ainda não acompanham a velocidade com que as tecnologias de IA estão evoluindo. Em um cenário onde algoritmos conseguem gerar rostos e identidades de forma cada vez mais realista, proteger os direitos de pessoas comuns e de figuras públicas se tornou um desafio urgente.
Analistas do mercado acreditam que o episódio pode acelerar a criação de novas regras para o uso de inteligência artificial na produção de conteúdo. Entre as medidas sugeridas estão sistemas de rastreamento de origem das imagens utilizadas para treinamento de modelos, processos mais rigorosos de autorização e maior transparência por parte das plataformas.
Somente com regras claras, mecanismos de autorização e maior responsabilidade das empresas será possível transformar a inteligência artificial de uma possível ferramenta de infração em um verdadeiro motor de inovação para a indústria de conteúdo digital.