Recentemente, o mundo acadêmico foi abalado por uma tragédia digital. O professor de Ciências Vegetais da Universidade de Colônia, Marcel Bucher, descobriu acidentalmente que todo o seu trabalho de pesquisa de dois anos – incluindo solicitações de projetos, revisões de artigos, materiais de aula e provas – desapareceu da noite para o dia.

O incidente teve origem em uma simples alteração de configuração. O professor Bucher relatou em uma coluna na Nature que, movido pela curiosidade, decidiu desativar a opção de “Consentimento de Dados” da OpenAI para ver se ainda conseguiria usar o modelo normalmente. Porém, ao fazer isso, todas as conversas foram apagadas imediatamente, sem qualquer aviso prévio. Como a plataforma não oferece um botão de “desfazer” ou “restaurar”, ele se deparou com uma página em branco.
O ocorrido gerou grande polêmica nas redes sociais. Muitos questionaram a decisão do professor de não realizar backups locais de seus dados ao longo de dois anos, enquanto outros apontaram que o uso excessivo de ferramentas de IA poderia comprometer a rigidez acadêmica. Em defesa, o professor afirmou que sempre soubera das possíveis falhas da IA, mas confiava na estabilidade e continuidade da plataforma, usando-a como assistente de pesquisa no dia a dia.
Em resposta à polêmica, a OpenAI declarou à Nature que não houve “falta de aviso” e afirmou que, antes da exclusão permanente das conversas, sempre aparece uma confirmação. A empresa também reiterou a importância de os usuários profissionais realizarem backups locais de seus trabalhos importantes, lembrando que as plataformas de IA na internet não devem ser vistas como o único repositório de armazenamento.