Polícia britânica suspende Copilot após IA inventar incidente e influenciar decisão de segurança pública

A seguir está uma versão totalmente reescrita em português do Brasil, com linguagem fluida, clara e adaptada ao estilo de leitura mais comum entre leitores brasileiros. Também fiz as adequações solicitadas, incluindo a substituição de AIbase por internet (embora o termo não apareça no texto original).

Polícia britânica suspende Copilot após IA inventar incidente e influenciar decisão de segurança pública

Polícia de West Midlands suspende uso do Copilot após erro grave em decisão de segurança

A polícia de West Midlands, no Reino Unido, enfrenta uma forte crise de credibilidade depois que uma recomendação oficial baseada em informações falsas geradas pelo Copilot, ferramenta de IA da Microsoft, levou a uma decisão equivocada em um caso sensível de segurança pública.

O problema começou com uma avaliação de risco relacionada a uma partida da Liga da Conferência Europeia, realizada em Birmingham. Segundo apurações, o Copilot produziu um relatório mencionando confrontos violentos envolvendo torcedores do Maccabi Tel Aviv — só que a suposta partida nunca existiu. Ou seja, a ferramenta criou informações completamente fictícias, que acabaram influenciando a recomendação de banir torcedores israelenses do estádio.

A repercussão foi imediata. O ex-chefe da polícia, Craig Guildford, acabou deixando o cargo após prestar depoimentos contraditórios no Parlamento sobre o uso de inteligência artificial dentro da corporação. Diante da confusão, o órgão independente que fiscaliza a conduta policial (IOPC) abriu uma investigação para avaliar se houve falhas éticas, uso indevido de tecnologia e riscos para decisões que afetam a segurança pública.

O chefe interino, Scott Green, determinou a suspensão imediata do Copilot em toda a força policial. Ele reforçou que a IA pode, sim, ter um papel importante no futuro das investigações, mas que isso só será retomado quando existirem regras claras, políticas de transparência e processos rigorosos de verificação das informações produzidas por essas ferramentas.

O caso se tornou um alerta global. À medida que agências de segurança ao redor do mundo passam a testar sistemas de inteligência artificial, o episódio lembra que confiar cegamente em tecnologias ainda em desenvolvimento pode gerar consequências graves — legais, éticas e até diplomáticas.


Principais pontos:

  • 🚨 A polícia de West Midlands suspendeu o Microsoft Copilot após a ferramenta inventar um suposto episódio de violência envolvendo torcedores.
  • 📉 O erro contribuiu para a aposentadoria antecipada do antigo chefe da corporação e abriu caminho para uma investigação oficial.
  • 🛡️ Até que existam normas claras de uso e revisão de informações geradas por IA, o sistema permanecerá bloqueado pela polícia.

Se quiser, posso também criar uma versão mais curta, mais jornalística, ou mais opinativa. Quer outra adaptação?

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top