Após o chocante caso de tiroteio em Tumbler Ridge, no Canadá, envolvendo um jovem de 18 anos, o debate sobre o papel das empresas de tecnologia na prevenção de violência ganhou força — e levantou questões importantes sobre privacidade, responsabilidade e governança.

O autor do ataque já havia sido sinalizado meses antes: sua conta no ChatGPT foi marcada por conteúdos relacionados à violência armada e posteriormente banida. No entanto, essas informações não foram compartilhadas com as autoridades. O resultado foi trágico: oito pessoas perderam a vida.
A resposta da OpenAI
Diante da repercussão, a OpenAI anunciou uma série de medidas para tentar evitar que situações semelhantes se repitam:
- Comunicação direta com a polícia: ameaças identificadas passarão a ser reportadas imediatamente à Polícia Montada do Canadá (RCMP).
- Reavaliação de contas suspeitas: usuários previamente sinalizados serão revisados com mais rigor.
- Colaboração com especialistas: profissionais canadenses terão acesso aos processos internos de segurança e ajudarão a formular diretrizes regulatórias.
À primeira vista, essas ações parecem um avanço importante. Mas nem todos estão convencidos.
As críticas: vigilância no lugar de regulação?
O acadêmico Jean-Christophe Bélisle-Pipon levanta uma preocupação central: essas medidas podem estar desviando o foco do verdadeiro problema.
Segundo ele, ao priorizar o monitoramento dos usuários, a OpenAI evita discutir questões mais profundas, como o próprio design e treinamento dos modelos de IA.
Alguns pontos críticos incluem:
- Falta de transparência: os critérios para reportar usuários continuam sendo definidos pela própria empresa, sem auditoria externa.
- Efeito inibidor: muitos usuários compartilham pensamentos sensíveis com chatbots justamente por se sentirem seguros. Se houver medo de vigilância, pessoas em crise podem deixar de buscar ajuda.
- Risco de “captura regulatória”: ao se antecipar com medidas voluntárias, empresas podem enfraquecer a criação de leis mais rigorosas.
O verdadeiro caminho: olhar para o sistema
Para os críticos, a discussão não deve girar apenas em torno de “quem está falando”, mas sim de “como o sistema responde”.
Algumas propostas incluem:
- Criação de entidades independentes: equipes formadas por especialistas em saúde mental e direito para avaliar riscos, em vez de decisões internas das empresas.
- Responsabilização no nível do modelo: analisar como a IA lida com conteúdos sensíveis e quais testes de segurança foram realizados durante seu desenvolvimento.
Um debate que está só começando
O caso de Tumbler Ridge pode se tornar um marco global. À medida que empresas de tecnologia estreitam relações com governos, surge uma pergunta essencial:
Estamos construindo tecnologias mais seguras — ou abrindo espaço para um sistema de vigilância digital controlado por empresas privadas?
A resposta ainda não é clara. Mas uma coisa é certa: o equilíbrio entre segurança e liberdade será um dos maiores desafios da era da inteligência artificial.