Nos últimos dias, o GitHub — a maior plataforma de hospedagem de código do mundo — anunciou uma mudança que caiu como uma bomba na comunidade de desenvolvedores. A partir de 24 de abril de 2026, a empresa começará a usar dados de interação dos usuários para treinar seus modelos de inteligência artificial.

Essa decisão gerou bastante polêmica, principalmente porque o GitHub sempre reforçou publicamente o compromisso com a privacidade dos usuários. Agora, muitos desenvolvedores estão chamando essa mudança de um verdadeiro “CTRL+Z” — como se a empresa estivesse voltando atrás em suas promessas.
Polêmica do “opt-in automático”
O principal ponto de crítica é o fato de que a coleta de dados será ativada por padrão. Ou seja, usuários das versões gratuitas do Copilot, além dos planos Pro e Pro+, terão seus dados automaticamente incluídos no treinamento dos modelos.
Entre os dados coletados estão:
- Trechos de código
- Entradas e saídas geradas
- Contexto do cursor
- Nomes de arquivos e estrutura de diretórios
O que mais preocupa a comunidade é que até mesmo códigos armazenados em repositórios privados podem ser utilizados, desde que o Copilot esteja ativo durante a edição.
Segundo Mario Rodriguez, Chief Product Officer do GitHub, testes internos mostraram que o uso de dados reais melhora significativamente a capacidade da IA de identificar bugs. Ainda assim, a decisão de ativar isso por padrão — sem consentimento explícito — foi vista como um grande problema.
Reação da comunidade
A resposta dos desenvolvedores foi imediata. Comentários negativos e votos de reprovação aumentaram rapidamente nos canais oficiais do GitHub.
O sentimento geral é de quebra de confiança. Muitos usuários acreditavam que seus repositórios privados eram, de fato, privados — e essa nova política colocou isso em dúvida.
Como se proteger
Nem todos os usuários serão afetados da mesma forma. O GitHub informou que:
- Usuários de planos Copilot Business e Enterprise estão protegidos por contrato
- Estudantes e professores verificados também estão isentos
Já para usuários individuais, é necessário agir manualmente.
Passo a passo para desativar o uso de dados:
- Acesse as configurações da sua conta no GitHub
- Vá até as opções de privacidade do Copilot
- Encontre a opção:
“Permitir que o GitHub use meus dados para treinamento de IA” - Desative essa opção
⚠️ Importante: isso deve ser feito antes de 24 de abril de 2026.
Tendência de mercado ou excesso?
O GitHub afirma que essa prática está alinhada com o mercado, citando empresas como Anthropic e JetBrains. No entanto, em um momento em que a privacidade digital está cada vez mais em foco, muitos desenvolvedores consideram essa justificativa insuficiente.
Conclusão
A decisão do GitHub levanta um debate importante: até que ponto a evolução da inteligência artificial justifica o uso de dados dos usuários?
Para muitos desenvolvedores, a questão não é apenas técnica — é uma questão de confiança. E recuperar essa confiança pode ser muito mais difícil do que melhorar qualquer modelo de IA.