A Meta anunciou oficialmente na última quinta-feira que está acelerando, em escala global, a implementação de um novo sistema avançado de inteligência artificial para fiscalização de conteúdo. O objetivo é reforçar o combate a materiais ilegais ou prejudiciais, como terrorismo, exploração infantil, tráfico de drogas e fraudes, ao mesmo tempo em que reduz significativamente a dependência de revisores humanos terceirizados.

Essa mudança representa um novo momento na forma como a empresa lida com a moderação de conteúdo. Agora, a IA assume tarefas mais intensivas e repetitivas, como a identificação de imagens já conhecidas e a adaptação a novas estratégias usadas por agentes mal-intencionados. Já os especialistas humanos passam a atuar nos bastidores, focando em treinar os sistemas, avaliar resultados e tomar decisões mais sensíveis, como nos casos de apelação.
Nos testes iniciais, os resultados chamaram atenção. O novo sistema conseguiu dobrar a eficiência na detecção de conteúdos de assédio sexual em comparação com equipes tradicionais, além de reduzir a taxa de erro em mais de 60%. No combate a fraudes e perfis falsos — um problema crescente —, a tecnologia já consegue identificar cerca de 5 mil tentativas de golpe por dia, analisando sinais suspeitos como mudanças de localização e alterações de senha.
Outra novidade é a integração de um assistente inteligente baseado no Meta AI, que passa a oferecer suporte técnico 24 horas por dia para usuários do Facebook e Instagram, tornando o atendimento mais ágil e automatizado.
Essa iniciativa surge em um momento em que a Meta também vem flexibilizando algumas regras de conteúdo e testando modelos mais colaborativos de moderação, semelhantes ao que já é feito na plataforma X. Ao mesmo tempo, a empresa enfrenta pressão de órgãos reguladores ao redor do mundo, especialmente em questões relacionadas à proteção de adolescentes.
Do ponto de vista do mercado, essa movimentação vai além de uma simples redução de custos operacionais. Ela sinaliza uma transformação mais ampla na forma como as redes sociais lidam com segurança e governança. Com o avanço dos grandes modelos de linguagem e sistemas de IA, o controle das plataformas tende a ser cada vez mais automatizado — e a definição do que é permitido ou não passa a depender, em grande parte, da precisão desses algoritmos.
Em resumo, estamos entrando em uma nova fase da internet, onde a tecnologia não só organiza o conteúdo, mas também define os limites do que pode circular nas plataformas digitais.