Diante de uma pressão regulatória cada vez mais intensa e de controvérsias relacionadas à segurança, a Meta anunciou em 24 de janeiro de 2026 que irá suspender temporariamente, nas próximas semanas, o acesso de adolescentes em todo o mundo ao recurso de “Personagens de IA” (AI Characters). A medida tem como objetivo ganhar tempo para o desenvolvimento de uma nova versão voltada especificamente para menores de idade, com controles parentais mais robustos. Durante esse período, todos os usuários que, de acordo com os dados de cadastro, sejam menores de idade ou que sejam identificados como possivelmente adolescentes pelos sistemas de detecção da Meta terão o acesso restrito.

Apesar disso, o recurso de “Assistente de IA” continuará disponível, acompanhado de mecanismos de proteção adequados à faixa etária. Já as interações altamente humanizadas com personagens de IA serão totalmente desativadas. A Meta informou que as novas ferramentas em desenvolvimento permitirão que pais e responsáveis monitorem e gerenciem em tempo real o conteúdo das conversas de seus filhos com a IA. A nova versão também seguirá critérios de filtragem de conteúdo inspirados na classificação indicativa PG-13 do cinema.
A decisão foi motivada diretamente por um escândalo envolvendo documentos internos revelados no verão de 2025. Segundo reportagens da Reuters e de outros veículos, algumas regras internas da Meta permitiam que chatbots de IA mantivessem conversas com tom “provocante” ou “romântico” com menores em determinados cenários, incluindo descrições inadequadas sobre a aparência de crianças. As revelações provocaram forte reação da Comissão Federal de Comércio dos EUA (FTC) e de procuradores-gerais de diversos estados, que iniciaram investigações contra a empresa.
A estratégia agressiva de “primeiro suspender, depois atualizar” adotada pela Meta é vista como uma tentativa de encontrar um equilíbrio entre inovação tecnológica e conformidade legal. A empresa reforçou que a medida não representa um abandono da área de socialização por meio de IA, mas sim um esforço para recuperar a confiança de pais e reguladores por meio de uma gestão mais rigorosa e de ferramentas de supervisão mais transparentes.