Roblox anunciou uma mudança significativa nas suas camadas de segurança: a plataforma passará a exigir verificação de idade por meio de reconhecimento facial para acessar funcionalidades de chat. A medida, apresentada pela empresa como resposta a críticas reiteradas sobre a exposição de menores, entra em vigor em etapas: a partir de dezembro para Austrália, Nova Zelândia e Países Baixos, e a partir de janeiro para o restante do mundo.
Como funciona o novo sistema
Segundo o anúncio, todos os usuários que utilizarem recursos de comunicação precisarão passar por um controle obrigatório de idade. O sistema realizará uma varredura facial para estimar a faixa etária do jogador e, na sequência, restringirá as conversas a usuários dentro de faixas etárias semelhantes. Na prática, isso significa que jogadores identificados como mais velhos não poderão trocar mensagens em chat com quem estiver fora da faixa etária designada.
Contexto e motivação
A decisão ocorre depois de episódios que expuseram falhas de moderação e permitiram que públicos muito jovens tivessem acesso a conteúdos inadequados ou a interações com adultos. Em 2024 a plataforma registrou em média mais de 80 milhões de jogadores diários, sendo cerca de 40% deles menores de 13 anos. Esses números explicam a pressão pública e legal sobre a companhia.
Implicações jurídicas e de privacidade
Roblox já enfrenta processos nos Estados Unidos — em estados como Texas, Kentucky e Louisiana — relacionados a alegações de falhas na proteção de menores. Além do aspecto de segurança, a introdução de tecnologia biométrica traz implicações regulatórias, especialmente na União Europeia, onde o tratamento de dados biométricos é classificado como de alto risco sob o escopo do GDPR. A adoção dessa camada digital reabre o debate sobre o equilíbrio entre proteção infantil e riscos de privacidade num ambiente que funciona como um dos alicerces digitais das interações sociais de jovens.
Avaliando a medida com pragmatismo técnico
Do ponto de vista de engenharia de sistemas, trata-se de um ajuste na arquitetura de confiança da plataforma: um filtro biométrico que atua como uma espécie de separador de tráfego, reduzindo o risco de comunicação cruzada entre faixas etárias. No entanto, métodos de estimativa etária por imagem possuem margens de erro e implicam coleta e processamento de dados sensíveis — elementos que exigem governança robusta, transparência sobre modelos e salvaguardas claras sobre armazenamento e retenção.
Em termos práticos, a novidade representa um movimento em direção à segmentação mais rígida dos canais de comunicação no ecossistema do jogo. Para famílias e operadores regulatórios na Itália e na Europa, isso significa acompanhar não só a eficácia do bloqueio, mas também as políticas de consentimento, auditoria independente e a interoperabilidade com normas locais.
Conclusão
A medida da Roblox é um exemplo de como camadas de inteligência — aqui, biometria aplicada à segurança — são integradas à infraestrutura das plataformas para mitigar riscos sociais concretos. Resta observar se essa camada adicional irá reduzir efetivamente os incidentes apontados ou se criará novos desafios regulatórios e técnicos que terão de ser resolvidos nos próximos trimestres.






















