A restrição de determinadas funcionalidades do Roblox voltadas a crianças no Brasil não é apenas uma decisão de políticas públicas; é, acima de tudo, um movimento regulatório que acompanha uma racionalidade já consolidada nos Estados Unidos há mais de duas décadas. O Brasil começa a aplicar, ainda de forma fragmentada, uma lógica próxima à COPPA e, sobretudo, à COPPA Rule, centrada no desenho do serviço, na idade do usuário e na capacidade de controle demonstrável.
Nos EUA, a proteção de crianças no ambiente digital não é tratada como uma extensão genérica do direito à privacidade. A COPPA estabelece um modelo objetivo: aplica-se a serviços direcionados a menores de 13 anos e também a serviços de público geral quando o operador tem conhecimento de que está coletando informações pessoais de uma criança. O eixo não é “qualquer dado”, mas a combinação entre idade, características do serviço e o tratamento de informações pessoais conforme definido pela regulação.
Quando esses elementos estão presentes, a regra é direta: antes de coletar, usar ou divulgar informações pessoais de crianças, o operador deve fornecer aviso adequado e obter consentimento parental verificável, obtido por método razoavelmente desenhado para assegurar que quem consente é o responsável. Não basta informar; é preciso demonstrar governança e lastro probatório. Esse ponto é essencial para entender o caso Roblox, especialmente em plataformas com alto grau de interação social, como jogos com chat, que estimulam a produção constante de informação pela própria criança.
A COPPA trata esse desenho como parte do risco regulatório, inclusive quando o serviço permite que a criança torne informações públicas. Se o ambiente for muito aberto, o ônus de demonstrar controle efetivo sobre quem participa, como os dados circulam e quem pode acessá-los, aumenta significativamente — sobretudo sobre o que a própria criança expõe.
A ponte com a LGPD não é feita por equivalência literal, mas pela lógica de accountability aplicada ao desenho do serviço. A LGPD privilegia o melhor interesse e impõe regras específicas para crianças, com consentimento específico de pelo menos um dos pais ou responsável legal, em situações que exigem proteção diferenciada. A convergência acontece quando a arquitetura do serviço amplia o risco e dificulta a sustentação de um consentimento válido, elevando o foco no design regulatório em vez de apenas na privacidade genérica.
Um dos grandes desafios operacionais é demonstrar um consentimento parental robusto em serviços com centenas de milhões de usuários. A COPPA já mostrou que, quando esse controle não é viável, a prática comum é a limitação de funcionalidades, não por censura, mas como gestão de risco jurídico e reputacional. O Brasil, por sua vez, avança rumo a um “ECA Digital”, buscando preencher lacunas pela tutela online, enquanto a LGPD já oferece fundamentos para intervenções regulatórias baseadas no desenho do serviço, especialmente quando funcionalidades ampliam o volume e a sensibilidade contextual do tratamento de dados.
O caso Roblox deixa claro que a discussão central não é se crianças devem ou não estar em plataformas digitais, mas se tais plataformas conseguem sustentar juridicamente o modo como foram desenhadas. Em um cenário de convergência regulatória global, a mensagem é inequívoca: quem cria ambientes digitais para crianças precisa assumir, técnica e juridicamente, os riscos que esse desenho produz. Quando isso não ocorre, a limitação funcional pode tornar-se regra.