O Tribunal Superior da Califórnia abriu um julgamento que reúne mais de 800 ações contra Meta e Google, acusando as empresas de criar produtos viciante que prejudicam crianças e adolescentes. O caso, considerado histórico, pode estabelecer um precedente jurídico de alcance internacional, similar aos processos contra a indústria do tabaco nos anos 90. Seu desfecho pode influenciar regulações digitais no Brasil e pressionar empresas de TI a repensarem estratégias de engajamento e proteção de dados.
Depoimentos de alto impacto foram colhidos na audiência, incluindo a participação de Mark Zuckerberg e Adam Mosseri sob juramento. E-mails datados de 2014 e 2015 sugerem objetivos explícitos de aumentar o tempo de uso de redes como o Instagram, com metas de crescimento de dois dígitos, reforçando o debate sobre o desenho de algoritmos e a rolagem infinita. Advogados da acusação questionaram decisões de design, levando em conta estudos internos que apontavam impactos negativos na saúde mental de jovens usuários.
Especialistas em direito digital comparam o caso aos históricos processos da indústria do tabaco, onde documentos internos demonstraram conhecimento dos riscos e omissão de informações ao público. TikTok e Snapchat, inicialmente incluídos, optaram por acordos confidenciais, sinalizando a gravidade das acusações e a dificuldade de defesa das grandes plataformas frente a exposições técnicas complexas.
No Brasil, o debate ganha peso com a existência de marcos como o ECA Digital, LGPD e CDC. Uma eventual condenação nos EUA pode acelerar a aplicação dessas normas, levando empresas de TI a revisarem políticas de moderação de conteúdo, controles parentais e a exigirem auditorias independentes sobre algoritmos e dados utilizados para personalização. A governança de dados passa a exigir documentação de decisões e avaliações de impacto sobre a saúde mental de usuários jovens.
Independentemente do resultado, o julgamento sinaliza uma tendência global de regulação mais dura de plataformas digitais. A União Europeia, por meio do Digital Services Act, já impõe maior transparência algorítmica e proteção a menores; empresas brasileiras com atuação internacional devem adiantar medidas de privacy by design, avaliações de impacto de direitos de crianças e adolescentes e implementação de comitês de ética para revisão de funcionalidades, visando reduzir riscos jurídicos e preservar reputação.