Por Marco Severini — A partir da próxima terça-feira, na Califórnia, abrir-se-á um processo de natureza inédita que testa os alicerces jurídicos e éticos do modelo de negócios das redes sociais. Na Corte Superior de Los Angeles, um júri popular terá a missão de avaliar se TikTok, Instagram e YouTube projetaram conscientemente suas plataformas para fomentar a dependência entre adolescentes, tornando-se responsáveis pelo agravamento da saúde mental desses jovens.
O caso, que funcionará como um processo-piloto por várias semanas, tem potencial para se converter em precedente decisivo para centenas de ações similares contra gigantes tecnológicos. Estão na mira as controladoras: ByteDance (TikTok), Meta (Instagram e Facebook) e Alphabet (YouTube). O fundador da Meta, Mark Zuckerberg, figura entre os executivos convocados, embora sua presença pessoal ainda seja incerta.
O processo começa com um longo procedimento de seleção do júri antes do início dos debates, previsto para o começo de fevereiro. O caso representativo é o de uma jovem californiana de dezenove anos, identificada pelas iniciais ‘K.G.M.’, cuja trajetória de uso das plataformas — YouTube desde os seis anos, Instagram aos onze, Snapchat aos treze e TikTok aos quatorze — é apresentada pelos advogados como ilustração de um padrão de estrutura de produto concebido para promover o consumo compulsivo. Ela relata quadro de depressão, ansiedade e transtornos de imagem corporal.
Do lado dos que processam, o argumento central procura contornar a proteção prevista na Seção 230 do Communications Decency Act de 1996, que exime, em larga medida, plataformas de responsabilidade pelo conteúdo publicado por usuários. Em vez de atacar os conteúdos isolados, os demandantes miram o desenho das plataformas: algoritmos, funções de personalização e mecanismos de “scroll” e reprodução automática que incentivam o consumo contínuo. A tese jurídica é clara e estratégica — responsabilizar o design do produto, não apenas a moderação de conteúdos.
Snap Inc., editora do Snapchat, optou por um acordo confidencial poucos dias antes do início do julgamento, embora permaneça sujeita a outros processos. “É a primeira vez que as redes sociais enfrentam um júri por danos causados a crianças”, observa Matthew Bergman, fundador do Social Media Victims Law Center, cuja equipe administra mais de 1.000 casos semelhantes. Bergman realça que o simples fato de uma família comum sentar-se à mesa de um tribunal contra corporações extraordinariamente ricas e poderosas já configura um resultado simbólico.
Do ponto de vista da defesa, as plataformas sustentam que suas funções constituem expressão e facilitação de comunicação, protegidas pela Seção 230, e que a responsabilidade por uso problemático recai também sobre famílias e instituições. No plano estratégico, porém, os demandantes deslocam o tabuleiro: não se trata apenas de moderar conteúdo, mas de questionar se o próprio mecanismo de engajamento foi arquitetado para explorar vulnerabilidades psicológicas.
Como analista que observa a tectônica de poder entre Estado, sociedade e corporações digitais, vejo neste processo um movimento decisivo no tabuleiro regulatório. Se os jurados reconhecerem que o design teve papel causal nos danos, o veredito pode provocar um redesenho de fronteiras invisíveis: maiores exigências de responsabilidade de produto, pressão regulatória e mudanças nos modelos de receitas publicitárias baseados em engajamento. A estabilidade das relações de poder — entre empresas tecnológicas, legisladores e famílias — poderá sofrer rearranjos substanciais.
Este cenário exige atenção calma e estratégia: não é uma batalha de manchetes, é um jogo de xadrez jurídico e político cujos movimentos moldarão a governança das redes sociais nas próximas décadas.






















