Mark Zuckerberg depôs em 18 de fevereiro de 2026 perante um júri do Tribunal Superior do Condado de Los Angeles em um caso civil que alega que o Instagram foi projetado para criar dependência em menores, com consequências para a saúde mental. A audiência, primeira com o CEO da Meta em pessoa sobre segurança das plataformas, traz ao centro o debate sobre responsabilidade das empresas digitais enquanto infraestrutura social.
O processo-piloto foi movido por Kaley G.M., hoje com 20 anos e natural de Chico, Califórnia. A autora afirma que começou a usar o Instagram aos 9 anos e que o uso precoce agravou sua depressão e pensamentos suicidas. Em trajes formais, Zuckerberg defendeu a empresa com tom combativo: negou a existência de metas internas para maximizar o tempo gasto por menores no aplicativo e afirmou que pessoas under-13 não deveriam ter acesso — embora tenha reconhecido dificuldades em controlar o problema.
Nos depoimentos, o CEO admitiu um dado chave: cerca de 4 milhões de usuários com menos de 13 anos acessavam o Instagram em 2018 (equivalente a aproximadamente 30% das crianças de 10 a 12 anos nos EUA), muitas vezes por terem informado idade falsa ao se cadastrar. Zuckerberg também afirmou que adolescentes representariam menos de 1% das receitas da Meta.
Além do processo contra a Meta, há ações contra outras plataformas: Google/YouTube também foi citada; TikTok e Snapchat já firmaram acordos. O veredicto nesse caso exigirá concordância de 9 dos 12 jurados e pode levar a indenizações milionárias e a mudanças profundas no design das redes sociais — por exemplo, restrições a elementos apontados como “designs aditivos”, como autoplay e rolagem infinita.
O julgamento é analisado por especialistas como um momento potencialmente transformador para regulamentação dos serviços digitais nos EUA. Há mais de 1.600 processos semelhantes consolidados, com mais de 350 famílias e 250 distritos escolares como autores. Grande parte do impacto prático dependerá do resultado desse processo-piloto; espera‑se que o veredito leve semanas.
Do ponto de vista documental, o caso guarda paralelos notáveis com as ações contra a indústria do tabaco nos anos 1990: em ambos os episódios, a acusação sustenta que corporações desenvolveram produtos com elementos deliberadamente viciantes para maximizar lucros, mesmo sabendo dos riscos à saúde pública entre jovens. Nos processos do tabaco, documentos internos mostraram manipulação da nicotina e marketing direcionado a adolescentes. Aqui, e-mails e estudos internos da Meta, datados entre 2013 e 2022, apontam para o uso de algoritmos e mecânicas de produto (como infinite scroll e autoplay) projetadas para manter adolescentes diante da tela.
Como analista de infraestrutura digital, vejo nesse litígio a colisão entre camadas técnicas e responsabilidades sociais: os algoritmos funcionam como parte do sistema nervoso das plataformas, definindo fluxos de atenção que repercutem na saúde pública. Se a corte concluir que o design contribuiu intencionalmente para dano, as mudanças exigidas serão arquitetônicas — não simbólicas — e vão alterar os alicerces digitais sobre os quais comunidades e serviços urbanos se apoiam.
O desfecho desse processo não será apenas um capítulo jurídico: será um teste sobre até que ponto a sociedade exige transparência, limites e uma arquitetura de produto que incorpore a proteção de menores como requisito de engenharia. Enquanto isso, desenvolvedores, reguladores e gestores de cidades inteligentes observam atentamente, porque políticas sobre plataformas reverberam na gestão da educação, saúde pública e nas infraestruturas informacionais das nossas sociedades.






















