Por Stella Ferrari — Em nova escalada entre figuras públicas e empresas de tecnologia, Ashley St. Clair, escritora e comentarista política, ingressou com uma ação judicial contra a empresa de inteligência artificial xAI, fundada por Elon Musk. O processo, apresentado em um tribunal de Nova York, alega que o chatbot Grok gerou e divulgou deepfakes de conteúdo sexual que representam St. Clair sem o seu consentimento — incluindo imagens digitais baseadas em fotografias remontantes à sua adolescência.
Segundo a petição, o sistema da xAI teria sido instrumentalizado para humilhar e explorar sexualmente vítimas ao produzir material explícito sob demanda. St. Clair, que tem 27 anos e é mãe de um dos filhos de Musk, afirma que usuários pediram ao Grok que “desvestisse” digitalmente fotos suas, algumas das quais datam de quando tinha apenas 14 anos, recolhidas de perfis públicos em redes sociais.
Em resposta às críticas públicas, a xAI anunciou ter implementado novos filtros destinados a bloquear a geração de imagens de pessoas reais em roupas sugestivas. A empresa descreveu a medida como uma calibragem necessária para impedir abusos — mas, para St. Clair, trata‑se de um mero e tardio controle de danos. Ela sustenta que o sistema continuou a produzir conteúdo degradante mesmo após notificações formais e apelos públicos.
Elon Musk interveio pela plataforma X, negando conhecimento de imagens pedopornográficas ou outras ilicitudes geradas por Grok, e reiterando que a conduta operacional da companhia é pautada pelo cumprimento das leis locais. A disputa entre as partes ganhou um tom ainda mais pessoal após Musk declarar sua intenção de pedir a guarda exclusiva do filho em comum.
Do ponto de vista reputacional e regulatório, este episódio é um lembrete da necessidade de calibragem fina nas políticas de moderção e segurança de sistemas de IA: tecnologias de alto desempenho exigem freios robustos para evitar que ‘motores’ potentes causem danos colaterais. A situação também evidencia riscos legais crescentes para empresas de tecnologia quando ferramentas automáticas são empregadas para criar conteúdo manipulado.
O processo em Nova York não apenas exige reparação para St. Clair, mas também coloca em evidência questões que extrapolam o caso individual: responsabilidade civil de plataformas, diligência na retirada de conteúdos ilícitos e a urgência de controles técnicos que previnam a geração de deepfakes prejudiciais. Advogados consultados por fontes de mercado indicam que uma decisão judicial poderá servir como referência para futuras demandas envolvendo produtos de IA generativa.
Enquanto isso, a xAI diz que revisará continuamente seus filtros e mecanismos de segurança. Para analistas, o desafio é equilibrar inovação e proteção — uma espécie de design de políticas similar à engenharia automotiva, onde desempenho e segurança devem ser projetados em conjunto, não em oposição.
Esta disputa seguirá acompanhada de perto por investidores, reguladores e executivos de tecnologia: a velocidade da adoção de IA generativa exige uma calibragem de governança tão precisa quanto a de um motor de alta performance — sem a qual, riscos legais e danos reputacionais podem comprometer o valor criativo e econômico das empresas envolvidas.
Stella Ferrari — Economia & Desenvolvimento, Espresso Italia






















