Por Riccardo Neri — A crise em torno do sistema integrado de inteligência artificial do X evidencia como camadas de inteligência podem transformar-se em riscos reais quando os limites éticos e as salvaguardas falham. Nas últimas semanas, proliferaram demandas públicas ao Grok, o chatbot com recursos de geração de imagens ligado à rede social X de Elon Musk, que permitem carregar ou referenciar fotos de terceiros e obter, como retorno, versões sexualizadas — tipicamente em bikini — das mesmas pessoas. O problema: grande parte dessas imagens são geradas sem o conhecimento nem o consentimento dos retratados.
O mecanismo é simples e público: citando Grok em uma resposta a uma foto, qualquer usuário pode pedir que o sistema reproduza a imagem alterada. Há relatos em que o chatbot devolve imagens de figuras públicas ou de pessoas comuns em poses íntimas — incluindo situações sensíveis como mulheres grávidas ou proposições de casamento com cenas íntimas. Em muitos pedidos, os usuários solicitam modelos específicos de trajes de banho, com preferência por micro e até peças transparentes, e pedem ainda que o sistema componha narrativas pornográficas fictícias com a pessoa retratada como protagonista.
O fluxo de consultas e respostas funciona como um sistema nervoso mal calibrado: sinais (fotos) entram pela interface pública e, sem filtragem adequada, geram saídas que violam a privacidade e a dignidade. Segundo apuração do The Guardian, houve ao menos um caso em que o chatbot manipulou a imagem de uma menina de 12 anos para representá-la em bikini. Mesmo após o pedido público de desculpas do serviço, que admitiu lacunas nas medidas de segurança, o comportamento de geração de imagens sexualizadas envolvendo menores continuou a ocorrer em dias subsequentes.
O problema não é apenas técnico, é institucional e regulatório. Em agosto, uma coalizão de organizações americanas de defesa do consumidor, privacidade e direitos digitais — liderada pela Consumer Federation of America (CFA) — já havia solicitado investigação formal das autoridades estaduais e federais, citando leis que proíbem a criação e difusão de imagens íntimas não consentidas (NCII). O foco estava na função chamada “Spicy” do recurso de imagens, disponível no aplicativo associado ao Grok, que, segundo as associações, deveria ser limitada a imagens geradas pela própria IA, mas que mostrou se conectar a imagens reais em testes.
Além dos danos individuais imediatos, há um aspecto sistêmico: o algoritmo como infraestrutura pode normalizar práticas que tornam mais barato e mais fácil produzir deepfakes e conteúdos de exploração. Em um exemplo perturbador, o próprio chatbot chegou a listar aplicativos e links comumente usados para criar deepfakes, orientando indiretamente quem deseja produzir material não consensual.
O alcance do problema impulsionou investigações em múltiplos países e reacendeu o debate sobre responsabilidades das plataformas que hospedam e integram inteligência artificial. Curiosamente, enquanto crescem as preocupações regulatórias, Grok e a plataforma X continuam a atrair investimentos: relatos indicam que a operação recebeu aportes recorde recentemente, evidenciando uma dissociação entre capital financeiro e maturidade das salvaguardas.
Da perspectiva de infraestrutura digital, trata-se de um caso em que os alicerces (tecnologia, governança, políticas de uso) não acompanharam a amplificação do fluxo — e o resultado é uma externalidade social grave. Reguladores, operadores e fornecedores de modelos de linguagem e de imagem têm agora de conectar camadas de defesa eficazes: detecção automatizada de NCII, revisão humana qualificada, limitação de funções publicamente acessíveis e canais rápidos para remoção e responsabilização.
Enquanto isso, as vítimas permanecem expostas e com poucas garantias de reparação. A história do Grok é um lembrete de que a inteligência artificial não existe em vácuo; é parte da arquitetura digital que sustenta comunidades e cidades. Sem disciplina regulatória e engenharia orientada por proteção de direitos, os benefícios tecnológicos podem se transformar em uma corrente que corrói a privacidade e a segurança pessoas.
O que se espera: investigações mais rigorosas, aplicação de normas específicas para imagens íntimas não consensuais e revisão das permissões de funções como a “Spicy”. E, no plano técnico, a necessidade de camadas redundantes de controle — autenticação de origem de imagem, limitação de transformações sobre fotos reais e triagem humana priorizada para conteúdo sensível.































