A autoridade reguladora de mídia do Reino Unido, Ofcom, anunciou a abertura de uma investigação formal sobre a criação e disseminação de imagens sexualmente explícitas — inclusive envolvendo menores — geradas pelo chatbot de inteligência artificial Grok, integrado à plataforma X, propriedade de Elon Musk. A apuração visa esclarecer se o serviço violou as disposições do Online Safety Act, a legislação britânica destinada a conter conteúdos danosos e em particular a proteger crianças e adolescentes.
No comunicado oficial, a Ofcom aponta que a decisão decorre de “sinalizações muito preocupantes” sobre a produção e partilha de imagens de pessoas nuas, com menção explícita a mulheres e menores. Tais práticas podem constituir infração às normas nacionais contra abusos online e à legislação sobre pedopornografia. Em caso de constatação de violação, a autoridade tem poderes para exigir medidas corretivas específicas, além de aplicar sanções financeiras severas: multas que podem chegar a 18 milhões de libras ou a 10% do faturamento mundial de empresas de grande porte como o X.
O anúncio surge em sequência a uma reprimenda pública do governo do primeiro-ministro Keir Starmer, que qualificou como “repugnantes” os deepfakes gerados pela IA e cobrou uma ação imediata da direção da plataforma. A União Europeia igualmente manifestou desaprovação diante das permissões concedidas ao uso do chatbot, considerando insuficiente a decisão da empresa de limitar a edição de imagens apenas a assinantes. Bruxelas manteve a exigência de que a difusão de deepfakes prejudiciais seja interrompida por completo.
Do ponto de vista jurídico, a investigação da Ofcom abre um capítulo significativo na chamada tectônica de poderes entre reguladores e grandes provedores de tecnologia: trata-se de um movimento decisivo no tabuleiro em que se definem responsabilidades de moderação, desenho de sistemas de IA e proteção de menores. A possibilidade de imposição de medidas obrigatórias demonstra que os alicerces da diplomacia regulatória estão a se reforçar contra práticas que externalizam riscos sociais.
Para os operadores de modelos generativos, o episódio representa um teste de governança. A questão central é simples, embora complexa em aplicação: até que ponto uma plataforma é responsável pelo uso indevido de suas ferramentas de inteligência artificial? A resposta influenciará não apenas a trajetória do X e do Grok, mas também o desenho de salvaguardas técnicas e contratuais em toda a indústria.
Na leitura estratégica, é previsível que a investigação pressione a empresa a adotar filtros mais rigorosos, controles de acesso e auditorias independentes sobre seu modelo. Para o governo britânico e para a União Europeia, há um imperativo de mostrar que a proteção de menores e a integridade do espaço informacional não são variáveis descartáveis em nome da inovação.
Enquanto a apuração prossegue, o movimento ressalta uma mudança estrutural: a regulamentação digital passou de um papel reativo para um papel proativo, com instrumentos capazes de impor consequências econômicas e reputacionais reais. É um redimensionamento do jogo de poder entre Estados e plataformas, que redesenha fronteiras invisíveis entre liberdade de expressão, segurança pública e dever de cuidado.
Marco Severini
La Via Italia — Análise em geopolítica e estratégia






















