A Comissão Europeia decidiu apertar a calibragem regulatória sobre o X (antigo Twitter) e abriu uma nova investigação focada na integração das funcionalidades do Grok — o sistema de inteligência artificial desenvolvido por empresas ligadas a Elon Musk — dentro da plataforma. Ao mesmo tempo, Bruxelas ampliou a apuração já em andamento sobre o sistema de recomendação de conteúdos do X, para verificar se o serviço cumpre, na prática, os deveres de gestão de risco exigidos pelo Digital Services Act (DSA).
Na engenharia de um ecossistema digital, o algoritmo é o motor e a gestão de risco é o conjunto de freios, sensores e testes de segurança. A preocupação da Comissão é objetiva: se o X avaliou corretamente — e se mitigou com diligência — os riscos sistêmicos associados à adoção do Grok como camada de produto e, potencialmente, como base de recomendação e distribuição de conteúdo. Em termos regulatórios, o ponto central é a obrigação de antecipar danos, reduzir sua probabilidade e limitar impactos quando esses riscos se materializam.
Segundo a Comissão, entre os riscos sob análise estão aqueles ligados à disseminação de conteúdos ilegais no território da União Europeia. O destaque mais sensível envolve a circulação de “imagens manipuladas com conotação sexual”, incluindo materiais que podem caracterizar abuso sexual infantil. Para o Executivo europeu, esses riscos “parecem ter se concretizado”, expondo cidadãos da UE a danos graves. A leitura de Bruxelas é que o problema deixou de ser teórico: o dano já teria encontrado tração no sistema, exigindo resposta proporcional.
Com base no DSA, a nova investigação vai checar se o X está cumprindo as obrigações de avaliar e mitigar riscos sistêmicos com o devido zelo. Entre os pontos que entram no escopo, a Comissão menciona: (i) a disseminação de conteúdo ilegal; (ii) efeitos negativos relacionados à violência de gênero; e (iii) consequências adversas relevantes para o bem-estar físico e mental decorrentes da implementação das funcionalidades do Grok na plataforma.
A ampliação da investigação sobre o algoritmo de recomendação do X, por sua vez, tem um gatilho específico: a própria rede social anunciou a intenção de migrar para um sistema baseado no Grok. Se confirmadas, as práticas sob suspeita podem violar diferentes artigos do DSA — uma lei que, na prática, redesenha o “design de segurança” esperado de plataformas muito grandes, impondo padrões de governança comparáveis aos de uma operação crítica.
Na preparação do caso, a Comissão afirma ter colaborado “de forma estreita” com o Coimisiún na Meán, o coordenador irlandês de serviços digitais, que também contribuirá com a apuração. A escolha é estratégica: a Irlanda tem papel central na supervisão de várias big techs por conta de sedes europeias estabelecidas no país.
Daqui para frente, Bruxelas seguirá coletando evidências por múltiplas vias: novas solicitações formais de informação, entrevistas e até inspeções. A Comissão também pode impor medidas provisórias caso entenda que o X não adotou remédios adequados. A abertura de um procedimento formal, além disso, dá base para decisões adicionais, incluindo uma potencial determinação de não conformidade com o DSA. Em paralelo, a Comissão pode aceitar compromissos que o X venha a assumir para corrigir os pontos investigados — desde que esses compromissos sejam verificáveis e efetivos, não apenas declarações de intenção.
O porta-voz para o Digital, Thomas Regnier, reforçou um elemento que pesa na avaliação de governança: nas relações enviadas pelo X à Comissão, o Grok “não aparece em lugar nenhum”. Para Regnier, isso sugere que a empresa “simplesmente não avaliou os riscos” vinculados à introdução do sistema de IA no ambiente do X. Ainda assim, ele acrescentou que o X está cooperando e respondendo às solicitações da Comissão — um sinal relevante, embora insuficiente por si só para encerrar a discussão regulatória.
Regnier também foi taxativo ao separar princípios que, no debate público, por vezes são misturados: a “remoção digital” de roupas de mulheres sem consentimento (uma referência a manipulações e deepfakes) não teria relação com liberdade de expressão. Em outras palavras, para a Comissão, não se trata de opinião ou crítica: trata-se de proteção contra danos e de cumprimento de deveres de diligência por parte de uma plataforma sistêmica.
Para o mercado, o recado é claro: a era em que inovação em IA podia ser “acelerada” sem instrumentação robusta de risco está ficando para trás. Na União Europeia, o DSA funciona como um dinamômetro regulatório: mede, exige correção e, se necessário, aplica penalidades para garantir que o motor algorítmico opere dentro de parâmetros de segurança e responsabilidade compatíveis com a escala do impacto social.






















