OpenAI enviou ao House Select Committee um documento detalhando preocupações estratégicas sobre a competição em inteligência artificial entre os Estados Unidos e a China. Assinada pela equipe da empresa liderada por Sam Altman, a nota descreve atividades que seriam indicativas de tentativas sistemáticas de distilação de modelos — técnica também chamada de model distillation — por parte de atores associados a um laboratório chinês identificado como DeepSeek.
Na prática, a distilação de modelos consiste em usar um sistema mais robusto como “professor” para treinar um modelo menor — o “aluno” — por meio da reprodução das saídas do modelo original. É uma técnica legítima de eficiência e engenharia de produto, mas ganha contornos controversos quando o conteúdo é extraído em larga escala de serviços proprietários sem autorização, reproduzindo capacidades protegidas a custos reduzidos.
Segundo o documento, a OpenAI detectou contas ligadas a funcionários do DeepSeek empenhadas em contornar restrições de acesso, mediante o uso de “obfuscated third-party routers” e outros mecanismos para mascarar a origem das requisições. A empresa afirma ainda ter encontrado evidências de desenvolvimento de código para acessar modelos de forma programática e coletar saídas em volume, com o objetivo explícito de alimentar processos de distilação.
A nota destaca que a maior parte dessa atividade adversária observada parece originar-se da China e, ocasionalmente, da Rússia. Apesar de citar a adesão pública da China a compromissos voluntários sobre segurança da IA, a OpenAI diz não ver publicações com evidências robustas de testes independentes e avaliações que comprovem tais compromissos na prática.
O documento também examina o tratamento de conteúdos sensíveis pelo DeepSeek, indicando que o laboratório aplica filtros em temas politicamente delicados dentro da China e que respostas geradas em certas consultas chegam a ser removidas. A análise enquadra a disputa como uma corrida por uma “IA democrática” frente a uma estratégia estatal chinesa que visa liderança global até 2030.
Como indicador do progresso desta competição, a OpenAI menciona o lançamento do modelo DeepSeek R1 no último Ano Novo Lunar e recorda que, em março de 2025, já havia enviado à mesma Comissão uma avaliação sobre as técnicas de distilação praticadas pelo laboratório. A atualização datada de 12 de fevereiro de 2026 acrescenta uma reconstrução tática das práticas observadas, apontando para uma possível nova geração de modelo ainda mais poderosa esperada para o próximo Ano Novo Lunar.
Em termos estratégicos, a mensagem da OpenAI ao Congresso combina preocupações técnicas — acesso programático, extração em massa e engenharia de modelos — com um alerta geopolítico sobre a infraestrutura e a energia como “pistas de corrida” que vão calibrar a velocidade de avanço da IA global. Para decisores, a lição é clara: sem uma calibragem regulatória e de segurança eficaz, os freios e aceleradores do mercado podem favorecer atores que operam à margem das normas internacionais.
Stella Ferrari
Economista Sênior, Espresso Italia — Observações sobre o motor da economia digital e a calibragem das políticas de tecnologia.






















