Por Marco Severini — A tensão entre Anthropic, uma das mais visíveis empresas de inteligência artificial (IA) dos Estados Unidos, e o Pentágono consolidou-se em um confronto que ultrapassa a tecnicidade e assume contornos políticos e institucionais. Em termos de geopolítica tecnológica, trata-se de um movimento decisivo no tabuleiro: quem definirá os alicerces do emprego de modelos de linguagem avançados em operações de defesa?
Reportagens do Washington Post colocaram no centro da disputa uma narrativa divergente sobre um episódio recente: a hipótese extrema de um ataque nuclear contra os EUA e a possibilidade de usar o chatbot Claude para auxiliar na interceptação de um míssil balístico intercontinental (ICBM). Segundo fonte do Departamento de Defesa citada pelo jornal, o chefe de tecnologia do Pentágono teria perguntado diretamente se, no caso de um ICBM lançado contra os EUA, as forças armadas poderiam recorrer ao Claude para ajudar a abatê-lo.
Do lado da empresa, a resposta atribuída ao CEO Dario Amodei — “Podem nos ligar e trabalhamos juntos” — teria irritado responsáveis militares. A Anthropic, contudo, nega a versão e qualificou o relato como “manifestamente falso”, afirmando ainda que aceitou o uso do Claude em contextos de defesa antimisseis. Nesta cortina de desconfiança, um segundo episódio citado pelo Pentágono — o eventual uso do modelo em operações relacionadas à captura do líder venezuelano Nicolás Maduro — também teria alimentado a ruptura.
O impasse ganhou tom mais níveo após um encontro cara a cara entre Dario Amodei e o secretário à Defesa, Pete Hegseth. A partir daí, a disputa deixou de ser apenas técnica e passou a ser sobre autoridade: quem terá a última palavra — o governo, que reivindica a liberdade de empregar a IA para “todos os fins lícitos”, ou o fornecedor privado, que invoca limites contratuais e linhas éticas intransponíveis?
O Pentágono emitiu um ultimato, segundo o veículo: a Anthropic teria até as 17:01 do dia referido para retirar objeções ao uso do Claude em relação a armas autônomas e formas de vigilância em massa sobre cidadãos norte-americanos. Caso contrário, autoridades avaliam recorrer a poderes governamentais para compelir a entrega da tecnologia ou até excluir a empresa de futuros contratos de defesa.
Em comunicado público, o porta-voz do Pentágono, Sean Parnell, reafirmou que o Departamento “não tem interesse” em conduzir vigilância doméstica massiva nem em empregar armas totalmente autônomas, mas defendeu o uso da IA para “todos os fins lícitos”. A argumentação do Pentágono, em sua essência, é prática: prevenir que objeções corporativas coloquem em risco operações militares críticas e a vida de militares em serviço.
Como analista de relações internacionais, observo que este episódio não é apenas uma contenda legal ou contratual. É uma batalha por precedentes normativos que moldarão a arquitetura da segurança tecnológica nas próximas décadas. Entre soberania do Estado e autonomia do setor privado, desenha-se um redirecionamento da tectônica de poder: contratos, cláusulas de emergência e, potencialmente, prerrogativas legais emergenciais se tornarão peças cruciais no novo jogo.
Ao mesmo tempo, há um ingrediente reputacional e comercial. Para empresas de IA como a Anthropic, ceder sem salvaguardas pode comprometer princípios éticos e a confiança de clientes civis e acadêmicos; resistir, por sua vez, pode resultar em exclusão de mercados governamentais centrais. É uma jogada de alto risco em um tabuleiro em que as fronteiras — reais e normativas — estão sendo invisivelmente redesenhadas.
O episódio ilustra, por fim, que tecnologia e poder não convivem em vazio institucional: requerem arquitetura política, regras de emergência e um diálogo estratégico calibrado entre Estado e setor privado. Como nas grandes construções da antiguidade, se os alicerces forem frágeis, o edifício não resistirá às primeiras estresses. Resta saber se o próximo movimento será conciliador, jurídico ou coercitivo — e qual mapa de influência sofrerá alteração em consequência.






















