Anthropic e ilhas de poder bélico: segundo relatos do Wall Street Journal reproduzidos pela imprensa, o Pentágono teria recorrido ao sistema de inteligência artificial Claude, da empresa Anthropic, em operações contra o Irã apenas algumas horas depois do decreto presidencial que, em 27 de fevereiro de 2026, proibiu o uso das ferramentas da companhia por agências federais.
Fontes indicam que a versão de Claude empregada pelo Central Command dos Estados Unidos apoiou tarefas de análise de inteligência, identificação de alvos e simulações de combate durante os raids aéreos conjuntos com Israel. A ação ocorre num contexto em que o presidente Donald Trump classificara a Anthropic como uma “empresa de IA de esquerda radical” poucas horas antes, intensificando uma disputa já acesa entre governo e fornecedor.
O núcleo do conflito é claramente técnico e contratual, mas tem profundas implicações éticas e logísticas. A Anthropic, liderada pelo CEO Dario Amodei, mantém cláusulas contratuais que proíbem o uso de Claude em armas autônomas e em programas de vigilância massiva contra cidadãos norte-americanos. Já o Departamento de Defesa exige, nas negociações, acesso para “todos os fins legais” — expressão que, no jargão institucional, amplia enormemente o leque de aplicações possíveis em operações militares.
O contrato em jogo vale cerca de 200 milhões de dólares e foi colocado em risco pela escalada retórica: o secretário de Defesa Pete Hegseth chegou a ameaçar revogar o acordo e classificar a empresa como “risco para a cadeia de aprovisionamento” caso não cedesse às demandas do Pentágono até o final de fevereiro de 2026.
Não é a primeira vez que tensões desse tipo emergem. Documentos e reportagens anteriores, incluindo investigação do Washington Post, apontam para o uso de Claude em uma operação destinada à captura do presidente venezuelano Nicolás Maduro. Após esse episódio, a Anthropic ofereceu garantias escritas contra usos proibidos, mas Dario Amodei recusou pedidos que, segundo ele, violariam os princípios éticos da empresa. A profundidade da integração de Claude nas rotinas operativas militares torna o processo de descontinuação — o chamado “fase out” — logisticamente complexo, com estimativas internas apontando para até seis meses até a completa desvinculação.
O episódio teve efeitos colaterais no mercado: dois dias depois da ordem presidencial, a aplicação de Claude alcançou o primeiro lugar no ranking de downloads gratuitos da App Store dos EUA, em 28 de fevereiro de 2026, superando pela primeira vez o ChatGPT. Executivos da Anthropic confirmaram um pico histórico de downloads e uma triplicação nas inscrições diárias nos últimos quatro meses. A visibilidade pública foi ampliada ainda por personalidades como a cantora Katy Perry, que compartilhou nas redes sociais um screenshot do download da versão pro de Claude.
Do ponto de vista de infraestrutura digital e geopolítica, o caso ilustra a tensão entre a necessidade operacional dos atores estatais e os limites éticos definidos por fornecedores de tecnologia. A analogia é instrutiva: quando conteúdos e fluxos de dados se tornam parte do “sistema nervoso” de uma força militar, desligar um componente não é apenas uma decisão política, é uma operação de engenharia que afeta rotinas, interoperabilidade e dependências críticas — os alicerces digitais que sustentam ações reais em campo.
Em suma, o episódio expõe uma questão de arquitetura institucional: como conjugar princípios éticos para o uso da inteligência artificial com exigências de segurança nacional, sem fragilizar a cadeia de aprovisionamento nem abrir precedentes de uso que possam corroer salvaguardas democráticas. A resolução desse impasse determinará não apenas o futuro contratual entre o Pentágono e a Anthropic, mas também como as camadas de inteligência tecnológicas serão integradas — ou segregadas — nas operações que modelam a estabilidade regional e a segurança europeia.






















