Relatos do Wall Street Journal, replicados por diversos veículos, apontam que o Pentágono teria acionado o sistema de inteligência artificial Claude, da empresa Anthropic, em operações contra o Irã poucas horas após o presidente Donald Trump ter assinado um decreto — em 27 de fevereiro de 2026 — que ordenava a todas as agências federais a interrupção do uso de ferramentas da Anthropic.
De acordo com as mesmas apurações, a IA do Central Command norte-americano teria sido empregada para apoiar análises de inteligência, identificação de alvos e simulações de batalha durante os raids aéreos conjuntos entre EUA e Israel. A utilização do sistema ocorreu em um contexto de elevada tensão política: horas antes, Trump havia qualificado a Anthropic como uma “empresa de IA de esquerda radical”.
O conflito entre a companhia e o Departamento de Defesa gira em torno de limites éticos sobre o emprego de inteligência artificial em ambientes militares, com um contrato de cerca de 200 milhões de dólares em jogo. A Anthropic, liderada pelo CEO Dario Amodei, proíbe explicitamente o uso do Claude para armamento autônomo ou vigilância em massa de cidadãos norte-americanos. O Pentágono, por sua vez, tem exigido acesso amplo, para “todos os propósitos lícitos”.
O secretário à Defesa, Pete Hegseth, chegou a ameaçar revogar o contrato e rotular a empresa como um “risco para a cadeia de aprovisionamento” caso as condições não fossem atendidas até o final de fevereiro de 2026. Fontes consultadas indicam que as tensões aumentaram nos meses anteriores, após a revelação — pelo Washington Post — do uso do Claude em uma operação destinada à captura do presidente venezuelano Nicolás Maduro.
A Anthropic afirma ter recusado propostas do Pentágono que incluíam garantias contratuais escritas contra usos para vigilância e armamento autônomo. Para Dario Amodei, essas salvaguardas não afastavam o risco ético central e, portanto, foram rejeitadas. A integração profunda do Claude nas rotinas de análise e comando complica um eventual processo de descontinuação (“phase out”), estimado em cerca de seis meses para ser plenamente efetivo.
O impacto público do conflito também foi imediato. Após as notícias sobre a utilização do Claude nas ações contra o Irã, o aplicativo do sistema atingiu o primeiro lugar no ranking gratuito da App Store dos EUA em 28 de fevereiro de 2026, ultrapassando pela primeira vez o ChatGPT. Um porta-voz da Anthropic confirmou tratar-se do recorde histórico de downloads, com inscrições diárias triplicando nos últimos quatro meses.
A dimensão cultural do episódio veio expressa nas redes: a cantora Katy Perry compartilhou um screenshot do download da versão Pro do Claude, em meio ao debate público entre a empresa e o presidente Trump.
Do ponto de vista da infraestrutura política e tecnológica, trata-se de um momento revelador sobre como camadas de inteligência artificial estão se tornando alicerces digitais das operações de defesa, ao mesmo tempo em que expõem fricções entre ética, soberania e necessidade operacional. A história ilustra que, na prática, o “sistema nervoso” das cidades e das tropas modernas — esse fluxo de dados e decisões automatizadas — cresce mais rápido que os acordos públicos sobre seus limites.
Acompanhar essa evolução exige clareza analítica: entender onde termina a ferramenta de apoio e onde começa a responsabilidade humana. Na interface entre empresas privadas e os mecanismos de segurança do Estado, a discussão sobre controles, transparência e prazos de transição se mostra cada vez mais urgente.






















