Pentágono teria usado Anthropic Claude em ataques ao Irã, revelam reportagens

Relatos dizem que o Pentágono usou o Claude da Anthropic em ataques ao Irã, elevando disputa ética e risco ao contrato de US$200M.

Pentágono teria usado Anthropic Claude em ataques ao Irã, revelam reportagens

RESUMO ✦

Sem tempo? A Lili IA resume para você

Gerando resumo com IA...

Pentágono teria usado Anthropic Claude em ataques ao Irã, revelam reportagens

Relatos do Wall Street Journal, replicados por diversos veículos, apontam que o Pentágono teria acionado o sistema de inteligência artificial Claude, da empresa Anthropic, em operações contra o Irã poucas horas após o presidente Donald Trump ter assinado um decreto — em 27 de fevereiro de 2026 — que ordenava a todas as agências federais a interrupção do uso de ferramentas da Anthropic.

De acordo com as mesmas apurações, a IA do Central Command norte-americano teria sido empregada para apoiar análises de inteligência, identificação de alvos e simulações de batalha durante os raids aéreos conjuntos entre EUA e Israel. A utilização do sistema ocorreu em um contexto de elevada tensão política: horas antes, Trump havia qualificado a Anthropic como uma "empresa de IA de esquerda radical".

O conflito entre a companhia e o Departamento de Defesa gira em torno de limites éticos sobre o emprego de inteligência artificial em ambientes militares, com um contrato de cerca de 200 milhões de dólares em jogo. A Anthropic, liderada pelo CEO Dario Amodei, proíbe explicitamente o uso do Claude para armamento autônomo ou vigilância em massa de cidadãos norte-americanos. O Pentágono, por sua vez, tem exigido acesso amplo, para "todos os propósitos lícitos".

O secretário à Defesa, Pete Hegseth, chegou a ameaçar revogar o contrato e rotular a empresa como um "risco para a cadeia de aprovisionamento" caso as condições não fossem atendidas até o final de fevereiro de 2026. Fontes consultadas indicam que as tensões aumentaram nos meses anteriores, após a revelação — pelo Washington Post — do uso do Claude em uma operação destinada à captura do presidente venezuelano Nicolás Maduro.

A Anthropic afirma ter recusado propostas do Pentágono que incluíam garantias contratuais escritas contra usos para vigilância e armamento autônomo. Para Dario Amodei, essas salvaguardas não afastavam o risco ético central e, portanto, foram rejeitadas. A integração profunda do Claude nas rotinas de análise e comando complica um eventual processo de descontinuação ("phase out"), estimado em cerca de seis meses para ser plenamente efetivo.

O impacto público do conflito também foi imediato. Após as notícias sobre a utilização do Claude nas ações contra o Irã, o aplicativo do sistema atingiu o primeiro lugar no ranking gratuito da App Store dos EUA em 28 de fevereiro de 2026, ultrapassando pela primeira vez o ChatGPT. Um porta-voz da Anthropic confirmou tratar-se do recorde histórico de downloads, com inscrições diárias triplicando nos últimos quatro meses.

A dimensão cultural do episódio veio expressa nas redes: a cantora Katy Perry compartilhou um screenshot do download da versão Pro do Claude, em meio ao debate público entre a empresa e o presidente Trump.

Do ponto de vista da infraestrutura política e tecnológica, trata-se de um momento revelador sobre como camadas de inteligência artificial estão se tornando alicerces digitais das operações de defesa, ao mesmo tempo em que expõem fricções entre ética, soberania e necessidade operacional. A história ilustra que, na prática, o "sistema nervoso" das cidades e das tropas modernas — esse fluxo de dados e decisões automatizadas — cresce mais rápido que os acordos públicos sobre seus limites.

Acompanhar essa evolução exige clareza analítica: entender onde termina a ferramenta de apoio e onde começa a responsabilidade humana. Na interface entre empresas privadas e os mecanismos de segurança do Estado, a discussão sobre controles, transparência e prazos de transição se mostra cada vez mais urgente.