Pentágono ordena remoção de softwares da Anthropic em 180 dias; risco à cadeia de abastecimento

Pentágono ordena remoção da IA da Anthropic em 180 dias, declarando risco à cadeia de abastecimento; tensão entre ética e defesa se intensifica.

Pentágono ordena remoção de softwares da Anthropic em 180 dias; risco à cadeia de abastecimento

RESUMO ✦

Sem tempo? A Lili IA resume para você

Gerando resumo com IA...

Pentágono ordena remoção de softwares da Anthropic em 180 dias; risco à cadeia de abastecimento

Por Marco Severini — O Departamento de Defesa dos Estados Unidos emitiu uma determinação formal para que os comandos das Forças Armadas retirem os programas de inteligência artificial da Anthropic de seus sistemas no prazo de 180 dias. A orientação consta em um memorando interno, datado de 6 de março e obtido pela CBS, que marca um movimento decisivo no tabuleiro da segurança tecnológica norte-americana.

Na véspera, o Pentágono havia designado, em ato sem precedentes, a Anthropic como um “risco para as cadeias de abastecimento”. O documento afirma que a IA da empresa “representa um risco inaceitável para a cadeia de abastecimento para uso em todos os sistemas e redes do Departamento da Defesa”. A carta foi assinada por Kirsten Davies, Diretora da Informação do Departamento de Defesa, e sua autenticidade foi confirmada por um alto funcionário à CBS.

Os comandantes enfrentarão agora procedimentos complexos para desinstalar a tecnologia da Anthropic de plataformas críticas de segurança nacional, incluindo sistemas relacionados a armas nucleares, defesa antimísseis balísticos e operações de guerra cibernética. Também foi solicitado que empresas contratadas pelo Pentágono interrompam o uso de produtos da Anthropic em contratos em vigor.

No memorando, Davies adverte que adversários “podem explorar vulnerabilidades” das operações diárias do departamento, criando “potenciais riscos catastróficos para os combatentes”. Exceções serão avaliadas apenas para atividades diretamente mission‑critical que não possuam alternativas viáveis.

As raízes desse confronto remontam a uma cooperação anterior, na qual modelos linguísticos da Anthropic, como Claude, foram testados para análise de dados, apoio à decisão e gerenciamento de grandes volumes de informação úteis à defesa. Contudo, durante a renovação dos acordos emergiram divergências profundas quanto às condições de uso.

A Anthropic defendeu a manutenção de limites éticos — proibições de integração em sistemas de armamento autônomo e restrições à vigilância de massa — enquanto o Pentágono, sob a administração Trump, exigiu a capacidade de empregar a tecnologia para “qualquer uso lícito”. O impasse levou à ruptura dos laços e à rotulação da startup como risco de cadeia de abastecimento; a companhia respondeu com ação legal, alegando retaliação por manter salvaguardas éticas.

Em paralelo a essa cisão, o Departamento de Defesa estreitou vínculos com outros atores do setor, notadamente a OpenAI, numa realocação estratégica de fornecedores. Trata‑se de um redesenho de fronteiras invisíveis na tectônica de poder tecnológico: o Pentágono reposiciona peças no tabuleiro para garantir resiliência operacional e minimizar vetores de exploração externa.

Esta decisão expõe a tensão entre arquitetura ética e as exigências pragmáticas da defesa. O movimento recorda que, em assuntos de segurança, as infraestruturas digitais são alicerces frágeis — cuja proteção exige tanto perícia técnica quanto cálculos geopolíticos meticulosos.