Por Riccardo Neri — O Departamento de Defesa dos Estados Unidos classificou formalmente a Anthropic como um “risco para a cadeia de abastecimento”, uma medida sem precedentes que afeta contratos governamentais e amplia a fricção entre o governo e a indústria de tecnologia. A decisão proíbe que contratantes da defesa mantenham colaboração com o Estado se o modelo de linguagem Claude estiver integrado aos seus sistemas.
O racha tem origem em semanas de negociações fracassadas e ameaças legais. Segundo a ordem assinada pelo Secretário da Defesa Pete Hegseth, empresas que utilizem a tecnologia da Anthropic em qualquer âmbito comercial correm o risco de perder contratos militares. É a primeira vez que uma companhia americana recebe uma classificação tipicamente aplicada a entidades estrangeiras associadas a governos hostis — um marco que o CEO Dario Amodei já declarou sem base jurídica, anunciando intenções de recorrer à Justiça.
No cerne do conflito está a recusa pública da Anthropic em permitir que sua IA seja usada em dois domínios específicos: o desenvolvimento de armas letais autônomas sem supervisão humana e programas de vigilância de massa. O Pentágono argumenta que as cláusulas de controle da empresa transferem prerrogativas decisórias do Estado para uma entidade privada, enquanto a startup contesta se as garantias governamentais são suficientes para proteger suas linhas vermelhas éticas.
A diretiva impõe um prazo de seis meses para a remoção definitiva de Claude dos servidores federais. Na prática, a aplicação da medida levanta questões logísticas e estratégicas: relatos indicam que ferramentas de inteligência aprimoradas com Claude desempenharam papel relevante em recentes operações no Oriente Médio, incluindo informações ligadas a um ataque com mísseis contra o Ayatollah Ali Khamenei. Essa dependência operacional torna a substituição imediata da tecnologia um desafio para a eficácia das forças armadas.
O impacto potencial dessa exclusão é sistêmico. Fornecedores militares operam em camadas interdependentes — um ecossistema onde bibliotecas, modelos e integrações compõem os alicerces digitais do aparato de defesa. Desconectar um nó crítico como Claude pode degradar capacidades intelligence-to-action e criar lacunas temporárias no fluxo de dados que alimenta decisões táticas e estratégicas.
Do ponto de vista regulatório, a decisão abre um novo capítulo sobre soberania tecnológica: até que ponto o Estado pode condicionar o acesso a contratos estratégicos com base em políticas éticas da indústria? Para a Anthropic, a classificação estende o alcance punitivo do governo a parceiros comerciais, o que, segundo a empresa, contraria o direito comercial e a prática usual.
Analiticamente, o episódio revela a tensão entre dois imperativos concorrentes no sistema nervoso das cidades e dos Estados modernos: proteger a segurança nacional e preservar limites éticos na arquitetura da inteligência artificial. Enquanto os juristas e executivos se preparam para batalhas legais, as forças armadas enfrentam uma janela crítica para reavaliar dependências tecnológicas e planejar contingências sem comprometer operações sensíveis.
Em suma, a proibição do Pentágono contra a Anthropic e seu modelo Claude não é apenas uma disputa contratual: é uma redefinição das relações entre alicerces digitais privados e a autoridade pública sobre infraestruturas de segurança. A resolução desse impasse terá efeitos práticos imediatos e estabelecerá precedentes para como a Europa e a Itália — que observam atentamente essa dinâmica — alinharão políticas de defesa e governança de IA nos próximos anos.






















