Por Stella Ferrari — Em um encontro descrito como tenso, o secretário de Defesa dos EUA, Pete Hegseth, estabeleceu um prazo até sexta-feira à noite para que o CEO da Anthropic, Dario Amodei, conceda ao Pentágono acesso sem restrições ao modelo de inteligência artificial Claude. A exigência veio acompanhada da ameaça de “pesadas penalidades” caso a empresa não atenda à solicitação, segundo apuração da Axios.
Hegseth apresentou duas vias claras: ou o Departamento de Defesa corta laços e rotula a Anthropic como um “risco para a cadeia de fornecimento”, ou invoca o Defense Production Act para obrigar a adaptação do modelo às necessidades militares. Essa postura traduz uma tensão estratégica entre soberania operacional e os limites éticos e comerciais que as empresas de IA vêm impondo.
Fontes ouvidas por Axios indicam que a Anthropic se mostrou disposta a revisar políticas para o apoio ao Pentágono, mas recusou autorizar usos que envolvam vigilância em massa de cidadãos americanos ou o desenvolvimento de armas autônomas sem supervisão humana. No front operacional, Claude é atualmente o modelo empregado para trabalhos considerados mais sensíveis pelas forças armadas norte-americanas.
Durante a reunião, Hegseth teria reforçado que não aceitará que uma fornecedora imponha condições operacionais ou questione usos específicos definidos pelo Departamento. Ele também citou uma alegação do Pentágono de que a Anthropic teria levantado objeções junto à Palantir sobre o uso do Claude em uma operação na Venezuela. Amodei negou que a empresa tenha bloqueado atividades em campo, sustentando que as “linhas vermelhas” da Anthropic não impediram operações.
Após o encontro, a empresa afirmou, por meio de um porta-voz, que as negociações estão sendo conduzidas “de boa-fé” com o objetivo de continuar apoiando a missão de segurança nacional “na medida em que os modelos possam operar de maneira confiável e responsável”.
No tabuleiro paralelo, o Pentágono acelera alternativas: o grupo de Elon Musk, xAI, assinou contrato para levar o Groking a ambientes classificados, enquanto o Departamento intensifica diálogos com OpenAI e Google para ampliar o uso de seus modelos — hoje restritos a contextos não classificados — a sistemas sensíveis. Fontes apontam que, embora Claude ainda apareça à frente em aplicações de interesse militar, inclusive em capacidades de ciberofensiva, o Gemini surge como substituto possível se for fechado um acordo que permita ao Pentágono o uso do modelo “para todos os fins lícitos” — condição que a Anthropic teria rejeitado.
Como economista e estrategista, observo que este embate é uma questão de calibragem fina entre risco operacional e governança tecnológica — um verdadeiro ajuste de motor: a defesa busca torque máximo sem perder o controle sobre direção e segurança pública. Se o Pentágono acionar o Defense Production Act, será uma demonstração de força institucional, equivalente a recalibrar a transmissão do sistema de suprimentos. Se as partes encontrarem um meio-termo, teremos uma solução de design de políticas que preserva capacidades críticas sem sacrificar princípios éticos.
O desfecho influenciará não só a segurança nacional dos EUA, mas também o mercado global de IA, a confiança de fornecedores e a prioridade de investimentos em modelos que combinam performance e conformidade. Em mercados de alta performance, como numa pista bem projetada, a qualidade da tomada de decisão e a capacidade de adaptação determinam quem lidera a aceleração — e quem fica para trás.






















