Microsoft defende Anthropic e pede fim do veto de Trump: não ao uso bélico autônomo e à vigilância em massa
Microsoft apela contra veto de Trump a Anthropic, defendendo proibição de uso bélico autônomo e vigilância de massa. Impactos na cadeia de suprimentos.
RESUMO ✦
Sem tempo? A Lili IA resume para você
Microsoft defende Anthropic e pede fim do veto de Trump: não ao uso bélico autônomo e à vigilância em massa
Em um movimento que revela tensões entre segurança nacional, ética tecnológica e cadeias de suprimentos digitais, a Microsoft formalizou um recurso judicial em apoio à Anthropic, após a administração de Donald Trump ter rotulado a empresa como uma ameaça à cadeia de suprimentos dos EUA. A designação, anunciada em 5 de março, levou o Pentágono a ordenar, em 6 de março, a remoção dos produtos da companhia das operações militares em até 180 dias, segundo relatos da imprensa americana.
Anthropic — fundada pelos irmãos ítalo-americanos Dario e Daniela Amodei — respondeu processando o governo após ser inserida na lista negra. O núcleo do conflito são as recusas dos fundadores em flexibilizar limites que permitiriam o uso do modelo Claude em cenários militares sem supervisão humana e em sistemas de vigilância de massa. Segundo o próprio governo, tratam-se de riscos inaceitáveis; segundo a empresa, tratar esses temas como um bloqueio à cadeia de suprimentos equivale a uma punição administrativa desproporcional.
No material entregue ao tribunal, a Microsoft argumenta que a utilização da designação de risco da cadeia de suprimentos para resolver uma disputa contratual pode causar efeitos econômicos graves e indevidos, contrários ao interesse público. A gigante de Redmond também critica a vaguidade das regras do Pentágono para a contratação pública, destacando que nunca foram aplicadas a empresas americanas no passado — um carimbo que, historicamente, era reservado a gigantes chineses como a Huawei.
O caso ganha camadas adicionais com reportagens que associam o uso de ferramentas de IA a operações militares: o The Guardian noticiou que o modelo Claude teria auxiliado em uma operação na Venezuela que resultou na captura de Nicolás Maduro, enquanto o Wall Street Journal apontou uso do algoritmo no planejamento de ataques contra o Irã. Relatos dessa natureza mostram como modelos de linguagem e seus “algoritmos como infraestrutura” atravessam rapidamente fronteiras éticas e operacionais.
Ao mesmo tempo, surge a questão das parcerias comerciais: a Microsoft já fornece o pacote Azure que, segundo relatos, é utilizado pelo exército israelense em operações que atingiram Gaza — uma intersecção entre infraestrutura em nuvem e poder de fogo que reabre debates sobre responsabilização e limites de uso.
Organizações de direitos digitais, como o Cato Institute e a Electronic Frontier Foundation, além de grupos de engenheiros de empresas como Google e OpenAI, publicamente manifestaram apoio à Anthropic. O episódio também reacendeu a memória do recuo da OpenAI após críticas públicas quando aceitou, e depois ajustou, contratos com o Pentágono.
Do ponto de vista institucional, esta disputa não é apenas sobre uma empresa: trata-se de quem define os limites do que chamo de alicerces digitais — as regras que regem o fluxo de dados, a integração das camadas de inteligência e a interface entre setores públicos e privados. A designação do governo dos EUA cria um precedente que pode reconfigurar mercados, parcerias transnacionais e a governança de tecnologias que já atuam como parte do sistema nervoso das cidades e das forças armadas.
Para a Europa e, em especial, para a Itália, o caso oferece lições práticas: políticas opacas de exclusão podem fragilizar fornecedores confiáveis, enquanto exigências éticas claras e auditáveis seriam a infraestrutura necessária para conciliar inovação e segurança. No cerne está uma pergunta operacional e moral: como balancear a proteção da segurança nacional sem transformar a designação de risco em um instrumento de contenção comercial?
Enquanto o litígio segue nos tribunais federais, o embate entre Microsoft, Anthropic e a administração Trump permanece como um teste sobre a governança de IA em tempos nos quais algoritmos são, de fato, componentes estruturais das capacidades estatais e industriais.