Como a Inteligência Artificial Está Remodelando as Decisões de Combate do Exército dos EUA

Como a inteligência artificial está transformando decisões de combate do Exército dos EUA e os riscos à supervisão e civis no teatro iraniano.

Como a Inteligência Artificial Está Remodelando as Decisões de Combate do Exército dos EUA

RESUMO ✦

Sem tempo? A Lili IA resume para você

Gerando resumo com IA...

Como a Inteligência Artificial Está Remodelando as Decisões de Combate do Exército dos EUA

Por Marco Severini — A emergência da inteligência artificial nos teatros de operações representa um movimento decisivo no tabuleiro geopolítico: não se trata apenas de rapidez técnica, mas de um redesenho das linhas de comando e da lógica da guerra. Relatos recentes sobre a campanha americana no Irã — onde o Pentágono afirma ter atingido mais de 2 mil alvos em quatro dias — evidenciam como sistemas automatizados estão alterando a escalada, a seleção de alvos e os tempos de decisão.

Investigações do Financial Times apontam que o ritmo sem precedentes dos ataques foi impulsionado, em parte, por plataformas de IA que processam fluxos massivos de dados de drones, satélites e outros sensores, convertendo inteligência bruta em opções operacionais com velocidade muito superior à tradicional cadeia de planejamento humano. É um salto de capacidade que reconfigura a tectônica de poder na condução das operações militares.

De particular relevância é o uso em campo de modelos generativos de ponta — os chamados modelos "de fronteira" — que já se difundiram no ambiente civil, por exemplo entre profissionais de escritório, médicos e estudantes. Esses modelos estão a ajudar comandantes a interpretar dados, arquitetar missões e obter retroalimentação em tempo real durante o combate. Nos últimos dois anos, o Departamento de Defesa dos Estados Unidos acelerou a integração da tecnologia baseada em IA em múltiplas camadas de sua estrutura operacional.

O coração desse sistema é o painel de operações de dados do Pentágono: o Maven Smart System da Palantir, combinado com o modelo Claude da Anthropic. Juntos, formam um console para análise em tempo real das operações no terreno. Nas palavras de Louis Moseley, responsável da Palantir para Reino Unido e Europa, o avanço crucial no último ano e meio foi que os modelos passaram da mera síntese para o racicínio passo a passo — isto é, da agregação de informação para a formação de lógicas decisórias.

Esse tipo de capacidade permite um "grande salto" tanto no volume de decisões quanto na velocidade com que o pessoal militar pode tomá-las durante operações complexas. Mas, como em qualquer reforma de arquitetura estratégica, a aceleração introduz fragilidades: cresce a tensão entre eficácia tática e mecanismos de supervisão e responsabilização.

O debate sobre limites e controles ganhou intensidade após uma disputa pública entre a Anthropic e o Pentágono sobre até onde os modelos de fronteira devem ser empregados em contexto bélico. A questão não é apenas técnica, é institucional: quem valida a lista de alvos, que critérios são usados e como se evita a automatização de erros humanos em escala?

Os riscos reais emergem com violência no terreno. O bombardeio de uma escola primária feminina em Minab, no sul do Irã, lembra que alvos gerados rapidamente ou mal verificados podem ter consequências letais. Ainda não está claro em que medida sistemas de IA participaram diretamente dessa operação, mas o episódio lança sombra sobre a confiança em listas de alvos acumuladas ao longo do tempo. Segundo a Mezzaluna Rossa iraniana, mais de 20.000 edifícios não militares foram atingidos — 17.353 deles residenciais — o que levanta questões sobre proporcionalidade e precisão.

Num contexto onde os instrumentos civis de inteligência artificial são transpostos para a arena militar, o desafio é institucional: construir alicerces de supervisão que acompanhem a velocidade dos algoritmos sem sacrificar a responsabilidade humana. Como estratega, vejo esse ponto como um momento de reordenação das forças: mover peças no tabuleiro — seja por software, sensores ou decisões políticas — sem uma cartografia clara dos riscos é convidar desestabilização.

A integração da IA nas operações militares americanas é, portanto, um experimento estratégico em escala. Traz ganhos operacionais evidentes, mas também exige mecanismos robustos de governança, auditoria e litígio ético-politico para que o poder tecnológico não crie feridas irreversíveis no corpo da diplomacia e na proteção de civis.

Para os responsáveis pela estabilidade internacional, a lição é clássica e simples: movimentos acelerados no tabuleiro sempre precisam ser acompanhados por planos de defesa das regras do jogo. Sem isso, a arquitetura da ordem pode rachar exatamente onde mais se precisa de solidez.