Ataque em Minab: rumores de erro de IA do Pentágono que matou 168 em escola feminina

Relatos indicam que ataque à escola de Minab, que matou 168, pode ter sido causado por erro de IA usada pelo Pentágono; investigações em andamento.

Ataque em Minab: rumores de erro de IA do Pentágono que matou 168 em escola feminina

RESUMO ✦

Sem tempo? A Lili IA resume para você

Gerando resumo com IA...

Ataque em Minab: rumores de erro de IA do Pentágono que matou 168 em escola feminina

Por Marco Severini — Em um movimento que reconfigura, ainda que provisoriamente, os alicerces da diplomacia e da guerra por meios digitais, surgem relatos que associam o ataque que devastou a escola feminina Shajareh Tayyebeha, em Minab, a um suposto erro de um sistema de inteligência artificial em uso pelo Pentágono. A explosão, ocorrida em 28 de fevereiro durante o horário letivo, deixou um balanço trágico: 168 mortos entre alunas, docentes e familiares, segundo fontes locais e imagens verificadas.

Imagens de satélite e vídeos publicados mostram um míssil de cruzeiro Tomahawk atingir a parte da base do Corpo das Guardas da Revolução Islâmica (IRGC) situada ao lado da escola, o que levou analistas a vincular o impacto à coalizão Estados Unidos‑Israel que vinha atingindo alvos militares iranianos. A presença do Tomahawk — arma operacionalmente associada às forças norte‑americanas — intensifica as perguntas sobre a origem exata do ataque e sobre possíveis falhas de designação de alvos.

Fontes anônimas citadas por veículos internacionais e por um relato que circulou em programas de notícias nos Estados Unidos indicam que um programa de IA da empresa Anthropic, utilizado para identificação e simulação de alvos, poderia ter incluído erroneamente a posição da escola entre possíveis objetivos militares. Segundo essa reconstrução — ainda não confirmada por documentos oficiais públicos — o software teria “marcado” a área da base como legítima, resultando no lançamento de um Tomahawk que atingiu também a estrutura escolar.

É imperativo sublinhar a natureza rumorosa dessas alegações: investigações independentes e respostas formais do Pentágono, de Anthropic e de outras instâncias ainda não apresentaram uma conclusão pública e transparente que corrobore a narrativa do erro algorítmico. A tectônica da informação, no entanto, já provoca repercussões geopolíticas — com acusações e contra‑acusações que ressoam como movimentos calculados num tabuleiro de xadrez estratégico.

Além do choque humano e da emergência humanitária local, o episódio reabre um debate de natureza estrutural: até que ponto sistemas de IA devem ser integrados ao processo decisório que conduz a emprego de força letal? Quem assume responsabilidade — o operador humano, o comando militar, o fornecedor do algoritmo? A arquitetura legal e ética contemporânea aparece, neste momento, com alicerces frágeis frente ao avanço acelerado das capacidades autônomas.

Na esfera diplomática, o caso potencialmente alimenta narrativas de false flag e desinformação, enquanto compromete linhas de comunicação entre atores centrais. Do ponto de vista da estratégia internacional, trata‑se de um movimento decisivo no tabuleiro onde a combinação de tecnologia, erro e interesse geopolítico pode redesenhar fronteiras invisíveis de influência e responsabilização.

Como analista, enfatizo a necessidade de investigação independente, com transparência técnica e acesso a registros de missão, telemetria e logs dos sistemas de IA supostamente envolvidos. Só assim será possível separar falha técnica de decisão política, e responsabilizar quem de direito, evitando que a tragédia sirva de catalisador para escaladas indesejadas na região.

Enquanto as respostas oficiais permanecem evasivas, a comunidade internacional observa. O caso de Minab deverá ser tratado como prelúdio de uma era em que a integração entre algoritmos e armamentos exige novos pactos — jurídicos, políticos e morais — sob pena de ampliarmos a letalidade das sombras tecnológicas.