L’affermazione secondo cui l’attuale conflitto in Iran registrerebbe il tasso di danni collaterali più basso della storia moderna, se si escludesse il tragico errore di Minab, rappresenta il cuore del dibattito etico e militare contemporaneo. Per analizzare questa tesi, è necessario immergersi nella fredda logica dei numeri e confrontarla con la realtà dei conflitti passati, dove la “precisione” era un concetto molto diverso da quello attuale. Nelle prime tre settimane dell’Operazione Desert Storm nel 1991, il mondo assistette per la prima volta in diretta televisiva ai missili a guida laser che entravano nei condotti di ventilazione. Tuttavia, dietro quelle immagini spettacolari, la realtà era fatta di bombardamenti a tappeto e infrastrutture civili distrutte sistematicamente per mettere in ginocchio il regime di Saddam Hussein. Le vittime civili nei primi 18 giorni furono migliaia, stimate tra le 2.500 e le 3.500 unità. La tecnologia di allora, pur rivoluzionaria, non permetteva di distinguere tra un obiettivo militare e l'area urbana circostante con il grado di granularità odierno; il “danno collaterale” era accettato come un'inevitabilità statistica della potenza di fuoco necessaria.
Dodici anni dopo, durante l'invasione dell'Iraq del 2003, la tecnologia GPS (JDAM) era diventata lo standard. Eppure, nei primi 18 giorni di conflitto, le vittime civili salirono a una cifra compresa tra 3.200 e 4.300. Questo accadde perché, nonostante la singola bomba fosse più precisa, la dottrina militare dello “Shock and Awe” prevedeva un volume di fuoco massiccio su centri abitati come Baghdad. In quel contesto, la decisione umana era ancora centrale: ogni bersaglio veniva validato da analisti che, pur con foto satellitari migliori, operavano in una nebbia informativa che portava a colpire edifici civili erroneamente identificati come centri di comando.
In Afghanistan nel 2001, il problema fu l'intelligence umana (HUMINT). Le circa 1.300 vittime iniziali furono spesso il risultato di segnalazioni errate provenienti da fazioni locali rivali o dalla difficoltà di distinguere i combattenti dai civili in un contesto rurale e tribale. Qui, la mancanza di dati granulari era il limite principale della precisione.
Arriviamo al 17 marzo 2026 (ci basiamo infatti sui dati reperibili alla giornata di ieri). Dopo 18 giorni di raid sull'Iran, il bilancio delle vittime civili oscilla tra 480 e 555 unità. Se sottraessimo le 150 bambine di Minab, il totale scenderebbe a circa 350-400 vittime civili in quasi tre settimane di guerra ad alta intensità contro una delle potenze militari più strutturate del Medio Oriente. Dal punto di vista puramente statistico, i sostenitori dell'IA hanno ragione: il rapporto tra obiettivi militari colpiti e vite civili perse è migliorato di quasi dieci volte rispetto al 2003. Questa “efficienza” è figlia dell'integrazione di algoritmi come Lavender e The Gospel. Questi sistemi non si limitano a guidare una bomba su una coordinata; essi scansionano l'intero ecosistema digitale iraniano in tempo reale. Analizzano i metadati dei telefoni cellulari, i flussi delle telecamere a circuito chiuso, i consumi elettrici e persino i post sui social media per creare un profilo di “probabilità di minaccia”. Quando l'algoritmo identifica un obiettivo, lo fa perché ha incrociato miliardi di dati che un analista umano impiegherebbe mesi a processare. Questo permette di colpire un singolo ufficio all'interno di un palazzo governativo senza abbattere l'intero isolato, riducendo drasticamente i morti non intenzionali.
Tuttavia, il caso di Minab demolisce la narrazione della “guerra pulita”. L'errore algoritmico ha trasformato quella che sarebbe stata la campagna militare più precisa della storia in una delle più controverse. L'inchiesta suggerisce che l'IA abbia erroneamente classificato la scuola come “edificio di supporto logistico” perché il traffico dati dei dispositivi all'interno (tablet scolastici e cellulari degli insegnanti) presentava pattern simili a quelli di un ufficio del corpo delle Guardie Rivoluzionarie. In questo scenario, l'efficienza stessa dell'IA è diventata una trappola: la capacità di generare migliaia di bersagli al giorno ha saturato la capacità di revisione umana. Gli operatori, fidandosi della “fallace perfezione” della macchina, hanno concesso solo pochi secondi alla validazione finale, trasformando un errore di codice in una strage.
Ma il problema etico sollevato dal conflitto in Iran non riguarda solo la quantità di morti, bensì la natura della responsabilità. Se nel 1991 o nel 2003 un comandante poteva essere processato per un ordine illegittimo, nel 2026 la responsabilità si disperde in una “scatola nera” algoritmica. L'analisi dei dati ci dice che la guerra è diventata più chirurgica, ma la tragedia di Minab ci ricorda che, quando la chirurgia è affidata a un software senza coscienza, un singolo errore può avere un peso specifico tale da oscurare qualsiasi progresso statistico. La “bassa percentuale di danni collaterali” rischia di diventare un paravento statistico dietro cui nascondere l'atrocità di vite umane ridotte a variabili di un'equazione imperfetta. (18 MAR – deg)
(© 9Colonne - citare la fonte)




amministrazione