La guerra in Iran non accenna a rallentare. Stati Uniti e Israele continuano a colpire per far tremare il regime, con bombardamenti sempre più mirati. Dietro la precisione, nuovi strumenti: l’intelligenza artificiale, usata su larga scala per la prima volta dagli americani.
È l’inizio di un altro modo di fare la guerra? A Washington, la domanda non resta confinata nei corridoi del Pentagono ma circola con sempre maggiore insistenza a Capitol Hill: inquieta, prende spazio, divide.
Regolarmente il Segretario al “Dipartimento della Guerra” Pete Hegseth aggiorna sul numero degli obiettivi distrutti. Il tono è trionfante, le cifre impressionanti. Oltre 7’000 bersagli identificati e distrutti dalle forze armate americane. Un totale di 15’000 in 19 giorni di attacchi israelo-americani. Numeri, velocità e precisione possibili grazie al ricorso all’ IA, all’intelligenza artificiale.
Una simulazione grafica postata dal US CentCom
L’Esercito utilizza una piattaforma sviluppata da Palantir e integrata con Anthropic, il Maven Smart System, che permette di elaborare volumi enormi di dati da satelliti e sensori per identificare, geolocalizzare e prioritizzare gli obiettivi. Un ricorso che ha inquietato dopo che nelle prime ore del conflitto una scuola, a Minab, nel sud del Paese, è stata bombardata per errore. Il bilancio 165 vittime, tra cui tantissime bambine. Non un errore del sistema, bensì umano, spiega Emelia Probasco, del Centro studi sulla sicurezza e le nuove tecnologie dell’università Georgetown.
“Da quel che ne so i dati - le immagini satellitari di cui disponevano - si basavano su un presupposto ormai superato, spiega questa ex ufficiale della Marina. Pensavano che quell’area facesse ancora parte della base militare, mentre in realtà la situazione era cambiata. Tutto questo dovrebbe emergere dall’indagine che, da quanto mi risulta, il CENTCOM (il Comando centrale americano in Medio Oriente, ndr) sta conducendo in questo momento”. Nella comunità degli esperti, questo tipo di errore ha un nome preciso. Nel gergo professionale si chiama “temporal label persistence“: un edificio etichettato come bersaglio che non porta con sé i metadata di quando la classificazione è stata verificata l’ultima volta.
Emelia Probasco, ricercatrice della Georgetown University
Alla sola ipotesi di concepire l’intelligenza artificiale nell’Esercito come una sorta di Terminator, Emmy Probasco premette: “Non è un pulsante! Si teme che l’IA sia semplicemente qualcosa che, premuto, faccia scattare una guerra. In realtà è un sistema di supporto inserito in un processo lungo, in cui molte persone intervengono in diverse fasi”.
Il timore di essere di fronte a una guerra più efficiente, ma senza etica allarma anche lei. “C’è questa pressione, ammette, che l’intelligenza artificiale lavora così in fretta da spingere l’uomo che la usa ad accelerare anche lui. Quando invece serve al contrario: adottarne i punti di forza e prendersi più tempo per decidere meglio”. Un pericolo non lo nasconde: “Una delle preoccupazioni legate all’intelligenza artificiale - spiega Probasco - è il cosiddetto ‘automation bias’. Come, ad esempio, chi segue il GPS alla lettera e finisce in un lago. Il rischio è affidarsi al sistema come se sapesse cose che noi non sappiamo”.
Sono e saranno (!?) sempre gli uomini a decidere, anche se più d’uno è preoccupato per la velocità dello sviluppo e dell’utilizzo dell’IA. “Gli esseri umani, avverte, prendono continuamente decisioni disastrose. Forse con l’intelligenza artificiale prenderanno decisioni migliori, con meno morti, meno catastrofi e una fine più rapida della guerra”.
Per i suoi studi, la ricercatrice della Georgetown ha analizzato il lavoro nella più grande base militare americana, quella di Fort Bragg in Carolina del Nord. Lì ha visto l’impatto dell’IA: “Quello della divisione del 18° aviotrasportato è un caso di studio: usando questo sistema -solo per riconoscere immagini - ha fatto con 20 militari ciò che nella campagna in Iraq ne richiedeva 2’000”.
Un fermoimmagine di un’operazione di “targeting” di Palantir
Ma grazie a maggiori efficacità e rapidità, con l’IA gli eserciti prenderanno decisioni migliori? “Decisioni migliori non sono mai automatiche”, dice la ricercatrice. “L’obiettivo è usare questi sistemi per migliorarle. Questo implica capire dove inserire l’intelligenza artificiale e dove mantenere il controllo umano. Sono valutazioni complesse, e bisogna evitare la tentazione di affidarsi sempre all’IA”.
Interrogativi non solo tecnici, politici, etici, destinati solo a crescere visto che in Iran si sta assistendo a un modo nuovo di combattere le guerre. E saranno gli esseri umani, non gli algoritmi, a dover trovare le risposte.






