La guerra degli algoritmi: quando l’AI sceglie chi deve morire | Giornale dello Spettacolo
Top

La guerra degli algoritmi: quando l’AI sceglie chi deve morire

Dall’analisi dei dati alla selezione automatica dei bersagli l’intelligenza artificiale ha trasformato il modo di combattere. Il passaggio dai droni Reaper di Obama ai 37.000 nomi affidati a un software per colpire a Gaza rompe ogni schema precedente nel rapporto tra tecnologia e uso della forza.

La guerra degli algoritmi: quando l’AI sceglie chi deve morire
Preroll

redazione Modifica articolo

22 Marzo 2026 - 12.03 Culture


ATF

di Lorenzo Lazzeri

Che cosa succede quando un algoritmo si sostituisce a un comandante nella decisione di colpire un obiettivo umano? Tali strumenti sono chiamati “sistemi di supporto decisionale”. In realtà si tratta di software capaci di analizzare quantità enormi di dati e, sempre più spesso, non si limitano a eseguire reportistica sul contesto ma suggeriscono anche le azioni successive da intraprendere.

Un caso diverso, ma utile per capire quanto l’intelligenza artificiale stia penetrando nelle strutture militari, riguarda Claude, il modello sviluppato dalla startup californiana Anthropic. Adottato nelle reti militari delle forze armate statunitensi, con funzioni di analisi documentale e supporto logistico, non operava come sistema di targeting cinetico e non pilotava droni. Come scrive Massimo Gaggi sul Corriere della Sera, questa tecnologia era entrata in tutti i flussi informativi segreti: analizzava dati provenienti dal web, dagli smartphone, dai satelliti, dalle carte di credito, dalle telecamere e da altri sistemi di sorveglianza, traducendo il tutto in pianificazione logistica con una relativa simulazione di scenari. Il caso, dunque, non riguarda la decisione immediata di colpire, ma mostra come i modelli linguistici e gli strumenti di analisi stiano entrando sempre più a fondo nella filiera militare dell’informazione. In tal proposito, occorre dire che Anthropic recentemente si è rifiutata di far utilizzare il proprio sistema dal governo americano per fini diversi da quelli originariamente previsti, mentre OpenAI non ha perso l’occasione per vendersi all’intelligence americana. La questione si combatte nel campo dell’etica e dei profitti.

Project Maven,il software storico del Pentagono per l’analisi dei dati sul campo di battaglia nato all’interno di Google come progetto di analisi automatizzata delle immagini, oggi si è sviluppato in un ecosistema industriale-militare che include Palantir e Anduril Industries. Il punto, però, è un altro: l’intelligenza artificiale era entrata come assistente, ma la velocità con cui elabora le informazioni finisce per spostare parte del peso decisionale dalla persona alla macchina.

Nel 2014, Ben Rhodes, braccio destro di Barack Obama alla Casa Bianca, descrisse l’angoscia del presidente chiamato a decidere se autorizzare attacchi con i droni Reaper. Questi sono velivoli a pilotaggio remoto armati di missili, utilizzati per missioni di precisione contro leader terroristi.  Il presidente, già all’epoca, era al corrente del rischio di colpire anche civili. Pochi mesi dopo, nel gennaio 2015, in uno di questi attacchi morì Giovanni Lo Porto, cooperante italiano, ucciso in un attacco al confine tra Pakistan e Afghanistan. Obama andò davanti alle telecamere a prendersi la responsabilità di quelle esecuzioni senza processo e degli loro errori commessi.

Nel frattempo, però, il contesto è cambiato radicalmente. Nella prima fase delle operazioni militari israeliane a Gaza, come documenta Gianluca Di Feo nel saggio “Il cielo sporco”, è stata fornita all’intelligenza artificiale una lista di 37.000 nomi di presunti terroristi o fiancheggiatori di Hamas. Successivamente, si è lasciato che fosse un algoritmo a selezionare chi colpire. La revisione umana si era ridotta a un formalismo.

Dario Guarascio, docente di economia e politica dell’innovazione, nel volume “Imperialismo digitale” esamina come nei vent’anni passati dalla guerra dell’Iraq a quella in Ucraina sia cambiato tutto nell’uso degli strumenti informatici. I sistemi entrano nel campo predittivo e in quello prescrittivo. In Ucraina è sempre più evidente: secondo Di Feo, la maggioranza delle vittime è causata da artiglieria il cui puntamento è guidato da droni di ricognizione collegati a sistemi di intelligenza artificiale, con l’intera catena di fuoco ormai incentrata attorno al calcolo automatico. Alla fine, nel ragionamento di Gaggi, il punto più delicato è la delega. Chi ha la responsabilità di autorizzare l’uso letale della forza può scaricarla sulle macchine man mano che vengono incorporate nelle procedure di ingaggio. Più questi sistemi entrano nelle procedure, più sfumata si fa la distinzione tra semplice assistenza e decisione.

Native

Articoli correlati