
L’Intelligenza Artificiale e il futuro della guerra
Gli studiosi che racconteranno la storia del futuro – non sappiamo se saranno umani in carne ed ossa oppure intelligenze artificiali – non potranno non citare nei loro annali la data del 5 marzo 2025. In quel giorno, l’adozione di tecnologie avanzate, come l’intelligenza artificiale in ambito militare, ha raggiunto un nuovo traguardo e aperto scenari inaspettati per le guerre di domani.
Quel giorno, infatti, il Pentagono ha affidato il progetto Thunderforge alla società Scale AI, con l’obiettivo di sviluppare un sistema di IA avanzato per ottimizzare la pianificazione militare, specialmente nelle operazioni in Europa e nella regione indo-pacifica. Questo accordo segna un momento cruciale nell’evoluzione della guerra moderna, dove l’intelligenza artificiale non è più relegata al supporto logistico o alle analisi dati, ma sta diventando un attore centrale nella strategia militare, potenzialmente capace di prendere decisioni autonome, simili a quelle di un comandante sul campo di battaglia.
L’Integrazione dell’IA nella pianificazione militare
Il progetto Thunderforge si basa su modelli linguistici avanzati e simulazioni di guerra interattive, con l’obiettivo di migliorare la capacità di prendere decisioni rapide in scenari di battaglia. Le informazioni fornite dal Defense Innovation Unit, l’agenzia USA che supervisiona il progetto, delineano un sistema capace di anticipare minacce, testare scenari di battaglia e allocare risorse strategiche su scala globale. Allo stesso tempo, le collaborazioni con aziende come Anduril e Microsoft portano l’IA militare a un livello successivo, integrando tecnologie avanzate di raccolta dati e analisi predittiva. Anduril, ad esempio, fornirà il suo sistema Lattice, utilizzato per analizzare dati provenienti da droni e sensori, mentre Microsoft contribuirà con modelli linguistici in grado di potenziare le capacità decisionali di Thunderforge. L’intelligenza artificiale non è più un semplice supporto, ma un operatore autonomo in grado di gestire dinamiche complesse in tempo reale, come quella del monitoraggio delle attività cinesi nel Pacifico, come sottolineato dall’ammiraglio Sam Paparo, responsabile delle operazioni in quella regione.
Droni e armi autonome ridisegnano la guerra moderna
La pianificazione strategica è solo una delle applicazioni dell’IA in ambito bellico. I droni autonomi, i sistemi di sorveglianza avanzata e le armi che identificano e colpiscono bersagli senza supervisione umana stanno già cambiando il volto della guerra.
Nel conflitto tra Russia e Occidente in Ucraina, per esempio, i droni dotati di IA sono stati utilizzati da entrambi gli eserciti per identificare e attaccare postazioni nemiche. Intanto – 2000 km più a sud – Israele ha impiegato algoritmi di IA per selezionare obiettivi nei bombardamenti a Gaza e in Libano.
Questo non è solo un passo verso l’automazione, ma una vera e propria rivoluzione nelle modalità operative. Le decisioni vengono prese non più da esseri umani, ma da algoritmi che analizzano enormi quantità di dati, rendendo la guerra più veloce, precisa ma anche molto più difficile da controllare.
L’integrazione di IA nelle operazioni belliche introduce un nuovo tipo di guerra, quella automatica, in cui il confine tra decisione strategica e azione immediata si sfuma. Un bombardamento che un tempo avrebbe richiesto un’accurata valutazione da parte di un comandante può ora essere eseguito da un drone autonomo in pochi secondi, basandosi su una selezione di obiettivi fatta da un algoritmo, senza la possibilità di una valutazione morale o etica. Questa rapidità e precisione sollevano interrogativi non solo sulla responsabilità, ma anche sull’impatto umano di simili scelte.
La Risoluzione 79/L.77 dell’ONU e la corsa alle Armi Autonome
A livello internazionale, i rischi derivanti dall’uso di armi autonome sono stati riconosciuti, ma i passi verso una regolamentazione vincolante sono lenti e contrastati. Il 2 dicembre 2024, l’Assemblea Generale delle Nazioni Unite ha approvato la Risoluzione 79/L.77 sui sistemi d’arma autonomi letali, con 166 voti a favore, 3 contrari (Bielorussia, Russia e Corea del Nord) e 15 astensioni, tra cui Cina e Israele. Il documento, pur riconoscendo i rischi dell’IA applicata al contesto militare, non prevede un divieto vincolante. La risoluzione invita gli stati membri a partecipare a consultazioni informali durante il 2025 per esplorare possibili soluzioni. Con una coerenza quantomeno eccepibile, gli Stati Uniti hanno votato a favore ma hanno ribadito la loro intenzione di continuare a sviluppare tecnologie belliche basate su IA, rivelando così la loro resistenza a una regolamentazione che possa limitare il loro vantaggio competitivo.
Questa reticenza alla regolamentazione più severa non è priva di motivazioni. La paura di perdere il predominio tecnologico in un mondo sempre più dipendente dalla superiorità in ambito IA è uno dei motivi principali per cui le principali potenze militari, tra cui gli Stati Uniti, sono riluttanti ad abbracciare misure che possano rallentare il loro progresso. Il rischio, come avevo già evidenziato proprio qui su Tech Economy 2030, è che una corsa agli armamenti basata sull’IA possa destabilizzare l’intero sistema di sicurezza globale, abbassando la soglia di attacco e rendendo la guerra non solo più frequente ma anche più sanguinosa.
Dalla “Mutual Assured Destruction” alla “Mutual Assured AI Malfunction”
Uno degli attori più influenti nel panorama dell’IA applicata alla difesa è Eric Schmidt, ex CEO di Google e uno dei principali sostenitori della militarizzazione dell’IA. Sorprendendo gli analisti più superficiali, proprio Schmidt ha recentemente espresso serie e motivate preoccupazioni sul rischio di una corsa incontrollata verso la superintelligenza. Nel rapporto “Superintelligence Strategy” scritto insieme a Dan Hendrycks e Alexandr Wang, Schmidt ha evidenziato il rischio che una competizione incontrollata per lo sviluppo di superintelligenze militari possa innescare una spirale di tensioni internazionali, con il rischio che i paesi rivali reagiscano con misure drastiche, incluse azioni preventive come attacchi informatici su larga scala.
In risposta a questi rischi, Schmidt propone la strategia del “mutual assured AI malfunction” (MAIM), che sarebbe una forma di deterrenza simile alla dottrina della “mutual assured destruction”. Quest’ultima, la distruzione mutua assicurata è stata l’architrave su cui si è basato l’equilibrio del terrore per tutta la Guerra Fredda: Secondo questa strategia, sia USA che URSS erano in grado, col proprio arsenale atomico, di spianare tutto il globo terrestre. Nessuno dei due era in grado di neutralizzare il nemico impedendogli di reagire in modo letale ad un attacco di sorpresa; perciò, nessuno poteva scatenare un attacco preventivo perché, in tutti i casi, l’intero pianeta sarebbe stato trasformato in una sfera di roccia vetrificata.
Nel prossimo futuro, invece, secondo il nuovo modello di mutuo malfunzionamento assicurato delle IA, la minaccia di disattivare le tecnologie di IA rivali attraverso cyberattacchi e altre misure preventive, come l’embargo sull’esportazione di microchip ed altre tecnologie informatiche sofisticate verso Paesi avversari, sarebbe sufficiente a impedire che altri stati sviluppino superintelligenze militari. Sebbene la proposta punti a ridurre il rischio di escalation, il modello suggerisce anche una continua militarizzazione della tecnologia, portando il mondo più vicino alla creazione di una nuova “arma finale” nel contesto della guerra automatica.
Implicazioni etiche nel futuro della guerra
Mentre la tecnologia avanza, le implicazioni etiche e morali diventano sempre più centrali. I droni autonomi e le armi che operano senza supervisione umana potrebbero sembrare un progresso naturale nella guerra del futuro, ma sollevano domande fondamentali. Una guerra automatica, priva di un intervento umano diretto, è in grado di ridurre la sofferenza e i danni collaterali? I sistemi di IA possono fare discriminazioni giuste tra bersagli militari e civili? La risposta a queste domande è tutt’altro che scontata, e l’incapacità di regolare questi sviluppi rischia di portare a un’escalation incontrollabile.
Nel gennaio 2016 – quando lo sviluppo delle prime intelligenze artificiali era ancora nella preistoria – avevo sottolineato su MIT Technology Review, che, con lo sviluppo di future armi autonome, aumenterà la probabilità che si inneschino guerre devastanti e si moltiplichino le vittime civili. Anche se chi decide di premere il grilletto non è umano, la guerra stessa non può essere disumanizzata.
Chiunque, umano o sintetico, si trovi dietro il mirino, le vittime saranno sempre umane, e una guerra automatizzata non diventerà mai meno crudele o devastante. Nonostante le potenzialità tecnologiche, una guerra condotta da macchine rischia di essere una guerra che diventa non solo più sanguinosa, ma anche più incontrollabile. Un sistema che non contempla la consapevolezza etica e morale nella sua progettazione non può essere considerato una “soluzione” ai conflitti.
L’urgenza di una regolamentazione internazionale
La guerra automatica è una realtà sempre più vicina, e i rischi che essa comporta sono sotto gli occhi di tutti. Le potenze mondiali, pur riconoscendo i pericoli di un’armata robotica incontrollata, sono riluttanti a fermarsi per paura di perdere il vantaggio competitivo. Tuttavia, il rischio di una corsa agli armamenti basata su IA, come avverte il rapporto Superintelligence Strategy e come sottolineato dalla Risoluzione 79/L.77 delle Nazioni Unite, è che la destabilizzazione del sistema internazionale diventi inevitabile. Una guerra combattuta da macchine, priva di supervisioni umane, non porterà alla pace, ma alla proliferazione della violenza.
È essenziale che la comunità internazionale agisca ora, regolando l’uso dell’IA nelle operazioni militari e assicurando che l’evoluzione tecnologica non porti a un futuro di guerre automatiche, devastanti e incontrollabili. La sfida è enorme, ma non possiamo permetterci di ignorarla. La responsabilità collettiva è quella di proteggere la pace e i diritti umani, impedendo che la transizione digitale in ambito bellico venga utilizzata per scopi distruttivi senza limiti.