
Solo pochi anni fa, il termine “Intelligenza Artificiale” faceva parte del lessico comune nei libri e nei film di fantascienza, ma poteva vantare applicazioni pratiche veramente rudimentali.
Nel racconto “The Sentinel” di Arthur Clarke, poi nel film “2001, Odissea nello Spazio” di Stanley Kubrick, il supercomputer Hal 9000 decideva di uccidere gli ingombranti astronauti umani che cercavano di impedirgli di portare a termine la sua missione. Per non parlare dei sistemi autonomi che cercavano continuamente di aggirare le tre leggi della robotica nei libri di Isaac Asimov; o degli androidi, che George Lucas sguinzagliava a caccia di umani per tutta la serie di “Star Wars”.
IA: dalla fantascienza alla realtà
Ancora nel 2016, i primi esperimenti di intelligenza artificiale portavano a risultati abbastanza imbarazzanti, se non talmente surreali da farci sorridere. Ma già in quell’anno, in un articolo su MIT – Technology Review, avevo affrontato uno dei temi più controversi e inquietanti nel campo delle future tecnologie belliche: la possibilità che l’evoluzione dei supercomputer e dei software di machine learning e poi di deep learning portassero allo sviluppo e all’impiego di killer robot, ovvero armi autonome letali che operano senza il diretto intervento umano.
Oggi, i sistemi di armi autonome – tra cui droni, missili intelligenti e altri sistemi militari in azione ad alcune centinaia di chilometri da noi in Ucraina e in Medio Oriente – sembrano risolvere molte delle sfide logistiche e operative dei conflitti moderni, promettendo maggiore precisione, riduzione dei rischi per i soldati e un’operatività più efficace in ambienti ostili. Oltre ai robot “che si vedono”, come i droni e i missili, ci sono anche quelli “che ci vedono”: che ci sorvegliano in ogni momento ma sono più difficili da individuare e catalogare come tali. Si pensi ai sistemi di riconoscimento automatico dei volti, della postura e del modo di camminare e di muoversi, che raccolgono dati dai satelliti spia ma anche dalle telecamere sparse ai posti di blocco o all’interno delle città e che permettono di riconoscere e classificare esattamente le singole persone. Sono, quindi, in grado di analizzare enormi masse di dati per capire chi frequenta chi, dove vanno e cosa fanno le persone sospette per poi taggare ciascuno dandogli un punteggio come probabile terrorista. Più è alto il punteggio, più risulta accettabile colpire il sospetto scegliendo, almeno in teoria, il luogo e il momento in cui l’attacco potrebbe causare il minor numero possibile di vittime civili, cioè di persone ugualmente taggate ma classificate come a basso potenziale di rischio come terroristi.
Tuttavia, questi stessi strumenti pongono questioni morali e legali che non possono essere ignorate. Questioni etiche nelle mani di decisori politici che spesso non brillano per la loro affidabilità o per i loro scrupoli morali, come raccontavo già l’anno successivo – il primo dell’era Trump – su Linkiesta.
A distanza di quasi un decennio da allora, gli sviluppi tecnologici e la situazione geopolitica hanno reso ancor più urgenti queste considerazioni; mentre le nuove guerre che oggi infiammano il Mediterraneo Orientale continuano a sollevare fondamentali interrogativi sull’utilizzo delle tecnologie di IA in un contesto bellico.
L’avvento delle armi autonome e i nuovi paradigmi di guerra
Quando parliamo di “armi autonome” o “killer robot”, ci riferiamo a sistemi d’arma che utilizzano intelligenza artificiale (IA) per identificare, decidere ed entrare in un’azione offensiva in modo autonomo. Questi sistemi sono progettati per operare senza il continuo intervento umano, ma con capacità decisionali basate su algoritmi che analizzano una vasta gamma di dati provenienti dal contesto operativo. Già un decennio fa era evidente come la rapidità con cui si evolvevano le – allora rudimentali – tecnologie di IA e robotica avrebbero presto cambiato il volto della guerra. Oggi, sistemi come i droni loitering (che vagano su una determinata area in cerca di prede) e i missili intelligenti (che discriminano sul momento le condizioni operative e l’ingaggio con il bersaglio) sono già in uso in vari conflitti, dove eseguono operazioni letali basate su analisi in tempo reale. A questo si aggiunge il crescente interesse delle principali potenze militari (Stati Uniti, Russia, Cina, ma anche Iran e, ovviamente, Israele) per lo sviluppo di “sistemi d’arma autonomi” in grado di operare su larga scala prendendo decisioni indipendenti.
E’ oggi evidente come la proliferazione di queste tecnologie, se non regolamentata, possa portare a un cambiamento radicale nella natura della guerra. L’autonomia operativa dei sistemi d’arma potrebbe ridurre la capacità umana di intervenire in situazioni critiche, con implicazioni profonde per la morale del conflitto e per la protezione dei diritti umani. La guerra in Ucraina e in Russia, ad esempio, ha visto un aumento significativo nell’uso di droni autonomi, con obiettivi attaccati senza l’intervento diretto di un operatore umano. Questo sviluppo, non solo pone nuove sfide alla guerra moderna, ma minaccia anche di alterare per sempre il concetto di responsabilità e accountability in ambito bellico.
L’errore iniziale: le limitazioni dell’IA
Una delle principali preoccupazioni sollevate da esperti e analisti è la fallibilità dei sistemi di IA. Nonostante gli incredibili progressi tecnologici, le macchine non sono infallibili. Anzi: l’intelligenza artificiale è soggetta a numerosi errori. Quando ChatGPT prende cantonate, il rischio peggiore per chi tenta di usarla senza una conoscenza – profonda, personale e indipendente – del contesto in cui cerca di farle produrre un contenuto, è quello di fare una figuraccia colossale.
Ma le cose cambiano in una applicazione militare. Un algoritmo può essere mal addestrato o basarsi su dati incompleti, con il risultato che i sistemi autonomi possono prendere decisioni sbagliate in scenari complessi come quelli di un conflitto. Gli errori di identificazione sono tra i più pericolosi: un drone potrebbe erroneamente considerare un obiettivo civile come un combattente (magari viene taggato come sospetto solo il bottegaio da cui il terrorista si reca quotidianamente per fare la spesa, e quindi pure la famiglia del bottegaio e, perciò, anche i loro amici), portando a conseguenze devastanti per la popolazione non coinvolta nel conflitto.
Nel citato articolo del 2016, era già stata sollevata la questione dell’affidabilità di tali tecnologie in situazioni ad alta intensità emotiva e stressante, dove l’incertezza è la norma. L’IA, infatti, agisce in base a modelli statistici e algoritmi predittivi che, pur essendo estremamente avanzati, non possiedono la capacità di comprendere il contesto morale e umano che una decisione militare richiede. La macchina, per quanto sofisticata, non ha la capacità di valutare le implicazioni etiche di un attacco, né di prendere in considerazione fattori come la possibilità di sminuire la sofferenza umana. Un altro rischio legato a questi errori è la difficoltà di individuare la causa dell’errore stesso. A differenza di un soldato, che potrebbe essere interrogato sulla sua decisione e rispondere per le sue azioni, un sistema autonomo non può essere ritenuto responsabile in modo diretto. Né si può capire fino in fondo la logica con cui ha assunto decisioni rivelatesi disastrose: queste, infatti, sono state prese sulla base di una tale mole di dati – e su elaborazioni così fuori portata rispetto alle capacità di comprensione umane – da risultare assolutamente incomprensibili. Avete mai provato a capire il motivo per cui Gemini cerca di convincervi della genuinità di sciocchezze scientifiche terrificanti che ha scopiazzato chissà dove e frullato insieme vomitandole in un testo apparentemente coerente ma privo di qualsiasi legame con la realtà? Tornando al contesto bellico, questa nostra incapacità di comprendere gli errori ed evitare che si ripetano rende questa nuova fase dell’evoluzione della guerra vulnerabile a problemi di “responsabilità diffusa” che minano il rispetto del diritto internazionale umanitario.
Responsabilità, controllo ed etica delle decisioni letali
La questione della responsabilità è centrale in ogni dibattito sull’uso di armi autonome. Se un drone autonomo prende la decisione di attaccare un obiettivo, chi è responsabile per quell’atto? È il governo che ha autorizzato l’uso del sistema? Il produttore del drone? Il programmatore dell’algoritmo che ha determinato il comportamento del drone? Chi lo ha inviato sul campo di battaglia? Oggi, come allora, il diritto internazionale non è sufficientemente preparato ad affrontare queste problematiche, soprattutto considerando che le leggi internazionali sono state concepite per situazioni in cui un individuo ha il controllo diretto delle azioni letali.
Il problema si complica ulteriormente con la proliferazione di questi sistemi. Ogni volta che un sistema autonomo viene impiegato in un conflitto, le linee di responsabilità diventano sempre più sfumate, creando vuoti giuridici che potrebbero essere facilmente sfruttati da Paesi che cercano di eludere le normative internazionali. Questo è un tema che ha assunto maggiore rilevanza negli ultimi anni, con le potenze mondiali che, pur dichiarando impegni per la regolamentazione di queste tecnologie, continuano a investire pesantemente nel loro sviluppo. I Paesi che sviluppano e dispiegano armi autonome potrebbero trovarsi in una posizione di vantaggio rispetto a quelli che non hanno accesso a queste tecnologie, creando un divario tecnologico che potrebbe favorire escalation incontrollabili.
Lo sviluppo delle tecnologie e le implicazioni geopolitiche
Nel 2016, erano già evidenti i rischi di una proliferazione incontrollata di queste armi, ma oggi questa preoccupazione è ancor più urgente. L’uso di sistemi autonomi in guerra, se non controllati, potrebbe essere una forza destabilizzante per il sistema geopolitico mondiale. Il crescente sviluppo di armi autonome sta portando a una nuova corsa agli armamenti tecnologici. Le potenze globali si trovano a competere non solo per il dominio militare, ma anche per l’influenza sulla definizione delle regole che governano l’uso di queste tecnologie. In un contesto del genere, le norme internazionali rischiano di diventare obsolete, mentre la proliferazione di droni e altre armi autonome potrebbe rendere la guerra più difficile da monitorare e controllare. E la sempre più grave perdita di credibilità degli organismi sovranazionali – pensiamo alle azioni unilaterali delle agenzie come UNRWA, ai risultati della missione UNIFIL, e saliamo fino alle recenti decisioni del Tribunale dell’Aia o del Consiglio di Sicurezza dell’ONU – mina alla radice la possibilità che un organismo riconosciuto a livello sovranazionale ed al di sopra delle parti possa imporre decisioni autorevoli, rispettabili e rispettate da tutte le parti in causa.
Le potenze emergenti e i gruppi non statali, che infestano gli Stati falliti come Siria e Libano, potrebbero facilmente accedere a tecnologie che, a differenza delle armi nucleari o chimiche, non richiedono enormi capacità scientifiche e industriali per essere prodotte. L’accesso a sistemi autonomi low-cost, come i droni commerciali modificati, potrebbe democratizzare la guerra, permettendo a gruppi terroristici e a governi autoritari di operare su scala globale senza dover necessariamente possedere risorse nucleari o sofisticate armi convenzionali. Questo tipo di guerra asimmetrica, in cui gruppi più piccoli possono sfruttare l’autonomia delle armi per attaccare potenze più grandi, potrebbe alterare radicalmente le dinamiche dei conflitti internazionali.
Un futuro senza controllo e la necessità di una regolamentazione globale
Certamente con molta ingenuità, nel 2016 avevo concluso con una chiamata urgente alla comunità internazionale per sviluppare una regolamentazione robusta sull’uso di armi autonome. Oggi, questa necessità è ancora più acuta. Il rischio è che la proliferazione delle armi autonome, se lasciata fuori da un controllo internazionale, possa portare a una guerra non solo più tecnologica, ma anche più imprevedibile, dove le decisioni non sono più prese da esseri umani, ma da algoritmi senza coscienza. Questo scenario solleva interrogativi sul futuro della guerra e sull’etica delle decisioni belliche.
Il dibattito sull’uso delle armi autonome non riguarda solo l’efficienza o la precisione delle operazioni, ma implica anche una riflessione più profonda sulla natura della guerra stessa. La guerra è, o dovrebbe essere, una tragica estensione della politica, regolata da principi morali e giuridici. L’introduzione di algoritmi e di macchine in grado di prendere decisioni letali senza alcuna comprensione etica della realtà che stanno analizzando è una sfida che non possiamo ignorare.
È fondamentale che la comunità internazionale, sotto l’egida delle Nazioni Unite e degli organismi competenti, ritrovi credibilità e sviluppi trattati vincolanti che stabiliscano linee guida chiare per l’uso delle armi autonome. Questi trattati dovranno fissare limiti rigorosi all’autonomia decisionale di tali sistemi, garantire che il controllo umano rimanga centrale in ogni fase dell’operazione e stabilire forti sanzioni per chi viola questi principi.
In conclusione, la guerra del futuro potrebbe essere determinata non solo dalla superiorità numerica o tecnologica, ma anche dalla capacità di governare queste nuove tecnologie in modo responsabile. La nostra responsabilità collettiva è quella di garantire che il progresso tecnologico non prevalga sui diritti umani e sulle leggi che proteggono la dignità e la vita umana. Solo attraverso un impegno globale condiviso sarà possibile evitare che la guerra diventi una macchina incontrollabile degna di un film come “Terminator”. Ma reale.