GUERRA FUTURA. La guerra è affare troppo serio per lasciarlo ai robot

100

I russi starebbero sperimentando armamenti con Intelligenza Artificiale, nella guerra russo-ucraina. Ma non in maniera estensiva.

Ci sono diverse ragioni potenziali per questo. La più probabile è che non si fidino dell’IA per un uso indipendente sul campo di battaglia. Sappiamo anche che i cinesi e gli iraniani stanno esaminando la militarizzazione dell’IA, ma non ci sono molte informazioni aperte.

L’IA killer è ben presente nel futuribile fantascientifico.

Film come The Terminator e WarGames erano avvertimenti su simili armi fuori dal controllo umano. In un famoso episodio di Star Trek, all’IA viene permesso di controllare l’astronave Enterprise durante un’esercitazione militare e provoca morte e distruzione finché il capitano Kirk e il suo equipaggio non riprendono il comando. Fino ad oggi, questo tipo di questioni erano solo fiction. Oggi i progressi tecnici ci costringono ad affrontarli davvero.

Gli Stati Uniti si sono dimostrati riluttanti a permettere alle IA di operare in modo indipendente sul campo di battaglia senza la supervisione di un umano. Tuttavia, la situazione potrebbe cambiare se un avversario mostrasse un deciso vantaggio tattico e operativo nell’uso dell’IA. Non c’è dubbio che l’IA possa prendere decisioni più velocemente degli operatori umani, ma resta da chiedersi se tali decisioni siano le migliori.

La fuga di Osama bin Laden nel 2001 dalle montagne di Tora Bora, in Afghanistan, è stata in gran parte attribuita al ponderoso processo decisionale della cellula di puntamento del Comando Centrale degli Stati Uniti, in cui un comitato di ufficiali non riusciva a mettersi d’accordo per sparare finché l’obiettivo previsto non era scomparso nelle sue caverne.

Il Center for Emerging Threats and Opportunities, Ceto, del Corpo dei Marines ha intrapreso un esperimento per verificare se un processo decisionale simulato dall’intelligenza artificiale potesse migliorare il problema del targeting. A due squadre è stata data una serie identica di 20 problemi di puntamento che simulavano un velivolo senza pilota Predator armato di missili Hellfire. I problemi variavano da semplici a molto complessi. Alcuni coinvolgevano civili mescolati a combattenti nemici ostili.

La prima squadra era una cellula di puntamento umana composta da personale di intelligence, un avvocato operativo e uno specialista di affari pubblici, e guidata da un ufficiale operativo esperto, simile al gruppo decisionale nella situazione di Tora Bora. La seconda squadra ipotizzava che il Predator avesse a bordo un’intelligenza artificiale con capacità decisionale di sparare o non sparare. Il singolo umano che simulava l’IA aveva una serie di criteri rigorosi su cui basare le decisioni, simulando la programmazione del computer. I risultati sono stati molto interessanti. Non sorprende che la simulazione dell’IA abbia preso decisioni più velocemente della squadra di puntamento, ma entrambe hanno preso la decisione sbagliata circa il 20% delle volte. Le situazioni in cui le due squadre sbagliavano erano generalmente diverse ma, come nel combattimento reale, nessuna delle due era immune da errori.

La grande differenza era la responsabilità. La squadra umana poteva essere ritenuta responsabile delle sue decisioni e in genere ha scelto la strada della sicurezza quando sembravano essere presenti civili innocenti. L’IA era meno vincolata e doveva agire rigorosamente entro i limiti delle istruzioni di programmazione. In un caso, ha sparato contro una tenda da sole sotto la quale un gruppo di insorti armati si era riparato, uccidendo un gruppo di acquirenti in un souk simulato. Situazioni come questa sollevano la questione di chi sarebbe responsabile delle morti.

Sarebbe la persona o le persone che hanno programmato l’IA? Sarebbe il produttore? Potremmo sempre smantellare il velivolo, ma cosa risolverebbe?

Il vero problema rimane quello morale. Tranne che nel caso di combattimenti tra robot, l’uso dell’IA richiederà che il robot decida di eliminare vite umane.

In una certa misura, oggi utilizziamo un limitato processo decisionale computerizzato nelle armi. I missili Cruise e altri sistemi “spara e dimentica” volano da soli verso gli obiettivi, ma la decisione iniziale di ingaggiare è ancora presa con la presenza di un uomo. Se vengono uccisi degli innocenti, c’è una catena di responsabilità.

I danni collaterali ai civili si verificheranno sempre in guerra, e si faranno dei compromessi in termini di vite amiche salvate, ma si tratta di decisioni umane. Lasciare gli esseri umani fuori dal gioco non dovrebbe basarsi solo su considerazioni tecniche. Si tratta di una questione potenzialmente seria quanto le mine terrestri e le armi chimiche e nucleari.

Se la guerra è troppo importante per essere lasciata solo ai generali, dobbiamo chiederci se la vogliamo nelle mani dei robot.

Antonio Albanese

Segui i nostri aggiornamenti su Spigolature geopolitiche: https://t.me/agc_NW