Il pulsante rosso per scatenare la Terza Guerra Mondiale affidato a un’intelligenza artificiale

Al sistema gli esperti militari americani vorrebbero cedere i codici di lancio dell’intero arsenale nucleare

Il pulsante rosso per scatenare la Terza Guerra Mondiale affidato a un’intelligenza artificiale

C’è chi vorrebbe il mondo libero da qualsiasi arma di distruzione di massa e chi, invece, sogna di poter mettere tutto l’arsenale nucleare in mano ad un’intelligenza artificiale. Questa avrebbe il compito di reagire autonomamente in caso di attacco nemico. Quali siano i criteri di valutazione adottati dall’AI non è dato saperlo, sta di fatto che in tanti si domandano come possa un’entità artificiale comprendere la differenza tra un incidente e un vero e proprio attacco nemico. L’obiettivo dei militari è quello di azzerare, o quantomeno ridurre ai minimi termini, il tempo di reazione a disposizione dei vertici militari di ogni governo per rispondere a un eventuale attacco nucleare.

E dunque, bombardieri invisibili, missili supersonici con testata termonucleare e tutti gli altri sistemi d’arma, dovrebbero essere gestiti da un computer con il massimo grado di autorizzazione. I primi sostenitori di questa folle idea sono due consulenti dell'U.S. Air Force, Adam Lowther e Curtis McGiffin. Solo in questo modo, precisano, l’America sarà realmente in grado di scongiurare degli attacchi diretti o delle potenziali minacce. Al sistema intelligente sarebbe consentito persino di gestire le truppe, valutando in totale autonomia sé e quando spostarle verso i confini di un Paese ostile.

Benché la tecnologia sul fronte delle AI abbia fatto dei passi in avanti impressionanti c’è chi, e sono tanti, non manca di rimarcare quanto accaduto il 26 settembre del 1983 nella ex Unione Sovietica. All’epoca, i sistemi di sorveglianza missilistica URSS, rilevarono il lancio di cinque missili lanciati probabilmente dagli americani contro il territorio sovietico. Il tenente colonnello Stanislav Petrov, dell’esercito dell’ex Unione Sovietica, avrebbe dovuto reagire alla notifica del sistema pigiando il bottone rosso che avrebbe scatenato una guerra nucleare. Per fortuna quell’uomo esitò, e la vicenda si concluse con un nulla di fatto: le rilevazioni del sistema semi-automatico erano completamente sbagliate, Petrov salvò il pianeta dalla Terza Guerra Mondiale. C’è da domandarsi se, a distanza di 36 anni, i sistemi autonomi sono diventati più sicuri. Cosa farebbe una AI, oggi, nel caso in cui dei sensori andati in tilt segnalassero l’arrivo di 5 missili?

Neppure Michael Horowitz, avvocato americano e funzionario del governo, nonché ispettore generale del Dipartimento di giustizia degli Stati Uniti ed esperto di innovazione militare, sembra completamente certo di voler affidare ad una intelligenza artificiale tutto questo potere decisionale. Il problema è che l’uomo considera i “computer” infallibili. Tale condizione, chiamata automation bias, ossia la propensione per gli esseri umani a favorire i suggerimenti provenienti dai sistemi decisionali automatizzati, ignorando le informazioni contraddittorie prodotte senza automazione (anche se corrette), viene confermata da una moltitudine di studi.

Horowitz sottolinea inoltre un problema. Per funzionare correttamente un sistema di AI militare dovrebbe essere istruito, attraverso una infinità di dati relativi a casi e situazioni differenti. Come si può dunque prepararlo se non esiste una casistica di questo tipo? La soluzione messa sul tavolo dagli scienziati si baserebbe soltanto su simulazioni poco affidabili, e ricorda non poco un film di fantascienza risalente al 1983 che - nel suo genere - ha fatto certamente la storia: Wargames. Siamo certi di voler rischiare il futuro del mondo e dell’intera umanità in questo modo?