Michele Neri per "il Messaggero"
Siamo pronti per i robot killer? A campi di battaglia sulla terra, in acqua o in cielo dominati da strumenti di distruzione autonomi dal controllo umano? Per salvare la vita dei soldati, è lecito sviluppare tecnologie in grado di scegliere tra vita e morte senza sensi di colpa o rimorsi, e guidate da un' intelligenza artificiale e non umana?
Queste domande non riguardano un futuro lontano, ma il presente e la più grande trasformazione nella natura dei conflitti nella storia. Più di trenta nazioni hanno sviluppato armamenti autonomi, per ora operanti sotto la supervisione umana; ma la spinta a renderli autosufficienti è alimentata da un' industria miliardaria.
Uno dei maggiori fornitori del governo russo ha annunciato lo studio di un' arma capace di usare reti neurali per scegliere se sparare o meno. Sull' altro fronte, il Dipartimento della Difesa statunitense ha mostrato il video di uno stormo di cento droni autonomi sciamanti nel cielo californiano. Non c' era nessuno a controllarli. Si parla di centauri da guerra, capaci di combinare conoscenze umane e artificiali.
È un tema complesso e in cui le informazioni ufficiali sono spesso tenute nascoste. Nessuno ne è a conoscenza più di Paul Scharre. A 38 anni, prima ranger dell' esercito in Afghanistan e Iraq, poi analista per il Pentagono, ora è direttore del Technology and National Security Program al Center for a New American Security di Washington. Ha raccolto dati aggiornati e preoccupazioni etiche in un saggio appena pubblicato, Army of None (Armi di nessuno).
Qual è la domanda più urgente da farsi?
«Alle macchine dovrebbe essere permesso di decidere della vita e della morte, senza un controllo umano?».
Quanto è urgente?
«Ci sono almeno sedici Paesi che hanno sviluppato droni dotati di armamenti. E le industrie di una novantina di paesi stanno producendo una varietà infinita di armi potenzialmente indipendenti. Carri armati, sommergibili, droni, Stealth... La tecnologia perché la morte sia decisa in piena autonomia artificiale, esiste. Poche nazioni si sono dette contrarie, quasi tutte attendono di vedere gli sviluppi possibili. C' è così il rischio che la velocità della tecnologia superi quella della politica e di una necessaria regolamentazione etica. E non è l' unico».
Quali sono gli altri?
«Già adesso non sappiamo che cosa succederebbe se un sistema in grado di fare fuoco in autonomia finisse in una zona geografica in cui la comunicazione con la base, quindi con l' uomo, non funzionasse. Come reagirebbe? Si pensi poi ad altre due eventualità. Si sono evidenziati problemi rispetto all' individuazione del bersaglio. Un conto è capire la differenza tra target civili e umani se si tratta di veicoli, navi, eccetera. Ma a livello umano, il rischio di sbagliare è alto. Lo stesso per il fuoco amico: gli armamenti dell' avversario e i propri sono spesso costruiti dalle stesse industrie e indistinguibili. E c' è un fronte ancora più preoccupante. Come facciamo a essere sicuri che questi sistemi siano protetti dagli hackers e da un attacco cibernetico?».
Come influisce l' instabilità politica di questi anni?
«Aumenta il rischio di un incidente. Per ora ogni Paese sostiene di non aver adottato sistemi completamente indipendenti. Il mio timore è che questa posizione potrebbe cambiare in un attimo se la percezione della sicurezza nazionale cambiasse radicalmente per effetto di una modificazione nell' ambiente politico circostante. Allora addio limiti morali».
Quali sono i Paesi più avanzati?
«Cina. Poi Usa, Russia, Corea del Sud, Regno Unito e Francia. Il singolo sistema autonomo più avanzato è di Israele, il drone Harop, già venduto a molti Paesi».
Nel 2016 l' Azerbaigian l' ha usato nella regione del Nagorno-Karabah, colpendo un convoglio di soldati armeni. Potrebbe essere la prima volta che esseri umani sono stati uccisi da una macchina autonoma. Ce ne sono state altre?
«È difficile stabilirlo, perché si tende a dar subito la colpa all' uomo. Già nel 2003 un Patriot, dotato di un sistema d' ingaggio automatico, senza quindi la necessità dell' intervento umano, abbatté due aerei amici, uno americano a uno inglese».
Nel libro parla della convergenza pericolosa tra sviluppo di armi autonome e progressi dell' intelligenza artificiale.
Quale potrebbe essere il pericolo?
«Com' è successo in Borsa, dove un baco nell' algoritmo ha creato un flash crash (un crollo lampo), si potrebbe scatenare una flash war, dove gli algoritmi interagiscono in modo non previsto, ordinando ai robot di aprire il fuoco e più rapidamente di qualsiasi umana possibilità di fermarli.
Quando le armi sono così veloci che diventa impossibile tener loro dietro, si parla di singolarità nei campi di battaglia».
Nel saggio descrive i rischi del fai da te. È facile costruirsi un drone killer in garage?
«Sì. Online si trova tutto. Per il software basta uno con la laurea breve in informatica».
Quanto ci vuole?
«Mille dollari».
Cinque anni fa un gruppo di Ong, scienziati e attivisti, tra cui il Nobel per la pace Jody Williams, ha avviato una campagna internazionale per fermare i robot killer. A cosa ha portato?
«È stata fondamentale per provocare la discussione; ma per ora dalle riunioni sono uscite soltanto altre riunioni».