Piccolo come un giocattolino, un ragno meccanico appoggiato sul palmo di una mano quando è a riposo, ma capace di volare, schivare gli ostacoli, scartare di lato, velocissimo, di riconoscere una faccia attraverso i dati immagazzinati e i sensori, di individuarla come bersaglio e come una fulminea ape elettronica si tuffa per penetrarne l’osso frontale in mezzo agli occhi con una carica di tre grammi di esplosivo.
Ecco, questo delicato marchingegno kamikaze senza colpe né dubbi è un killer robots, un mini drone programmato per decidere autonomamente chi uccidere e chi no, il protagonista prescelto per le guerre «intelligenti» del futuro, un futuro non tanto lontano.
GIÀ DA UN PAIO D’ANNI negli Stati uniti si è sviluppato un dibattito sulla messa al bando preventiva di questi sistemi d’arma che, utilizzando robotica di precisione e tutte le tecnologie più innovative nel campo dell’intelligenza artificiale, sono chiamati ad agire militarmente, nuovi soldatini guidati da una complessa serie di algoritmi piuttosto che dalla imprecisa e tremolante mano umana.
Già 28 Paesi, tra cui la Cina, hanno chiesto la loro messa al bando; ci sono a Bruxelles tavoli di esperti che studiano la materia e riferiscono a governi europei estremamente preoccupati del possibile lancio di questa nuova gamma di micidiali prodotti, ordigni intelligenti ma non troppo, visto che possono scambiare uno scuolabus per uno struzzo e forse per un commando terrorista attraverso errori di progettazione e quelli che gli esperti chiamano «bias» o «bachi di sistema», in ogni caso capaci di rivoluzionare lo scenario di una conflittualità mondiale permanente come quando e molto di più fu esploso il primo fungo nucleare.
Pochi giorni fa la Rete italiana per il disarmo – vincitrice del premio Nobel per la pace 2017 come partner dell’Ican – ha lanciato la campagna «Stop killer robots» anche in Italia – dopo Francia, Germania e Usa – con un appello firmato da 110 scienziati italiani, ricercatori, dottorandi e professori universitari, quasi tutti informatici, ingegneri della conoscenza, esperti di robotica e di Ai, intelligenza artificiale, che chiede alla comunità internazionale di fermare l’elaborazione di sistemi d’arma a guida autonoma.
«In realtà ci può anche essere una autonomia totale dell’arma per quanto riguarda l’autodiagnosi, per vedere se c’è un malfunzionamento, o sulla mobilità ma non sul targeting e sul firing, cioè sulla scelta dell’obiettivo da colpire e sul far fuoco», spiega Diego Latella, segretario dell’Unione scienziati per il disarmo (Uspid) e informatico ricercatore del Cnr.
QUELLO CHE GLI SCIENZIATI chiedono anche nella petizione lanciata dall’associazione Life for Future (finanziata anche da Elon Musk di Tesla ndr) è la messa al bando delle armi completamente autonome quando i gradi di autonomia sono tre – spiega Latella – e si definiscono con la minimizzazione dell’intervento umano: «human in the loop» a totale controllo dell’uomo, «human on the loop», quando l’uomo interviene, «human out the loop», quando la presenza umana non è richiesta per niente.
«Non si tratta qui di dividerci tra apocalittici e integrati – dice Guglielmo Tamburrini, professore di filosofia della scienza alla Federico II di Napoli – ma di maturare una sensibilità morale ad ogni grande innovazione tecnologica e se è vero che l’intelligenza artificiale e la robotica hanno un grande impatto positivo applicate alla sanità o ai trasporti, persino ad attività di sorveglianza e di difesa, armi che vagano in uno spazio alla ricerca del nemico da colpire indipendentemente da qualsiasi controllo umano pongono l’umanità stessa a rischio».
SI PONGONO PROBLEMI ETICI e giuridici, visto che interrompendo la catena umana di comando, sarebbe impossibile definire la responsabilità dei crimini di guerra, mettendo in mora tutto il diritto internazionale e la convenzione di Ginevra. Piccoli e grandi Terminator poi non sono completamente prevedibili e si potrebbero verificare inarrestabili genocidi in una lotta tra uomo e macchina di cui abbiamo avuto un assaggio con il recente caso del jet etiope precipitato.