martedì 25 giugno 2024

RES PUBLICA. Algoritmi di guerra

 

FONTE: "Messaggero di sant'Antonio" giugno 2024.
Articolo: "Algoritmi di guerra" di ROBERTO REALE.

L'intelligenza artificiale usata per individuare bersagli umani. Sta succedendo a Gaza, aprendo scenari inquietanti per l'intero pianeta.

In Italia se n'è parlato poco, ma è una vicenda che merita attenzione, perché apre uno squarcio su quello che "The Washington Post"  ha definito il "terrificante mondo delle intelligenze artificiali usate a scopi militari".
Stiamo parlando di un'inchiesta pubblicata da due siti di informazione israeliani, poi rilanciata dal britannico "The   Guardian".
Ha svelato l'esistenza  di un software progettato con l'obiettivo di individuare "bersagli umani" nei bombardamenti su Gaza. In pratica all'algoritmo, gestito dall'esercito di Tel Aviv, è stato affidato un database   con una lunghissima lista di potenziali  miliziani  palestinesi da uccidere.
Quando le videocamere segnalavano la presunta presenza sul terreno di queste persone,  ai militari restavano solo venti secondi per decidere se colpire o no. Facile capire che in molti casi si sia "proceduto in automatico", anche perché i soldati avevano ricevuto l'ordine di "distruggere Hamas, a qualunque costo".
A  rivelarlo sono stati sei componenti dei servizi segreti, le cui testimonianze sono state riportate da Yuval Abraham, giornalista e documentarista israeliano, impegnato per la pace, già vincitore di un prestigioso premio al Festival del Cinema di Berlino.
Il software era pensato per colpirli direttamente nelle loro case.  C'era il rischio di ucciderne i familiari? I "danni collaterali" erano messi in conto, donne  e bambini che fossero.
Da ultimo merita attenzione il nome stesso del programma  dell'IA. Si chiama Lavender, l'etimo richiama ciò che  "deve essere lavato, ripulito", sembra la lingua di Orwell oggi molto in voga nei conflitti che insanguinano il pianeta.
Ma questa problematica degli "algoritmi di guerra" ha dimensioni che vanno ben oltre Gaza.
Henry Kissinger, uno dei protagonisti della politica estera degli Stati Uniti, nel suo ultimo libro,  scritto poco prima di morire, L'era dell'intelligenza articiale, si è posto il problema degli arsenali nucleari delle grandi potenze: se si affidano alle macchine i tempi di reazione a un presunto attacco che succede? L'autore ha invitato le grandi potenze a dialogare, per evitare irreparabili disastri. 
La questione ha enormi riflessi sul piano etico. Se ne è fatto interprete papa Francesco presentando la Giornata della Pace del 2024, quando ha affermato che è grave motivo di preoccupazione "la ricerca nel settore dei cosiddetti sistemi  d'arma autonomi letali" che includono "l'utilizzo  bellico dell'intelligenza artificiale".
Parole  che avrebbero meritato maggiore attenzione dai media italiani. Per fortuna, a livello globale, come abbiamo visto, c'è ben altra consapevolezza.
Negli Stati Uniti sono uscite diverse inchieste sui rapporti delle grandi aziende Hi Tech col Dipartimento della Difesa e l'industria delle armi.
Non mancano poi studi e ricerche che partono dal basso,  come quello del sito stopkillerrobots.org animato da un gruppo di giovani ricercatrici mobilitate per chiedere che le tecnologie siano usate per promuovere pace e diritti umani, non per uccidere.
In altre parole, a chi ci domanda se abbiamo paura dei robot killer conviene rispondere che ne abbiamo molta di più degli umani che prima li progettano o poi li utilizzano.                                                                                                                          

Nessun commento: