GUERRE DI RETE – Gaza, la guerra, l’AI

Carola Frediani, nella nuova puntata della sua cyber-newsletter, segue l’AI sul campo di battaglia di Gaza e propone l’intervista a Erik Davis, autore del seminale TechGnosis negli anni ’90

--------------------------------------------------------------
INTELLIGENZA ARTIFICIALE PER LA SCENEGGIATURA, CORSO ONLINE DAL 28 MAGGIO

--------------------------------------------------------------

Guerre di Rete – una newsletter di notizie cyber
di Carola Frediani
N.184 – 6 aprile 2024

--------------------------------------------------------------
#SENTIERISELVAGGI21ST N.17: Cover Story THE BEAR

--------------------------------------------------------------

AI E GUERRA
Quale ruolo dei sistemi di AI nella guerra a Gaza?

Dopo l’attacco di Hamas del 7 ottobre e l’inizio della guerra a Gaza, l’individuazione di obiettivi da colpire da parte dall’esercito israeliano (IDF) ha subito una forte accelerazione. Per soddisfare la richiesta di nuovi target da colpire – sostiene un lungo reportage del Guardian, basato in larga parte su un’inchiesta pubblicata su due media israeliani critici del loro attuale governo, Local Call e +972 Magazine – l’IDF avrebbe fatto affidamento su Lavender, un sistema che genera un database di individui che avrebbero le caratteristiche di un militante di Hamas o della PIJ (Palestinian Islamic Jihad).

Lavender avrebbe svolto un ruolo centrale nei bombardamenti sui palestinesi, soprattutto durante le prime fasi della guerra, afferma l’inchiesta. E la sua influenza sulle operazioni militari sarebbe stata tale da indurre i militari a trattare i risultati del sistema di AI “come se si trattasse di una decisione umana”, sostiene +972 Magazine. Autore dell’inchiesta è Yuval Abraham, già coautore del documentario No Other Land (premiato al Festival del cinema di Berlino, qui un pezzo di Valigia Blu che lo racconta).

“Nelle prime settimane di guerra, l’esercito si è affidato quasi completamente a Lavender, che ha individuato ben 37.000 palestinesi come sospetti militanti – e le loro case – per possibili attacchi aerei”, scrive ancora +972 Magazine, aggiungendo che l’esercito avrebbe autorizzato gli ufficiali ad adottare le liste di target identificate da Lavender, senza alcun obbligo di verificare a fondo il motivo per cui il sistema aveva fatto quelle scelte o di esaminare i dati di intelligence grezzi su cui si basavano.

Il sistema Lavender si aggiunge a un altro sistema di intelligenza artificiale, noto sui media come “Habsora/Gospel”, di cui si era già parlato in passato. Ma una differenza fondamentale tra i due sistemi è nella definizione del bersaglio: mentre Gospel contrassegna gli edifici e le strutture da cui opererebbero i militanti, Lavender individua persone – e le inserisce in una kill list, una lista di persone da uccidere.
L’inchiesta sostiene anche che ci sia un ulteriore sistema per individuare e colpire il target quando sta rientrando a casa.

In risposta a questa inchiesta, riporta ancora il Guardian, l’IDF ha dichiarato in un comunicato che le sue operazioni sono state condotte in conformità alle regole di proporzionalità del diritto internazionale. Che Lavender sarebbe solo un database utilizzato “per incrociare le fonti di intelligence” e non sarebbe “un elenco di operativi militari confermati”. E ha affermato di non utilizzare un “sistema di intelligenza artificiale che identifica gli operativi terroristici o cerca di prevedere se una persona è un terrorista”.
Inoltre l’IDF respinge categoricamente l’affermazione dell’esistenza di qualsiasi policy di uccisione di decine di migliaia di persone nelle loro case.

Ma questa inchiesta, se confermata nei dettagli, apre interrogativi enormi e inquietanti sul ruolo che i sistemi di AI stanno assumendo o potranno assumere in guerra, sistemi che tendono già a essere delle scatole nere per come sono progettati e funzionano, e che specie in scenari di conflitto diventano ancora più opachi, privi di controlli o audit esterni. Sappiamo che storicamente le affermazioni sull’accuratezza di questi sistemi sono state smentite più e più volte non appena qualcuno ha potuto verificarli. Senza contare che la loro accuratezza, in molti casi, semplicemente si rivela per quello che è col loro utilizzo, e resta sotto gli occhi di chiunque voglia davvero guardare.

Tutto questo ha colpito e smosso una parte della comunità tech presente online. Tra chi fa un appello a concentrarci subito sull’uso dell’AI in ambito militare. Chi vuole sapere quali processi di revisione siano adottati da IDF in questi sistemi. Chi, come Brian Merchant, commenta che “l’AI è terrificante non perché è troppo potente, ma perché permette agli operatori di scaricare le responsabilità sul sistema e ai leader di usarla per giustificare quasi tutti i livelli di violenza”.

“L’AI come pretesto per una violenza mortale”, ha commentato pure la linguista e critica dell’hype sull’intelligenza artificiale Emily Bender. Anche Claudio Agosti, della no profit AI Forensics, mette in guardia dal rischio di cadere nella narrazione che è “la tecnologia che sta facendo il lavoro, non è colpa tua”. Anche per Meredith Whittaker (Signal), “​​dobbiamo assicurarci che l’AI non sia usata per facilitare la fuga computazionale dalle colpe”.

“L’uso della tecnologia AI  – commenta un’analisi del WashPost al riguardo – è ancora solo una piccola parte di ciò che angoscia gli attivisti per i diritti umani riguardo alla condotta di Israele a Gaza. Ma indica un futuro più oscuro”.

Mona Shtaya, una non resident fellow al Tahrir Institute for Middle East Policy, ha dichiarato a The Verge che “il sistema Lavender è un’estensione dell’uso di tecnologie di sorveglianza da parte di Israele sui palestinesi sia nella Striscia di Gaza che in Cisgiordania. Shtaya, che risiede in Cisgiordania, ha dichiarato a The Verge che questi strumenti sono particolarmente preoccupanti alla luce delle notizie secondo le quali le startup israeliane della difesa sperano di esportare all’estero la loro tecnologia testata in battaglia”.

La coalizione Stop Killer Robots (che chiede una legge internazionale sui sistemi d’arma autonomi e che vuole far mantenere il controllo umano sull’uso della forza) ha pubblicato un commento in cui dice di “trovare profondamente preoccupanti, da un punto di vista legale, morale e umanitario, le notizie sull’uso da parte di Israele di sistemi di raccomandazione dei bersagli nella Striscia di Gaza. Sebbene il sistema Lavender, come il sistema Habsora/Gospel, non sia un’arma autonoma, entrambi sollevano serie preoccupazioni sull’uso crescente dell’intelligenza artificiale nei conflitti, sui pregiudizi dell’automazione (automation bias), sulla disumanizzazione digitale e sulla perdita del controllo umano nell’uso della forza”.

CULTURA CYBER
Erik Davis: non lasciamo il sogno della tecnologia ai padroni del tech

Su Guerre di Rete abbiamo pubblicato una bellissima intervista di Philip Di Salvo a Erik Davis, autore di Techgnosis negli anni ’90.

Scrive Philip: “Seguire le discussioni attorno alla tecnologia oggi significa anche, spesso, confrontarsi con toni estatici, mistici, quasi religiosi. Lo si vede attorno all’intelligenza artificiale e alle preoccupazioni da fine del mondo e della storia che le vengono spesso associate, insieme alle sue capacità sovrumane. Non vi sono dubbi che questi punti di vista siano erronei e persino pericolosi in termini scientifici, sociali e politici, ma allo stesso tempo dimostrano anche qualcosa di più ampio e di natura differente. Le tecnologie dell’informazione, da che esistono, sono sempre state accompagnate da una dimensione narrativa quasi spirituale; per via dei loro loro tratti conturbanti o sublimi (come teorizzato dal ricercatore Vincent Mosco, recentemente scomparso), a tratti quasi disturbanti, e alla loro capacità di aprire faglie, spalancare orizzonti, connetterci con dimensioni altre”.(…)

Uscito originariamente nel 1998, Techgnosis è diventato progressivamente un elemento cruciale di quella mistica, un testo ovviamente molto ancorato nello Zeitgeist in cui è stato scritto, ma allo stesso tempo capace di guardarvi con la giusta dose di distacco e disincanto, tanto da essere ancora sorprendentemente attuale ora che viene riproposto dall’editore NERO con una nuova traduzione italiana. (…)

Leggere Techgnosis oggi, però, in tempi in cui l’immaginazione di altro nella tecnologia sembra impossibile per chiunque non sia un miliardario intriso di bullshit escatologiche da capitalismo impazzito a un passo dal fascismo, è un esercizio rivitalizzante. Leggerlo serve a ricordare che l’utopismo tecnologico degli anni ’90, al netto dei suoi lati più risibili, era anche un motore positivo di potenziale cambiamento. Niente o quasi di quello che si sognava allora si è materializzato e quella battaglia è forse persa per sempre, ma in Techgnosis si trova ancora un qualche seme psichedelico e mistico su cui almeno provare a sognare delle tecnologie che non siano solo statistica applicata, burocraticizzazione della natura umana, efficienza quantitativa e incubi securitari”

Dice Davis a Di Salvo: “Siamo in una situazione davvero difficile e quello che sta succedendo attorno alI’AI è un ottimo esempio. Noi due possiamo stare in cima alla collina tutto il giorno con i nostri megafoni e dire che è solo statistica, che è semplicemente un’operazione algoritmica parassitaria applicata alla conoscenza umana pre-esistente, e così dicendo. Ma a un livello più ampio, quel tipo di fiction speculativa, del mito, continuerà semplicemente a girare imperterrita e in realtà modellerà anche il modo in cui le persone interagiscono davvero con tutto questo”.

Leggetela tutta sul sito di Guerre di Rete

 


QUI LA VERSIONE COMPLETA DELLA NEWSLETTER

--------------------------------------------------------------
CORSO DI SCENEGGIATURA ONLINE DAL 6 MAGGIO

--------------------------------------------------------------

    ISCRIVITI ALLA NEWSLETTER DI SENTIERI SELVAGGI

    Le news, le recensioni, i corsi di cinema, la riviste, i libri, gli eventi e tutte le nostre iniziative


    Array

    Scrivi un commento

    Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *