mercoledì 24 aprile 2024

Collateral murder: L’Intelligenza Artificiale decide chi vive e chi muore?

."Siamo di fronte a un’agghiacciante prospettiva
di cosa ci aspetta se gli sviluppi della tecnologia
sorpasseranno rapacemente
le richieste di assunzione di responsabilità"
Rapporto di Amnesty International 2023-24

Non c'è crimine più meschino 
dell'omicidio dei deboli e degli indifesi.
Anton Pavlovich Cechov.

Leonello Oliveri
 

Proprietà Letteraria Riservata
Riproduzione Vietata

AI: sigla un tempo sconosciuta destinata però ad entrare nella nostra vita quotidiana 
(da © willyamstock.adobe.com)
segnandola e cambiandola profondamente: AI sta per Artificial Intelligence, Intelligenza Artificiale: una nuova rivoluzione i cui effetti saranno paragonabili solo a quelli causati dalla rivoluzione industriale.
Già si vedono le prime applicazioni, e purtroppo fra queste ci sono quelle in campo militare. Siamo ormai al Grande Fratello di orwelliana memoria, la AI Cyber War.

Una delle problematiche più importanti in ogni operazione militare non è il livello tecnologico o il numero di armi delle parti in guerra, ma l’intelligenza e la velocità del processo decisionale. La mente umana non è in grado di elaborare rapidamente enormi quantità di dati sugli obiettivi prefissati. l'AI cerca di compensare tale carenza.
E’ di questi tempi la notizia che l’AI sarebbe usata, estesamente, dalle Forze Israeliane (stiamo quindi parlando di scelte governative, non del Popolo Israeliano) nella “guerra di Gaza” (Operation Iron Swords, nata dopo l'attacco di Hamas ad Israele del 7 ottobre 2023) . A quale scopo? Individuare e colpire gli appartenenti (o ritenuti tali) ad Hamas, anche distruggendo gli edifici in cui si trovano, anche se con civili all’interno.

Ecco cosa leggiamo al riguardo su Defense One, pubblicazione che “fornisce notizie, analisi tempestive e idee sugli argomenti e le tendenze che stanno definendo il futuro della difesa statunitense e della sicurezza internazionale:I sistemi di intelligenza artificiale stanno determinando quali individui dovranno essere uccisi in guerra e anche quanti civili moriranno insieme a loro”.(https://www.defenseone.com/ideas/2024/04/ai-revolution-already-here/395722/)

Secondo Defense One, che cita il magazine israelo/palestinese +972, Indipendent Jurnalism from Israel/Palestine, (in pratica la principale fonte delle notizie presentate in questo post)  verrebbero usati da Israele più  sistemi di intelligenza artificiale, dal funzionamento e scopo simile.

Il primo è Habsora (= Vangelo), un sistema con cui l’esercito israeliano processa migliaia di dati per individuare gli obiettivi degli attacchi: “Il sistema è in grado di analizzare ampie serie di dati e proporre potenziali target. In particolare, valuta i dati storici relativi agli obiettivi precedentemente individuati, consentendo di calcolare le quantità di munizioni necessarie, di proporre tempistiche precise e di stabilire le priorità. La decisione finale di attaccare compete poi ad un comandante umano» (che si spera abbia il tempo e la capacità di valutare ogni proposta dell'AI ) (https://www.editorialedomani.it/politica/mondo/i-pregiudizi-di-habsora-lai-con-cui-lesercito-israeliano-decide-dove-bombardare-wmj75ysv).

 Ci sono poi, sempre da Defense One,   Gospel che, considerando milioni di dati, segnala “gli edifici di Gaza  da colpire con artiglieria e aerei", e un altro chiamato Lavender, un data base utilizzato per incrociare le informazioni relative a persone ritenute vicine alle milizie palestinesi, in grado di elaborare rapidamente enormi quantità di dati per generare migliaia di potenziali “bersagli” per attacchi militari: Lavender cerca le persone   “inserendo qualsiasi cosa, dall’uso del cellulare all’appartenenza a un gruppo WhatsApp, per impostare una classifica tra 1 e 100 della probabile appartenenza ad Hamas”. 
I sospettati considerati ad alto livello vengono monitorati da un sistema chiamato, forse un po' cinicamente?, Where’s Daddy (  = dov'è papà )   che invia un segnale quando entrano nelle loro case, dove ci possono essere anche i loro famigliari. E nel cuore della notte arrivano le bombe..
Ci sembra interessante e anche preoccupante che la frequentazione  ad un gruppo WhatsApp cui appartiene anche un sospetto militante possa essere motivo per essere a propria volta considerati "sospetti" (e magari finire nella "lista"): infatti tra le "(..) funzionalità che possono aumentare la valutazione di un individuo" oltre al "cambiare indirizzo frequentemente" o "cambiare cellulare ogni pochi mesi" ci sarebbe anche " essere in un gruppo Whatsapp con un militante noto": (https://www.972mag.com/lavender-ai-israeli-army-gaza/).
E poi, leggiamo sempre in https://www.972mag.com/lavender-ai-israeli-army-gaza/ "(..)se l’obiettivo [di Hamas] dava [il suo telefono] a suo figlio, a suo fratello maggiore o semplicemente a un uomo a caso, [ pensiamo alle condizioni di guerra in cui si trova la popolazione di Gaza] quella persona verrà bombardata nella sua casa con la sua famiglia".
Stando a quanto leggiamo qui https://it.topwar.ru/241063-lavanda-i-evangelie-genocid-po-evrejski.html (per par condicio un sito russo dopo lo statunitense Defense One; ma anche lui cita sempre +972) Lavender” stila una lista di attivisti di Hamas (..). Lavorando con elenchi di 2,7 milioni di abitanti della Striscia di Gaza, l’intelligenza artificiale fornisce a ciascun residente una valutazione individuale del coinvolgimento nei terroristi su una scala di 100 punti."

Il  processo di autorizzazione a colpire i target segnalati dall' AI stabilirebbe " che sia accettabile un numero tra 15 e 20 vittime collaterali per ogni miliziano di Hamas o della Jihad islamica palestinese ucciso e fino a 100 vittime civili collaterali per ogni alto funzionario colpito" ( K. Carboni, Cos'è Lavender, l'intelligenza artificiale usata da Israele per colpire i palestinesi, inhttps://www.wired.it/article/lavender-intelligenza-artificiale-israele-palestina/, ma sempre da +972)
Gaza (da https://www.972mag.com/lavender-ai
-israeli-army-gaza/

Una descrizione veramente illuminante del “funzionamento” ( e conseguenze della sua applicazione) di Lavender è leggibile qui https://www.972mag.com/lavender-ai-israeli-army-gaza/. (in pratica la fonte principale di tutte le informazioni su l'uso di questi programmi di AI in questa guerra). Qui leggiamo, per es. , che Lavender "impara a identificare le caratteristiche di noti agenti di Hamas, le cui informazioni sono state fornite alla macchina come dati di addestramento, e quindi a individuare queste stesse caratteristiche “(features”) tra la popolazione generale, hanno spiegato le fonti. Un individuo che presenta diverse caratteristiche incriminanti raggiungerà un punteggio elevato e quindi diventerà automaticamente un potenziale bersaglio per l'assassinio. (..)La macchina: riceve dati sugli agenti di Hamas esistenti, impara a notare le loro caratteristiche e poi valuta gli altri palestinesi in base a quanto sono simili. ai militanti".  E per quanto riguarda la supervisione umana,  "(..)unico protocollo di supervisione umana in atto prima di bombardare le case dei presunti militanti “junior” contrassegnati da Lavender era quello di condurre un unico controllo: assicurarsi che l’obiettivo selezionato dall’IA fosse maschio anziché femmina. L'ipotesi nell'esercito era che se l'obiettivo era una donna, la macchina probabilmente aveva commesso un errore, perché non ci sono donne tra i ranghi delle ali militari di Hamas" (ibidem)

Lavender, così leggiamo qui  https://www.lidentita.it/israele-intelligenza-artificiale-per-stanare-gli-obiettivi-di-hamas/  (da ADNKRONOS, 4 aprile 2024)sarebbe stata sviluppata dalla divisione d'elite dell'intelligence delle Forze di difesa israeliane, l'Unità 8.200, che è paragonabile all'agenzia della sicurezza nazionale americana”.

 Sempre su Defense one leggiamo che i sistemi di AI "passano al setaccio milioni di dati, producendo elenchi di obiettivi più di 50 volte più velocemente di quanto potrebbe mai fare una squadra di agenti dell’intelligence umana. Ciò aumenta drasticamente la carneficina che l'accompagna. Sostenute da Gospel, le forze israeliane hanno colpito più di 22mila obiettivi nei primi due mesi di combattimenti a Gaza, circa cinque volte di più rispetto a un conflitto simile dieci anni fa". Lavender avrebbe  " contrassegnato circa 37.000 palestinesi come sospetti 'militanti di Hamas', la maggior parte dei quali giovani"  calcolando anche il probabile “danno collaterale” per ogni attacco (cioè il numero di civili, anche vecchi, donne e bambini potenzialmente coinvolti nell’attacco): "I membri dell'IDF hanno affermato che i limiti accettabili erano tra 15 e 100 vittime civili previste(It also calculated the likely collateral damage for each strike; IDF members have said the acceptable limits were between 15 to 100 expected civilian casualties).

 L’esercito israeliano avrebbe (leggiamo in https://www.972mag.com/mass-assassination-

da https://www.972mag.com/mass-assassination-factory
-israel-calculated-bombing-gaza/
factory-israel-calculated-bombing-gaza/)   file sulla stragrande maggioranza dei potenziali obiettivi a Gaza – comprese le case – che stabiliscono il numero di civili che potrebbero essere uccisi in un attacco contro un determinato obiettivo. Questa cifra viene calcolata e nota in anticipo ai servizi segreti dell'esercito, che sanno anche, poco prima dell'attacco, quanti civili potrebbero essere uccisi”(…) ". Quando la direttiva generale diventa "'Danni collaterali 5', significa che siamo autorizzati a colpire tutti gli obiettivi che uccideranno cinque o meno civili - possiamo agire su tutti i file di obiettivi che sono cinque o meno", ha detto una delle fonti citate dall'articolo (https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/).

Secondo il citato report di Adnkronos per alcune categorie di “obiettivi” ci sarebbero state delle soglie pre-autorizzate “per il numero stimato di civili che potevano essere uccisi prima che un attacco fosse autorizzato. Due fonti hanno raccontato che nelle prime settimane di guerra era consentito uccidere 15 o 20 civili durante gli attacchi aerei contro militanti di basso rango. Gli attacchi a tali obiettivi venivano effettuati con munizioni non guidate note come 'bombe stupide', hanno detto le fonti, distruggendo intere case e uccidendo tutti i loro occupanti”

Gaza (da https://www.middleeasteye.net/news/israel-
palestine-war-ai-habsora-random-killing-mathematics
Lo scopo sarebbe quello diindurre i civili a fare pressione su Hamas


Ai ricordati programmi di IA se ne affianca un altro, il "riconoscimento facciale" il cui uso indiscriminato potrebbe diventare strumento di oppressione e segregazione: il rapporto 2023-24 di Amnesty International critica fortemente il suo uso da parte dello Stato israeliano: " Il nefasto uso del riconoscimento facciale ( installato per es. ai posti di blocco di Hebron e a Gerusalemme est) non è mai stato così opprimente come in Cisgiordania, dove è stato impiegato dalle forze israeliane per rafforzare le limitazioni alla libertà di movimento e contribuire a mantenere in piedi il sistema dell’apartheid" (https://www.amnesty.it/rapporto-2023-2024-momento-spartiacque-per-il-diritto-internazionale/).
***********************

Tutto questo funziona? Defense One riporta la sconsolata conclusione di un ufficiale dell’IDF: “Nel breve termine, siamo più sicuri, perché danneggiamo Hamas. Ma penso che nel lungo termine saremo meno sicuri. Vedo come tutte le famiglie in lutto a Gaza – ovvero quasi tutte – aumenteranno la motivazione affinché [le persone si uniscano] ad Hamas tra dieci anni. E sarà molto più facile per [Hamas] reclutarli( In the short term, we are safer, because we hurt Hamas. But I think we’re less secure in the long run. I see how all the bereaved families in Gaza—which is nearly everyone—will raise the motivation for [people to join] Hamas 10 years down the line. And it will be much easier for [Hamas] to recruit them.”).

E dopo quasi 300 giorni di guerra Hamas resiste ancora: "Sradicare il movimento islamista palestinese Hamas è un obiettivo irraggiungibile ", così si è espresso un portavoce militare delle Forze di difesa israeliane (Idf),  durante un’intervista all’emittente “Channel 13, "(..) Questa faccenda di distruggere Hamas, di far scomparire Hamas – è semplicemente gettare sabbia negli occhi del pubblico (..) “Hamas è un’idea, Hamas è un partito. È radicato nel cuore della gente – chiunque pensi che possiamo eliminare Hamas si sbaglia( https://www.agenzianova.com/news/gaza-il-portavoce-militare-delle-forze-di-israele-eliminare-hamas-e-un-obiettivo-irraggiungibile/).   : questo portavoce nel marzo del 2025 "ha improvvisamente lasciato il suo ruolo": coincidenza? (https://moked.it/blog/2025/03/07/israele-il-portavoce-delle-idf-hagari-lascia-a-sorpresa/)" : 



Che futuro avranno da grandi questi bambini?
Come reagiranno a quanto hanno visto e subito?

Del resto  per capirlo basta ricordare nella storia antica l’effetto che hanno avuto le persecuzioni degli Imperatori Romani per cercare di fermare la diffusione del cristianesimo e in quella più moderna quello dei terroristici bombardamenti alleati sulle città della Germania, che non sono riusciti a spezzare la volontà di resistenza dei tedeschi.

L’Intelligenza Artificiale uccide? Si, ma c’è un aspetto che non cambia: “Anche se è facile incolpare algoritmi senza volto per l’azione di una macchina, alla fine dietro ogni decisione chiave c’è un essere umano”, con le sue responsabilità.

Le Forze di difesa israeliane (Idf) hanno  sottolineato che nelle operazioni è comunque richiesta " una valutazione indipendente da parte di un analista (dell'intelligence, ndr), che verifichi che quelli identificati siano obiettivi legittimi per l'attacco, in conformità con le condizioni stabilite dalle direttive delle Idf e dal diritto internazionale"  https://www.lidentita.it/israele-intelligenza-artificiale-per-stanare-gli-obiettivi-di-hamas/

Non abbiamo dati per non crederlo, ma cosa c'entrano vecchi, donne e bambini?

Gaza (da https://www.972mag.com/lavender-ai-israeli-army-gaza/)




MA  CHI   INSEGNA   ALL' AI  ?

"Habsora" (Vangelo”) è il sistema con cui l’esercito israeliano processa i dati per individuare gli obiettivi degli attacchi. Secondo Lucy Suchman (professoressa emerita di Antropologia della Scienza e della Tecnologia alla Lancaster University, membro dell'International Committee for Robot Arms Control, "Habsora integra dati differenti come le immagini provenienti dai satelliti o dai droni ad altre fonti. A ogni immagine viene associato un parametro o delle etichette, per esempio “militante di Hamas”. In questo modo si rafforzano categorie stereotipate e ipotesi non verificate».(https://www.editorialedomani.it/politica/mondo/i-pregiudizi-di-habsora-lai-con-cui-lesercito-israeliano-decide-dove-bombardare-wmj75ysv).

Siamo così di fronte al problema di fondo dell’ AI: quello del suo “addestramento”, col sempre presente rischio della capacità dell’intelligenza artificiale di amplificare i pregiudizi sociali. Rischio legato ai dati utilizzati per addestrare il sistema: il sistema genera rapidamente un lungo elenco di potenziali bersagli, chi dovrebbe verificarli potrebbe non avere il tempo sufficiente per esaminarli tutti con la calma necessaria, col risultato della possibilità di un'eccessiva dipendenza dal sistema.

Alla base di tutto c’è appunto l’addestramento ricevuto dal sistema di AI utilizzato: molte tecniche di apprendimento automatico dipendono in modo critico dall'accesso a set di dati grandi e (teoricamente) accuratamente selezionati, ma questi dati “spesso richiedono uno sforzo significativo per la conversione in formati adatti ai processi di apprendimento automatico” (..)

I  sistemi di AI, basati sull'apprendimento automatico, possono mostrare “dei pregiudizi imprevisti derivanti dai dati utilizzati per addestrare il sistema”, dati che potrebbero “essere distorti, contenendo una sovra rappresentazione di immagini o video con individui (per es.)  di una certa etnia” e il sistema potrebbe imparare inavvertitamente che le persone appartenenti a un certo gruppo sono tutte nemiche, rendendole potenziali obiettivi militari: “la tecnologia AI impara dall'addestramento e dalle applicazioni per prendere le sue decisioni e può accadere che gli sviluppatori non capiscano come arrivi a un determinato risultato»: si chiama effetto “black-box": l' apprendimento avviene attraverso complessi momenti matematici e non è facile capire quello che la macchina ha elaborato. Risultato: “un vero un paradosso etico: minore è il controllo umano sull’algoritmo alla base di un sistema AI, maggiore sarà la sua efficienza”(..)  Ed è giusto, si chiede Suchman “che sia un algoritmo a decidere chi deve vivere e chi deve morire?) https://www.editorialedomani.it/politica/mondo/lo-sdegno-del-mondo-per-la-carneficina-a-gaza-lonu-chiede-uninchiesta-indipendente-wxvfqedy

 Un esempio tipico di come addestramento o informazioni  errati possano non essere riconosciuti come tali da AI è stato evidenziato  da un esperimento di ricercatori canadesi che hanno provato ad addestrare uno dei più noti programmi di AI, Chat GPT-3, con informazioni false per vedere se venissero riconosciute come tali . Ebbene, "AI  ha concordato con affermazioni errate tra il 4,8% e il 26% delle volte":(https://www.defenseone.com/technology/2024/01/new-paper-shows-generative-ai-its-present-formcan-push-misinformation/393128/) tanto, poco? Ma se dall’accuratezza della risposta dovesse dipendere vivere o morire ? 

 Fondamentale quindi è come e da chi il programma di Intelligenza Artificiale sia stato “addestrato”: un'analisi dei punti di forza e di debolezza etici richiede che il valutatore comprenda lo scopo del sistema, le sue componenti tecniche e i loro limiti, il quadro giuridico ed etico pertinente e l'efficacia del sistema nell'esecuzione di un compito rispetto a quello di un operatore umano.
E in questo,( così leggiamo in un sito russo (https://it.topwar.ru/187592-ii.html) l'esperienza di vita e umanitaria è forse più importante delle conoscenze e competenze tecniche e software".

E continua:
“Chi insegna all'intelligenza artificiale?Chi esattamente?
Quanto sono competenti queste persone non solo nella programmazione?
Hanno esperienze sociali?
Hanno letto Dostoevskij, Tolstoj, Cechov,
Lo sviluppatore ha una famiglia, figli, nipoti?

Sarà disponibile l'IA open source, dove ci sarà un prezzo per la vita di tutti e algoritmi per sconfiggere (uccidere) quelli meno preziosi in nome del salvataggio di quelli più preziosi?
Chi si assumerà la responsabilità?"

Forse qualcuno dei gelidi programmatori di AI avrà una famiglia, ma temo che pochi abbiano figli, ancora più pochi nipoti. E che qualcuno di loro abbia letto Dostoevskij, Tolstoj, Cechov ci credo poco. Purtroppo-
***************************************

Legge europea  sull’ Intelligenza Artificiale AI Act

Le commissioni Mercato Interno e Diritti Civili del Parlamento Europeo hanno approvato la bozza del nuovo regolamento AI Act che, regola l’uso dell’intelligenza artificiale negli Stati membri dell’Unione Europea. Il voto finale spetterà poi all’Europarlamento in sessione plenaria.

Il regolamento (AI Act) indica in modo esplicito tutta una serie di attività basate sull’AI che saranno vietate in Europa e, tra di esse, anche il “Riconoscimento biometrico in tempo reale in spazi aperti al pubblico” e i “Sistemi a posteriori di identificazione biometrica, con la sola eccezione di quelli previsti dalla legge per la lotta ai crimini gravi e solo dopo autorizzazione di un giudice“: (ma  quest’ultima frase potrebbe forse lasciare qualche  “scappatoia”..).

L’Italia in questo caso era  in anticipo, infatti già a fine 2021, con un emendamento inserito all’interno del “decreto capienze” è stata approvato il divieto di usare tecnologie di riconoscimento facciale automatizzate (quindi basate sull’AI) applicate alle videocamere di sorveglianza.

Tra le “attività” di AI proibite dall’ AI ACT ci sono anche le seguenti:
Sistemi biometrici di classificazione in base a caratteristiche sensibili (genere, razza, etnia, stato di cittadinanza, religione, orientamento politico)
Sistemi di polizia predittiva (basati sulla profilazione e su precedenti localizzazioni o comportamenti criminali)
Sistemi di riconoscimento delle emozioni per fini di polizia, controllo delle frontiere, luoghi di lavoro e scuole
Raccolta indiscriminata di dati biometrici dai social media o dalle riprese delle TV a circuito chiuso per creare database per il riconoscimento facciale (che viola i diritti umani e il diritto alla privacy.
Sono inoltre vietati nella maggior parte dei casi i sistemi di punteggio sociale e l’intelligenza artificiale che monitora da remoto le persone in tempo reale negli spazi pubblici.
In particolare alcune attività dell’AI vengono classificante “ad alto rischio”, che si traduce nel divieto per i sistemi di AI che rientrino in quella categoria. Per es. l’ utilizzo nella valutazione in contesti educativi e professionali; e utilizzo nel reclutamento o nelle prestazioni nello spazio lavorativo, i sistemi di punteggio sociale e, (fatte salve alcune eccezioni molto limitate), le applicazioni di intelligenza artificiale che monitorano a distanza le persone in tempo reale negli spazi pubblici".


Per saperne di più
https://tecnologia.libero.it/unione-europea-ai-act-riconoscimento-facciale-intelligenza-artificiale-71162


*************************

 ******************************************************

 FONTI   UTILIZZATE




Leonello Oliveri


(in costruzione)
Proprietà Letteraria Riservata
Riproduzione Vietata