"Siamo di fronte ad un’agghiacciante prospettiva
di cosa ci aspetta se gli sviluppi della tecnologia
sorpasseranno rapacemente
le richieste di assunzione di responsabilità"
(Rapporto di Amnesty International 2023-24)
Leonello Oliveri
Proprietà letteraria riservata
Riproduzione vietata
AI: sigla fino a ieri sconosciuta destinata però ad entrare nella nostra
|
© willyamstock.adobe.com |
vita quotidiana segnandola e cambiandola profondamente: AI sta per Artificial Intelligence, Intelligenza Artificiale: una nuova rivoluzione i cui effetti potrebbero essere paragonabili a quelli causati dalla rivoluzione industriale. Già si vedono le prime applicazioni, e purtroppo fra queste ci sono quelle in campo militare. Siamo ormai al Grande Fratello di orwelliana memoria, la "AI Cyber War".
Per rendercene conto bisogna considerare che una delle problematiche più importanti in ogni operazione militare non è il livello tecnologico o il numero di armi delle parti in guerra, ma l’intelligenza e la velocità del processo decisionale. La mente umana non è in grado di elaborare rapidamente enormi quantità di dati sugli obiettivi prefissati. l'AI cerca di compensare tale carenza
"Habsora" (Vangelo) sarebbe, assieme a "Gosper" e "Lavender", il sistema con cui l’IDF processerebbe, secondo quanto leggiamo (11), i dati per individuare gli obiettivi degli attacchi.
Secondo Lucy Suchman (professoressa emerita di Antropologia della Scienza e della Tecnologia alla Lancaster University, membro dell'International Committee for Robot Arms Control), il programma "integra dati differenti come le immagini provenienti dai satelliti o dai droni o da altre fonti. Ad ogni immagine viene associato un parametro o delle etichette, per esempio “militante di Hamas”. La decisione finale è sempre umana, ma col targeting automatico potrebbe esistere il rischio di "pregiudizi legati ai dati utilizzati per addestrare il sistema", con il possibile rischio di "rafforzare categorie stereotipate e ipotesi non verificate» ( 11).
Siamo così di fronte al problema di fondo dell’ AI: quello del suo “addestramento”, col rischio della possibilità che l’intelligenza artificiale “amplifichi i pregiudizi sociali”. Rischio legato ai dati utilizzati per addestrare il sistema: il sistema genera rapidamente un lungo elenco di potenziali obiettivi, chi dovrebbe verificarli potrebbe non avere il tempo sufficiente per esaminarli tutti con la calma necessaria, col risultato della possibilità di un'eccessiva dipendenza dal sistema.
Ma chi insegna all'AI ?
Alla base di tutto c’è appunto l’addestramento ricevuto dal sistema di AI utilizzato: molte tecniche di apprendimento automatico dipendono in modo critico dall'accesso a set di dati grandi e (teoricamente) accuratamente selezionati, ma questi dati “spesso richiedono uno sforzo significativo per la conversione in formati adatti ai processi di apprendimento automatico” .
I sistemi di AI, basati sull'apprendimento automatico, possono mostrare “dei pregiudizi imprevisti derivanti dai dati utilizzati per addestrare il sistema”, dati che potrebbero “essere distorti, contenendo una sovra rappresentazione di immagini o video con individui (per es.) di una certa etnia” e il sistema potrebbe imparare inavvertitamente che le persone appartenenti a un certo gruppo sono potenzialmente tutte nemiche, rendendole potenziali obiettivi militari: “la tecnologia AI impara dall'addestramento e dalle applicazioni per prendere le sue decisioni e può accadere che gli sviluppatori non capiscano come arrivi a un determinato risultato»: si chiama effetto “black-box": l' apprendimento avviene attraverso complessi momenti matematici e non è facile capire quello che la macchina ha elaborato. Risultato: “un vero un paradosso etico: minore è il controllo umano sull’algoritmo alla base di un sistema AI, maggiore sarà la sua efficienza”(..) Ed è giusto, si chiede Suchman “che sia un algoritmo a decidere chi deve vivere e chi deve morire?” ( 11).
Un esempio tipico di come addestramento o informazioni errati possano non essere riconosciuti come tali da AI è stato evidenziato da un esperimento di ricercatori canadesi che hanno provato ad addestrare uno dei più noti programmi di AI, Chat GPT-3, con informazioni false per vedere se venissero riconosciute come tali . Ebbene, "AI ha concordato con affermazioni errate tra il 4,8% e il 26% delle volte” (6): tanto? poco? Ma se dall’accuratezza della risposta dovesse dipendere vivere o morire? Nel mio piccolo posso portare un'esperienza personale: richiesto ad un programma di IA di elaborarmi un piccolo progetto (creazione di una scaletta per una riunione), "istruito" il programma ( e ci vuole tempo), ho ottenuto una bozza completa, che però terminava con questa avvertenza: " Le risposte sono state generate dall' IA che può commettere errori .Verificare quindi che le risposte siano accurate e pertinenti ai requisiti richiesti". Nel mio caso avevo il tempo e la possibilità di compiere tali verifiche, ma è sempre possibile? E comunque io sarei stato in grado di realizzare personalmente un lavoro almeno altrettanto accurato (e probabilmente impegnandoci non più tempo dell' IA e sicuramente con maggiore soddisfazione personale....)
Fondamentale quindi è come e da chi il programma di Intelligenza Artificiale sia stato “addestrato”: un'analisi dei punti di forza e di debolezza etici richiede che il valutatore comprenda lo scopo del sistema, le sue componenti tecniche e i loro limiti, il quadro giuridico ed etico pertinente e l'efficacia del sistema nell'esecuzione di un compito rispetto a quello di un operatore umano.
E in questo “l'esperienza di vita e umanitaria è forse più importante delle conoscenze e competenze tecniche e software".(v. n. 12 )
E continua:
“Chi insegna all'intelligenza artificiale? Chi esattamente?
Quanto sono competenti queste persone non solo nella programmazione?
Hanno esperienze sociali?
Hanno letto Dostoevskij, Tolstoi, Cecov?
Lo sviluppatore ha una famiglia, figli, nipoti?
Sarà disponibile l'IA open source, dove ci sarà un prezzo per la vita di tutti e algoritmi per sconfiggere (uccidere) quelli meno preziosi in nome del salvataggio di quelli più preziosi?
Chi si assumerà la responsabilità?"(12)
Forse qualcuno dei programmatori di AI avrà una famiglia, ma temo che pochi abbiano nipoti. E che qualcuno di loro abbia letto Dostoevskij, Tolstoj, Cechov ( e magari anche il Socrate di Platone: v. nota 17) ci credo poco..
**********************************
When May a Robot Kill? Quando un robot può uccidere?
Evidentemente l'uso dell'Intelligenza Artificiale non poteva non avere ripercussioni nel militare, anche nel campo degli armamenti.
Una possibile (temuta?) applicazione potrebbe essere quella della sua implementazioni nelle armi “robot”, cioè armi che decidono da sole, appunto sulla base dell' Intelligenza Artificiale, quando e contro chi far fuoco.
In parole povere, quando può uccidere un robot?
In questo caso è fondamentale sulla base di quali protocolli il programma di AI sia stato "addestrato".
Limitiamoci al settore USA, che è l'unico per il quale si hanno informazioni.
Composto da una mitragliatrice M240 da 7,62 mm montata su una torretta rotante appositamente progettata e dotata di un sensore elettro-ottico, intelligenza artificiale proprietaria e software di visione artificiale, il Bullfrog è stato progettato per sparare con armi leggere su bersagli di droni
Se il Pentagono adottasse il sistema, rappresenterebbe la prima arma autonoma letale |
il sistema della Allen Control Systems (da https://www.wired.com/story/us-military-robot-drone-guns/ |
pubblicamente nota nell'arsenale dell'esercito statunitense. Bullfrog è comunque progettato per tenere un essere umano "informato" al fine di evitare un potenziale "impegno non autorizzato". In altre parole, l'arma punta e segue i bersagli, ma non spara fino a quando non gli viene ordinato da un operatore umano. Tuttavia, "i funzionari dell'ACS affermano che il sistema può funzionare in modo totalmente autonomo se l'esercito statunitense lo richiedesse in futuro". Qui puoi vederlo in azione , con un tasso -leggiamo- di falsi negativi <2% nel rilevamento di oggetti aerei all'interno del raggio operativo della torretta. Come riportato, finora, gli umani ( questo è il termine che dovremo imparare ad usare) sono ancora tenuti a dare il via libera al Bullfrog prima che possa aprire il fuoco. Questo perché ci sono rigide politiche quando si tratta di usare armi autonome letali.
Siamo quindi alle armi che possono decidere quando sparare. Il punto di partenza è però una constatazione non molto rassicurante: la tecnologia dell' IA applicata alle armi verrebbe giudicata, al momento,“ una delle tecnologie meno mature” dalle prestazioni “piuttosto altalenanti (…) dobbiamo essere onesti al riguardo" (1) .
L'uso di armi robot non è formalmente proibito ma “ci sono degli ostacoli da superare prima che un'arma del genere possa essere schierata" ( P. Tucker, 26 gennaio 2023 When May a Robot Kill? New DOD Policy Tries to Clarify), comunque “è possibile costruirle e dispiegarle in modo sicuro ed etico, ma non senza molta supervisione” (umana) (2) . Si ritiene cioè che ci siano modi per utilizzare “in modo responsabile ed etico “ i sistemi letali di armi autonome abilitati dall' IA :”ci dovrebbe essere un limite elevato sia procedurale che tecnico per tali sistemi, ma non un divieto”.
L'approccio di fondo che ci sembra di percepire sul problema è che si stia cercando di migliorare le procedure di IA , mirando a ” ridurre i casi di pregiudizi e incidenti nei sistemi di intelligenza artificiale (..) per impedire che pregiudizi dannosi vengano replicati nelle decisioni prese da algoritmi basati su ampie fasce di dati potenzialmente distorti.” Per ottenere questo risultato è riconosciuta fondamentale “l'importanza del controllo umano nell'implementazione e nello sviluppo di qualsiasi tecnologia militare basata sull'intelligenza artificiale”. Analogamente in questo processo però si riconosce la necessità (ovvia) che "l'uso dell' IA nei conflitti armati deve essere conforme al diritto umanitario internazionale applicabile, compresi i suoi principi fondamentali” (3).
Speriamo. E speriamo che sia sempre confermata l'affermazione di un funzionario del Dipartimento della Difesa secondo il quale “gli esseri umani saranno ritenuti responsabili dell'uso o dell'abuso delle tecnologie di intelligenza artificiale durante i conflitti militari” (4) .
Chi volesse approfondire e meglio conoscere la posizione ufficiale del Dipartimento della Difesa USA sul problema dell' Autonomia nei sistemi d'Arma può leggersi la Direttiva DOD 3000.09 del 25 genn. 2023 scaricabile da qui
Referenze bibliografiche
1) Edward Graham, 28 novembre 2023
AI’s military use is limited by maturity concerns, CENTCOM official says, in
https://www.nextgov.com/artificial-intelligence/2023/11/ais-military-use-limited-maturity-concerns-centcom-official-says/392319/
***************************************
Legge europea sull’ Intelligenza Artificiale "AI Act"
Le commissioni Mercato Interno e Diritti Civili del Parlamento Europeo hanno approvato la bozza del nuovo regolamento AI Act che, regola l’uso dell’intelligenza artificiale negli Stati membri dell’Unione Europea. Il voto finale spetterà poi all’Europarlamento in sessione plenaria. (https://artificialintelligenceact.eu/) Il regolamento (AI Act) indica in modo esplicito tutta una serie di
|
Foto di Gerd Altmann da Pixabay |
attività basate sull’AI che saranno vietate in Europa e, tra di esse, anche il “Riconoscimento biometrico in tempo reale in spazi aperti al pubblico” e i “Sistemi a posteriori di identificazione biometrica, con la sola eccezione di quelli previsti dalla legge per la lotta ai crimini gravi e solo dopo autorizzazione di un giudice“: (ma quest’ultima frase potrebbe forse lasciare qualche “scappatoia”..).L’Italia in questo caso era in anticipo, infatti già a fine 2021, con un emendamento inserito all’interno del “Decreto Capienze” è stata approvato il divieto di usare tecnologie di riconoscimento facciale automatizzate (13), quindi basate sull’AI, applicate alle videocamere di sorveglianza (14).
Tra le “attività” di AI proibite dall’ AI ACT ci sono anche le seguenti:
Sistemi biometrici di classificazione in base a caratteristiche sensibili (genere, razza, etnia, stato di cittadinanza, religione, orientamento politico)
Sistemi di polizia predittiva (basati sulla profilazione e su precedenti localizzazioni o comportamenti criminali)
Sistemi di riconoscimento delle emozioni per fini di polizia, controllo delle frontiere, luoghi di lavoro e scuole
Raccolta indiscriminata di dati biometrici dai social media o dalle riprese delle TV a circuito chiuso per creare database per il riconoscimento facciale (che viola i diritti umani e il diritto alla privacy.
Sono inoltre vietati nella maggior parte dei casi i sistemi di punteggio sociale e l’intelligenza artificiale che monitora da remoto le persone in tempo reale negli spazi pubblici.
In particolare alcune attività dell’AI vengono classificante “ad alto rischio”, che si traduce nel divieto per i sistemi di AI che rientrino in quella categoria. Per es. l’ utilizzo nella valutazione in contesti educativi e professionali; e utilizzo nel reclutamento o nelle prestazioni nello spazio lavorativo, i sistemi di punteggio sociale e, (fatte salve alcune eccezioni molto limitate), le applicazioni di intelligenza artificiale che monitorano a distanza le persone in tempo reale negli spazi pubblici.
*********************
Intelligenza Artificiale e Guerra Nucleare
Il rischio dell'uso della AI ( o di qualcosa del genere) in settori militari molto delicati ("guerra nucleare") è un'eventualità tutt'altro che impossibile: e non da ora, bensì da tempo.
Da tempo, infatti, sarebbero trapelate (o i Russi avrebbero fatto trapelare) voci e informazioni parziali sull'esistenza di un loro sistema chiamato “Perimeter”, per altro noto in ambiente Nato come Dead Hand. Si tratta (o tratterebbe) di un “sistema di deterrenza in ambito nucleare capace di innescare automaticamente, in caso di attacco nucleare rilevato da sensori (sismici, luminosi, di radioattività o pressione) un contrattacco automatico di missili balistici tramite ordine di massima autorità pre-inserito dal comando generale delle forze armate anche nel caso che i singoli elementi di comando fossero completamente distrutti”: ipotesi da brivido.
Tale sistema (non è noto se sia ancora in uso anche nell'attuale Russia ) avrebbe dovuto rimanere normalmente spento, per essere attivato solo durante i periodi di crisi.
A quanto pare un sistema analogo esisteva (o sarebbe esistito) anche negli Stati Uniti con il nome di AN/DRC-8 Emergency Rocket Sistem (15).
Qualcuno definì questi scenari "Dottrina della vittoria senza domani”".
Il rischio dell'uso della AI nel settore militare è comunque stato uno dei temi (e delle preoccupazioni) anche al Vertice della Cooperazione Economica Asia-Pacifico (APEC) tenutosi al Lima il 16 novembre. I leader di USA e Cina ne hanno discusso concordando sull'opportunità di tenere l'AI lontana dalle armi di distruzione di massa.
Il risultato è stato un rassicurante comunicato finale : "I due leader hanno riaffermato la necessità di affrontare i rischi associati ai sistemi di intelligenza artificiale, migliorare la sicurezza dell’intelligenza artificiale e promuovere la cooperazione internazionale e promuovere l’intelligenza artificiale a beneficio di tutte le persone. I leader dei due paesi hanno riaffermato la necessità di mantenere il controllo umano sulla decisione di utilizzare le armi nucleari. I due leader hanno inoltre sottolineato la necessità di studiare attentamente i potenziali rischi e di sviluppare con attenzione e responsabilità le tecnologie di intelligenza artificiale in campo militare" (16) .
***********************************
Intelligenza artificiale e DEEP FAKE
L'uso dell'Intelligenza Artificiale può "impattare " anche sulla nostra vita quotidiana mediante le cosiddette " DEEP FAKE.
Cosa sono?
Semplice: l'uso della intelligenza artificiale (IA) per creare una foto, una registrazione audio o un videoclip di un evento mai accaduto. In poche parole "contenuti falsi di persone reali" (18).
Per saperne di più:
1) https://tecnologia.libero.it/unione-europea-ai-act-riconoscimento-facciale-intelligenza-artificiale-71162
2) https://www.mhc.ie/hubs/legislation/the-eu-artificial-intelligence-act
3) https://www.mhc.ie/hubs/the-eu-artificial-intelligence-act/eu-ai-act-high-risk-ai-systems
4) https://www.mhc.ie/hubs/the-eu-artificial-intelligence-act/eu-ai-act-risk-categories
5) https://www.defenseone.com/ideas/2024/04/ai-revolution-already-here/395722/
6)https://www.defenseone.com/technology/2024/01/new-paper-shows-generative-ai-its-present-formcan-push-misinformation/393128/
7) https://www.972mag.com/lavender-ai-israeli-army-gaza/
9) https://www.adnkronos.com/Archivio/internazionale/esteri/israele-intelligenza-artificiale-per-stanare-gli-obiettivi-di-hamas_6VGFjEVFyRK3jp9vH79MgF
10) https://www.amnesty.it/rapporto-2023-2024-momento-spartiacque-per-il-diritto-internazionale/
11) https://www.editorialedomani.it/politica/mondo/i-pregiudizi-di-habsora-lai-con-cui-lesercito-israeliano-decide-dove-bombardare-wmj75ysv; v. anche
https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets;
https://en.wikipedia.org/wiki/AI-assisted_targeting_in_the_Gaza_Strip
12) https://it.topwar.ru/187592-ii.html
13) https://tecnologia.libero.it/italia-diviteo-riconoscimento-facciale-in-pubblico-51175
14) https://www.agendadigitale.eu/sicurezza/privacy/riconoscimento-facciale-una-realta-inquietante-a-cui-dobbiamo-abituarci/
15) https://www.limesonline.com/limesplus/protocollo-perimeter-come-potrebbe-funzionare-la-rappresaglia-termonucleare-della-russia-14712857/;
https://it.wikipedia.org/wiki/Perimetr#:~:text=Perimetr%20%28in%20russo%20%D0%A1%D0%B8%D1%81%D1%82%D0%B5%D0%BC%D0%B0%20%C2%AB%D0%9F%D0%B5%D1%80%D0%B8%D0%BC%D0%B5%D1%82%D1%80,uso%20anche%20nell
16) https://www.ansa.it/amp/sito/notizie/mondo/2024/11/17/a-lima-lultimo-incontro-tra-biden-e-xi-jinping_92da5ecd-2df8-492d-90f3-61964c8e3cc7.html
17) Nel
404 i Trenta Tiranni ordinarono
a Socrate di arrestare un cittadino che lui sapeva innocente affinché
fosse mandato a morte: “ ma Socrate non obbedì, preferendo
correre qualunque rischio che farsi complice di empi misfatti" (
Platone,
Lettera
VII)
18) https://www.atfp.it/notizie2/307-attualita/2928-non-fidatevi-di-tutto-cio-che-vedete-lascesa-delle-deepfake
Leonello Oliveri
Proprietà letteraria riservata
Riproduzione vietata
(post in lavorazione)