(da © willyamstock.adobe.com) |
Secondo Defense One, che cita il magazine israelo/palestinese +972, Indipendent Jurnalism from Israel/Palestine, (in pratica la principale fonte delle notizie presentate in questo post) verrebbero usati da Israele più sistemi di intelligenza artificiale, dal funzionamento e scopo simile.
Il primo è Habsora (= Vangelo), un sistema con cui l’esercito israeliano processa migliaia di dati per individuare gli obiettivi degli attacchi: “Il sistema è in grado di analizzare ampie serie di dati e proporre potenziali target. In particolare, valuta i dati storici relativi agli obiettivi precedentemente individuati, consentendo di calcolare le quantità di munizioni necessarie, di proporre tempistiche precise e di stabilire le priorità. La decisione finale di attaccare compete poi ad un comandante umano» (che si spera abbia il tempo e la capacità di valutare ogni proposta dell'AI ) (https://www.editorialedomani.it/politica/mondo/i-pregiudizi-di-habsora-lai-con-cui-lesercito-israeliano-decide-dove-bombardare-wmj75ysv).
![]() |
Gaza (da https://www.972mag.com/lavender-ai -israeli-army-gaza/ |
Sempre su Defense one leggiamo che i sistemi di AI "passano al setaccio milioni di dati, producendo elenchi di obiettivi più di 50 volte più velocemente di quanto potrebbe mai fare una squadra di agenti dell’intelligence umana. Ciò aumenta drasticamente la carneficina che l'accompagna. Sostenute da Gospel, le forze israeliane hanno colpito più di 22mila obiettivi nei primi due mesi di combattimenti a Gaza, circa cinque volte di più rispetto a un conflitto simile dieci anni fa". Lavender avrebbe " contrassegnato circa 37.000 palestinesi come sospetti 'militanti di Hamas', la maggior parte dei quali giovani" calcolando anche il probabile “danno collaterale” per ogni attacco (cioè il numero di civili, anche vecchi, donne e bambini potenzialmente coinvolti nell’attacco): "I membri dell'IDF hanno affermato che i limiti accettabili erano tra 15 e 100 vittime civili previste. (It also calculated the likely collateral damage for each strike; IDF members have said the acceptable limits were between 15 to 100 expected civilian casualties).
L’esercito israeliano avrebbe (leggiamo in https://www.972mag.com/mass-assassination-
![]() |
da https://www.972mag.com/mass-assassination-factory -israel-calculated-bombing-gaza/ |
Secondo il citato report di Adnkronos per alcune categorie di “obiettivi” ci sarebbero state delle soglie pre-autorizzate “per il numero stimato di civili che potevano essere uccisi prima che un attacco fosse autorizzato. Due fonti hanno raccontato che nelle prime settimane di guerra era consentito uccidere 15 o 20 civili durante gli attacchi aerei contro militanti di basso rango. Gli attacchi a tali obiettivi venivano effettuati con munizioni non guidate note come 'bombe stupide', hanno detto le fonti, distruggendo intere case e uccidendo tutti i loro occupanti”
![]() |
Gaza (da https://www.middleeasteye.net/news/israel- palestine-war-ai-habsora-random-killing-mathematics |
Tutto questo funziona? Defense One riporta la sconsolata conclusione di un ufficiale dell’IDF: “Nel breve termine, siamo più sicuri, perché danneggiamo Hamas. Ma penso che nel lungo termine saremo meno sicuri. Vedo come tutte le famiglie in lutto a Gaza – ovvero quasi tutte – aumenteranno la motivazione affinché [le persone si uniscano] ad Hamas tra dieci anni. E sarà molto più facile per [Hamas] reclutarli”( In the short term, we are safer, because we hurt Hamas. But I think we’re less secure in the long run. I see how all the bereaved families in Gaza—which is nearly everyone—will raise the motivation for [people to join] Hamas 10 years down the line. And it will be much easier for [Hamas] to recruit them.”).
E dopo quasi 300 giorni di guerra Hamas resiste ancora: "Sradicare il movimento islamista palestinese Hamas è un obiettivo irraggiungibile ", così si è espresso un portavoce militare delle Forze di difesa israeliane (Idf), durante un’intervista all’emittente “Channel 13, "(..) Questa faccenda di distruggere Hamas, di far scomparire Hamas – è semplicemente gettare sabbia negli occhi del pubblico (..) “Hamas è un’idea, Hamas è un partito. È radicato nel cuore della gente – chiunque pensi che possiamo eliminare Hamas si sbaglia" ( https://www.agenzianova.com/news/gaza-il-portavoce-militare-delle-forze-di-israele-eliminare-hamas-e-un-obiettivo-irraggiungibile/). : questo portavoce nel marzo del 2025 "ha improvvisamente lasciato il suo ruolo": coincidenza? (https://moked.it/blog/2025/03/07/israele-il-portavoce-delle-idf-hagari-lascia-a-sorpresa/)" :
![]() |
Che futuro avranno da grandi questi bambini? Come reagiranno a quanto hanno visto e subito? |
![]() |
Gaza (da https://www.972mag.com/lavender-ai-israeli-army-gaza/) |
"Habsora" (Vangelo”) è il sistema con cui l’esercito israeliano processa i dati per individuare gli obiettivi degli attacchi. Secondo Lucy Suchman (professoressa emerita di Antropologia della Scienza e della Tecnologia alla Lancaster University, membro dell'International Committee for Robot Arms Control, "Habsora integra dati differenti come le immagini provenienti dai satelliti o dai droni ad altre fonti. A ogni immagine viene associato un parametro o delle etichette, per esempio “militante di Hamas”. In questo modo si rafforzano categorie stereotipate e ipotesi non verificate».(https://www.editorialedomani.it/politica/mondo/i-pregiudizi-di-habsora-lai-con-cui-lesercito-israeliano-decide-dove-bombardare-wmj75ysv).
Siamo così di fronte al problema di fondo dell’ AI: quello del suo “addestramento”, col sempre presente rischio della capacità dell’intelligenza artificiale di amplificare i pregiudizi sociali. Rischio legato ai dati utilizzati per addestrare il sistema: il sistema genera rapidamente un lungo elenco di potenziali bersagli, chi dovrebbe verificarli potrebbe non avere il tempo sufficiente per esaminarli tutti con la calma necessaria, col risultato della possibilità di un'eccessiva dipendenza dal sistema.
I sistemi di AI, basati sull'apprendimento automatico, possono mostrare “dei pregiudizi imprevisti derivanti dai dati utilizzati per addestrare il sistema”, dati che potrebbero “essere distorti, contenendo una sovra rappresentazione di immagini o video con individui (per es.) di una certa etnia” e il sistema potrebbe imparare inavvertitamente che le persone appartenenti a un certo gruppo sono tutte nemiche, rendendole potenziali obiettivi militari: “la tecnologia AI impara dall'addestramento e dalle applicazioni per prendere le sue decisioni e può accadere che gli sviluppatori non capiscano come arrivi a un determinato risultato»: si chiama effetto “black-box": l' apprendimento avviene attraverso complessi momenti matematici e non è facile capire quello che la macchina ha elaborato. Risultato: “un vero un paradosso etico: minore è il controllo umano sull’algoritmo alla base di un sistema AI, maggiore sarà la sua efficienza”(..) Ed è giusto, si chiede Suchman “che sia un algoritmo a decidere chi deve vivere e chi deve morire?) https://www.editorialedomani.it/politica/mondo/lo-sdegno-del-mondo-per-la-carneficina-a-gaza-lonu-chiede-uninchiesta-indipendente-wxvfqedy
Un esempio tipico di come addestramento o informazioni errati possano non essere riconosciuti come tali da AI è stato evidenziato da un esperimento di ricercatori canadesi che hanno provato ad addestrare uno dei più noti programmi di AI, Chat GPT-3, con informazioni false per vedere se venissero riconosciute come tali . Ebbene, "AI ha concordato con affermazioni errate tra il 4,8% e il 26% delle volte":(https://www.defenseone.com/technology/2024/01/new-paper-shows-generative-ai-its-present-formcan-push-misinformation/393128/) tanto, poco? Ma se dall’accuratezza della risposta dovesse dipendere vivere o morire ?
“Chi insegna all'intelligenza artificiale?Chi esattamente?
Quanto sono competenti queste persone non solo nella programmazione?
Hanno esperienze sociali?
Hanno letto Dostoevskij, Tolstoj, Cechov,
Lo sviluppatore ha una famiglia, figli, nipoti?
Sarà disponibile l'IA open source, dove ci sarà un prezzo per la vita di tutti e algoritmi per sconfiggere (uccidere) quelli meno preziosi in nome del salvataggio di quelli più preziosi?
Chi si assumerà la responsabilità?"
Legge europea sull’ Intelligenza Artificiale AI Act
Le commissioni Mercato Interno e Diritti Civili del Parlamento Europeo hanno approvato la bozza del nuovo regolamento AI Act che, regola l’uso dell’intelligenza artificiale negli Stati membri dell’Unione Europea. Il voto finale spetterà poi all’Europarlamento in sessione plenaria.
Il regolamento (AI Act) indica in modo esplicito tutta una serie di attività basate sull’AI che saranno vietate in Europa e, tra di esse, anche il “Riconoscimento biometrico in tempo reale in spazi aperti al pubblico” e i “Sistemi a posteriori di identificazione biometrica, con la sola eccezione di quelli previsti dalla legge per la lotta ai crimini gravi e solo dopo autorizzazione di un giudice“: (ma quest’ultima frase potrebbe forse lasciare qualche “scappatoia”..).
L’Italia in questo caso era in anticipo, infatti già a fine 2021, con un emendamento inserito all’interno del “decreto capienze” è stata approvato il divieto di usare tecnologie di riconoscimento facciale automatizzate (quindi basate sull’AI) applicate alle videocamere di sorveglianza.
https://www.mhc.ie/hubs/the-eu-artificial-intelligence-act/eu-ai-act-high-risk-ai-systems
https://www.mhc.ie/hubs/the-eu-artificial-intelligence-act/eu-ai-act-risk-categories
******************************************************
FONTI UTILIZZATE
- Peter W. Singer, The AI revolution is already here The U.S. military must grapple with real dilemmas that until recently seemed hypothetical. Defense one 14 aprile 2024( https://www.defenseone.com/ideas/2024/04/ai-revolution-already-here/395722/;
- Francesca Canto I pregiudizi di Habsora, l’Ai con cui l’esercito israeliano decide dove bombardare, Domani 02 marzo 2024 (https://www.editorialedomani.it/politica/mondo/i-pregiudizi-di-habsora-lai-con-cui-lesercito-israeliano-decide-dove-bombardare-wmj75ysv),
- Yuval Abraham Lavender’: The AI machine directing Israel’s bombing spree in Gaza +972 Magazine, April 3, 2024(https://www.972mag.com/lavender-ai-israeli-army-gaza/)
- Redazione Adnkronos, Israele, intelligenza artificiale per stanare gli obiettivi di Hamas? Adnkronos, 04 aprile 2024 (https://www.adnkronos.com/internazionale/esteri/israele-intelligenza-artificiale-per-stanare-gli-obiettivi-di-hamas_6VGFjEVFyRK3jp9vH79MgF)
- Yuval Abraham, A mass assassination factory’: Inside Israel’s calculated bombing of Gaza. +972 Magazine November 30, 2023 (https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/)
- N. Durgham –L.Masarwa Israel-Palestine war: How the AI 'Habsora' system masks random killing with maths 2 december 2023 (https://www.middleeasteye.net/news/israel-palestine-war-ai-habsora-random-killing-mathematics)
- Comandante del Centro di intelligenza artificiale, 8200: L'intelligenza artificiale consente una classificazione e un rilevamento più rapidi degli obiettivi terroristici ( https://www.israeldefense.co.il/node/57256#google_vignette),
- https://it.topwar.ru/241063-lavanda-i-evangelie-genocid-po-evrejski.html
Riproduzione Vietata