Tag - Ai&Guerra

La guerra invisibile delle ricostruzioni combattuta con l’IA
(Fonte) Barbara Carfagna – 6 gennaio 2026 Tecnologia e suolo. Dalla Siria al Nagorno-Karabakh nelle fasi post belliche vince chi controlla le leve dell’intelligenza artificiale Quando le bombe smettono di cadere inizia una guerra diversa. È quella per la Ricostruzione: decidere chi e come programmerà la normalità di domani. Il potere, che nel dopoguerra del ‘900 era di chi possedeva il suolo, sarà di chi controlla l’intelligenza artificiale che lo governerà. I modelli contengono infatti il disegno della società futura, a partire dalla cybersecurity, che sarà integrata nelle fondamenta invece che adattata alla difesa dell’esistente. Dal Karabakh alla Siria (prossimamente dall’Ucraina a Gaza) la ricostruzione post-bellica installa un sistema nervoso digitale che orienta autonomamente, costantemente, dinamicamente, invisibilmente, il modo in cui vivranno milioni di persone per i prossimi decenni. Le guerre in corso producono enormi flussi di dati in tempo reale che addestrano modelli di IA cruciali per armi autonome, simulazioni strategiche e definizione dei target futuri. La fase di ricostruzione, affidata all’Agentic AI, rischia di fissare in modo irreversibile una logica algoritmica del territorio, cedendo sovranità su ciò che è “sicuro”, “normale” o “prioritario” a sistemi spesso stranieri. Chi addestra i modelli su un territorio acquisisce un vantaggio informativo permanente: nel caso ucraino, saranno gli algoritmi statunitensi – più che l’Europa – a conoscere e governare lo spazio postbellico. Intanto, esperimenti come gli “AI village” nel Karabakh mostrano come la ricostruzione algoritmica includa anche il controllo della memoria e dei traumi collettivi. Nel Karabakh la ricostruzione postbellica è diventata un progetto pilota di governo algoritmico: un sistema di Agentic AI, autonomo e autorizzato, simula e indirizza le politiche statali come un attore del processo decisionale. In pochi anni, su un territorio devastato da decenni di guerra e mine, sono sorti villaggi razionali completamente ricostruiti, con welfare automatizzato, servizi essenziali e sorveglianza pervasiva. Sensori IoT e modelli predittivi ottimizzano risorse, sicurezza, coltivazioni e comportamenti, addestrando soluzioni di Ricostruzione esportabili. Il costo reale, oltre ai miliardi investiti, è una cessione di sovranità: infrastrutture tecnologiche straniere, sicurezza esternalizzata e un ordine sociale regolato dall’anticipazione algoritmica del rischio, dove il governo delle “anomalie” precede e sostituisce l’applicazione della legge. Nei sistemi di governo algoritmico l’IA persegue una funzione-obiettivo e produce contro-narrazioni personalizzate per orientare i comportamenti dei cittadini, soprattutto attraverso i social. In questo quadro la sovranità cognitiva diventa decisiva: generazioni formate, curate e indirizzate da modelli esterni rischiano di interiorizzare valori estranei alla propria cultura. L’Arabia Saudita punta a ridurre la dipendenza da IA straniere, investendo in datacenter nazionali e in HumAIn, un’IA sovrana alimentata dai dati e dalle simulazioni dei Giga project e di Neom, la città interamente gestita da AI. L’obiettivo è sviluppare modelli proprietari ed esportabili, mentre l’Europa resta in ritardo nel comprendere la posta in gioco. L’Ue sta perdendo un’altra guerra importante: quella dei dati dei conflitti e per le Ricostruzioni. Il progetto del Digital Twin of Earth, finanziato da Horizon Europe, promette di simulare crisi climatiche e guidare la resilienza continentale. Ma è costruito su dataset prevalentemente anglosassoni, modelli addestrati negli USA, infrastrutture cloud dipendenti da Aws o Microsoft Azure. Cosa succede quando un’alluvione devasta l’Emilia Romagna, come nel 2023, e i modelli predittivi sottostimano il rischio perché addestrati su fiumi texani o bacini cinesi? Senza dati propri e modelli sovrani, rischiamo di essere non decisori ma esecutori del nostro futuro. The post La guerra invisibile delle ricostruzioni combattuta con l’IA first appeared on Lavoratrici e Lavoratori Aci Informatica.
“Nessuna restrizione” e un “occhiolino” segreto: l’accordo di Israele con Google e Amazon
(Fonte) Yuval Abraham – 29 ottobre 2025 Nel 2021, Google e Amazon hanno firmato un contratto noto come “Progetto Nimbus” da 1,2 miliardi di dollari con il governo israeliano per fornirgli servizi avanzati di cloud computing e intelligenza artificiale, strumenti utilizzati durante i due anni di aggressione israeliana alla Striscia di Gaza. I dettagli del progetto sono stati tenuti segreti ma un’indagine condotta da +972 Magazine, Local Call e The Guardian può ora rivelare che Israele ha imposto a Google e Amazon delle stringenti richieste: * limitazione per i giganti del web dell’uso delle proprie tecnologie da parte di Israele, anche in caso di violazione dei loro stessi termini di servizio; * obbligo per le aziende a informare segretamente Israele qualora un tribunale straniero ordinasse la consegna dei dati israeliani conservati sui loro server cloud, aggirando di fatto i loro obblighi legali. Il Progetto Nimbus, pensato per sette anni con possibilità di proroga, prevedeva il trasferimento sui cloud di Google e Amazon dei dati delle agenzie governative, di sicurezza e militari israeliane. Già prima del 7 ottobre, tuttavia, i funzionari israeliani avevano considerato il rischio di azioni legali nei confronti delle due aziende, temendo che tribunali stranieri potessero imporre la consegna dei dati alle autorità giudiziarie o di sicurezza in relazione a possibili violazioni dei diritti umani nei territori occupati. Il CLOUD Act statunitense consente alle autorità USA di ottenere dati da fornitori cloud americani anche se archiviati all’estero, mentre nell’UE le norme sulla due diligence possono imporre alle aziende di rispondere di violazioni dei diritti umani nelle loro attività globali. Poiché gli ordini di consegna dei dati vietano spesso di informare i clienti, Israele ha richiesto una clausola contrattuale che obbligasse Google e Amazon ad avvertirlo segretamente nel caso fossero costrette a consegnare i suoi dati, nonostante il divieto legale di rivelarlo. Secondo The Guardian , la notifica avverrebbe tramite un codice segreto previsto dal contratto, noto come “winking mechanism” e definito formalmente “compensazione speciale”. In base a questo sistema, Google e Amazon dovrebbero inviare al governo israeliano un pagamento in shekel il cui importo corrisponde al prefisso internazionale del paese richiedente seguito da zeri, segnalando così la consegna dei dati senza comunicarlo esplicitamente. Ad esempio, 1.000 NIS in caso di richiesta dagli Stati Uniti (+1) o 3.900 NIS per l’Italia (+39), da versare entro 24 ore dal trasferimento delle informazioni. Se Google o Amazon ritenessero che i termini di un ordine di segretezza impediscano persino di segnalare quale paese ha ricevuto i dati, il contratto prevede una clausola di salvaguardia: le aziende devono versare al governo israeliano 100.000 shekel israeliani (circa 30.000 dollari). Esperti legali, tra cui diversi ex procuratori statunitensi, hanno definito questo meccanismo altamente anomalo, osservando che i messaggi codificati potrebbero violare gli obblighi legali delle aziende negli Stati Uniti di mantenere segrete le richieste giudiziarie. Come ha commentato un ex avvocato del governo USA, si tratta di un espediente “fin troppo astuto” che difficilmente incontrerebbe la comprensione o la tolleranza di un tribunale statunitense. Altri esperti hanno definito il meccanismo una soluzione “ingegnosa” che rispetterebbe formalmente la legge, ma ne tradirebbe lo spirito. Gli stessi funzionari israeliani ne erano consapevoli: dai documenti emerge che riconoscevano il possibile conflitto con il diritto statunitense, ponendo Google e Amazon davanti all’alternativa tra violare il contratto o i propri obblighi legali. Le due aziende non hanno chiarito se il codice segreto sia mai stato utilizzato; Amazon ha dichiarato di seguire procedure rigorose per rispondere agli ordini legittimi e di non adottare pratiche volte ad aggirare gli obblighi di riservatezza. Google ha respinto come false e “assurde” le accuse di un proprio coinvolgimento in attività illegali, negando qualsiasi tentativo di eludere obblighi legali negli Stati Uniti o altrove. Anche il Ministero delle Finanze israeliano ha smentito le ricostruzioni, definendo infondata l’idea che Israele costringa le aziende a violare la legge. Uso accettabile I documenti trapelati indicano che i funzionari israeliani temevano anche possibili limitazioni o interruzioni dei servizi cloud di Google e Amazon, in seguito a decisioni di tribunali stranieri o a scelte autonome delle aziende sotto la pressione di dipendenti, azionisti, attivisti e organizzazioni per i diritti umani. In particolare, temevano che le leggi europee potessero essere utilizzate per intentare cause legali e spingere le aziende a interrompere i rapporti commerciali con Israele qualora le loro tecnologie fossero collegate a violazioni dei diritti umani. Dopo che +972, Local Call e The Guardian hanno rivelato l’uso da parte di Israele del cloud Microsoft per archiviare intercettazioni di palestinesi in violazione dei termini di servizio, Microsoft ha revocato l’accesso dell’esercito israeliano ad alcuni dei suoi prodotti. I documenti trapelati indicano però che il contratto Nimbus impedisce esplicitamente a Google e Amazon di adottare misure analoghe, anche in caso di violazioni delle proprie policy, pena azioni legali e pesanti sanzioni economiche. Questa disponibilità ad accettare tali condizioni avrebbe favorito Google e Amazon nell’aggiudicarsi il contratto, a scapito di Microsoft, e avrebbe spinto Israele a pianificare il trasferimento dei dati di sorveglianza dal cloud Microsoft a quello di Amazon. Google era consapevole che, con il progetto Nimbus, avrebbe rinunciato in gran parte al controllo sull’uso della propria tecnologia da parte di Israele, nonostante le dichiarazioni pubbliche sul rispetto dei termini di servizio. Secondo The Intercept, il contratto è infatti regolato da policy “modificate” e non negoziabili, favorevoli al governo israeliano, che prevalgono sulle condizioni standard delle aziende. Pur prevedendo formalmente il divieto di utilizzi che violino diritti o causino gravi danni, il contratto Nimbus esclude qualsiasi restrizione sui dati archiviabili e consente a Israele di usare liberamente tutti i servizi cloud, purché nel rispetto della legge israeliana. Un’analisi ufficiale e documenti successivi confermano che Google e Amazon hanno accettato di subordinare i propri termini di servizio al contratto, riconoscendo e assecondando le richieste e le “sensibilità” del governo israeliano. The post “Nessuna restrizione” e un “occhiolino” segreto: l’accordo di Israele con Google e Amazon first appeared on Lavoratrici e Lavoratori Aci Informatica.
Gaza, un futuro di controllo della AI che ci riguarda
(Fonte) – Codice Rosso – 17 ottobre 2025 I piani per la nuova amministrazione di Gaza propongono un modello di sicurezza urbano fondato su un sistema ibrido di controllo automatizzato (HACS) che combina intelligenza artificiale, robotica avanzata e sorveglianza aerea. Questo HACS non sarebbe creato da zero ma emergerebbe dalla riconversione rapida di infrastrutture e database militari preesistenti. Il sistema si basa su tre pilastri: * pervasività aerea e robotica: i droni militari sarebbero riassegnati a compiti di pattugliamento urbano, mentre la robotica terrestre, sviluppata per il combattimento, sarebbe riconvertita in piattaforme di sicurezza per mantenere una consapevolezza situazionale completa e continua del territorio. * ’IA come spina dorsale del comando e controllo (C4I): l’intelligenza artificiale, derivata da sistemi di targeting letale, verrebbe riconvertita a strumento di “polizia predittiva”, utilizzando i dati biometrici e di movimento per profilare gli individui per “livello di rischio” e dirigere le risorse di pattugliamento. * adattamento delle soluzioni “Smart City”: il modello HACS sarà rivenduto sul mercato globale come un “pacchetto di sicurezza per Smart City” completo, allineandosi alla domanda di sicurezza urbana ad alta tecnologia. L’industria della difesa sfrutta Gaza come “terreno di prova”, trasformando tecnologie di guerra urbana in prodotti commercializzabili per la Homeland Security, con il rischio di diffondere e normalizzare pratiche di sorveglianza estrema e di erodere la sovranità dei dati civili su scala internazionale. I piani di pace per Gaza prevedono la smilitarizzazione completa e l’avvio di una forza di polizia palestinese sotto la supervisione di una forza internazionale di stabilizzazione. Tuttavia, la gestione della sicurezza resterebbe nelle mani di attori esterni, poiché le strutture di comando, controllo, comunicazione e informazione (C4I) e gli apparati di sorveglianza — droni, CCTV, database biometrici e sistemi IA — continuerebbero a essere controllati dall’esterno, relegando la polizia locale a mero esecutore di un potere algoritmico non sovrano con la riclassificazione di tecnologie militari di targeting e sorveglianza — come Lavender e Red Wolf — in strumenti di “polizia predittiva” civile, normalizzando la profilazione e la sorveglianza estrema come dispositivi ordinari di sicurezza urbana. Il modello di sicurezza previsto per Gaza si configura come la diretta evoluzione dell’infrastruttura di sorveglianza già sviluppata da Israele, basata su riconoscimento facciale, raccolta biometrica e controllo aereo,  in un sistema che alcuni definiscono “apartheid automatizzato”. Sistemi come Blue Wolf (sistema di raccolta massiva di dati) e Red Wolf (sistema per scansionare i volti) hanno alimentato database di massa e imposto restrizioni automatiche alla popolazione palestinese, mentre l’IA militare — con programmi come Lavender, integrati da tecnologie private (per esempio la compagnia israeliana Corsight) e persino piattaforme commerciali (Google Photos)— ha già mostrato la capacità di identificare in modo sistematico obiettivi e individui. Droni, palloni spia e telecamere completano un ecosistema di sorveglianza “a ciclo chiuso”, che verrebbe semplicemente ri-etichettato come dispositivo di sicurezza urbana: un passaggio che non introduce nuove tecnologie, ma trasferisce nel contesto post-bellico gli stessi bias, gli stessi poteri e le stesse ambiguità legali della precedente macchina militare. L’implementazione dell’HACS solleva questioni legali fondamentali relative all’accountability. L’accelerazione nell’uso di sistemi sempre più autonomi introduce la sfida del controllo umano significativo (MHC). La questione più critica per la futura amministrazione riguarda, però, la gestione dei database biometrici preesistenti, contenenti dati sensibili raccolti in un contesto di coercizione e che vengono trasferiti a terze parti. La potenza o l’entità che manterrà il controllo esclusivo sui database biometrici e sul sistema C4I di IA manterrà, di fatto, il controllo operativo ultimo sull’HACS e quindi di Gaza. I dati biometrici si configurano così come un asset geopolitico chiave, e la disputa sulla loro sovranità sarà il fulcro della negoziazione sulla sicurezza post-bellica. L’ipotesi che il sistema di controllo di Gaza serva da modello pilota per l’esportazione in altri paesi trova una solida base nell’analisi delle dinamiche industriali e geopolitiche. Il territorio palestinese è stato fin qui attivamente utilizzato come un terreno di prova per il collaudo e la promozione di tecnologie militari e di sorveglianza. La guerra ha agito da catalizzatore per l’industria della difesa locale, accelerando la conversione delle start-up civili verso l’applicazione militare. La conseguenza geopolitica più significativa sarebbe la normalizzazione internazionale della sorveglianza estrema. The post Gaza, un futuro di controllo della AI che ci riguarda first appeared on Lavoratrici e Lavoratori Aci Informatica.