Source - Lavoratrici e Lavoratori Aci Informatica

Come è passata tramite la AI la strategia sbagliata degli USA
(Fonte) Silvano Cacciari – 18 Marzo 2026 E’ ormai consolidato il fatto che la AI è la principale arma di guerra di ogni esercito, specie in scenari adattivi complessi come quelli attuali e a maggior ragione  per gli Stati Uniti. Eppure la simulazione AI della crisi di Hormuz, che sta strangolando gli Usa, pare non essere stata davvero elaborata, causando una seria crisi strategico-militare per gli USA. La pianificazione dell’Operazione Epic Fury non si è basata su un unico modello, ma su un doppio binario di simulazione: quello tecnologico-operativo affidato all’AI e quello strategico-geopolitico elaborato dai think tank negli ultimi diciassette anni. Sul piano tecnologico, il cuore del sistema è stata l’integrazione tra il modello Claude di Anthropic e la piattaforma Gotham di Palantir. Claude ha processato decine di migliaia di documenti persiani dell’IRGC, da quello che si sa non quelli classificati,  mappato le reti comunicative della leadership iraniana e simulato un numero compreso tra diecimila e centomila scenari d’attacco, proponendo l’ordine ottimale dei bersagli e le finestre temporali con la massima probabilità di successo. La piattaforma Gotham, di Palantir, ha funzionato come sistema nervoso centrale, integrando dati satellitari, comunicazioni intercettate, consumi energetici e persino le rotte di fuga di emergenza dei vertici iraniani. Sul piano strategico, la cassetta degli attrezzi concettuale era invece già stata preparata nel 2009 dalla Brookings Institution con il rapporto “Verso la Persia: opzioni per una nuova strategia americana verso l’Iran”. Il documento prevedeva con precisione la sequenza: attacco aereo con obiettivo di decapitazione, rappresaglia missilistica iraniana contro basi USA nel Golfo, coinvolgimento di Hezbollah, e la variabile critica dello Stretto di Hormuz come “variabile che le forze armate non hanno ancora pienamente testato“. Nonostante la potenza di calcolo e la profondità di analisi strategica, il sistema ha mostrato almeno tre grandi zone d’ombra che i modelli non avevano catturato e che gli Usa stanno fortemente pagando sul campo e in termini di guerra finanziaria: la resilienza del sistema di potere iraniano alla decapitazione; la sottovalutazione sistematica della chiusura di Hormuz; la rapidità della reazione a catena assicurativo-logistica.  Ma perché sia sul piano tecnologico che su quello strategico gli USA sembrano non aver tenuto conto proprio dello scenario che si è realizzato, una guerra asimmetrica nel quale il soggetto militarmente più debole mette in difficoltà strategica quello più forte? Le fonti disponibili suggeriscono che le simulazioni non hanno previsto la chiusura di Hormuz per una combinazione di bias cognitivo umano, limiti strutturali dei modelli predittivi e – probabilmente – un’indicazione implicita dai vertici di privilegiare scenari che mantenessero aperta quella opzione. I funzionari hanno tacitamente ammesso al Congresso di non aver pianificato lo scenario peggiore della chiusura dello Stretto. Questo rivela un primo livello di fallimento: il bias della “razionalità condivisa”. I modelli AI, addestrati su dati storici, avevano incorporato questa stessa convinzione dei funzionari. Il piano della selezione dei modelli. Nelle settimane precedenti l’attacco, il Pentagono stava utilizzando Claude di Anthropic per simulazioni strategiche e analisi di intelligence. Ma il 27 febbraio, poche ore prima dell’attacco, Trump ha firmato un ordine esecutivo che imponeva a tutte le agenzie federali di cessare l’uso di Claude, definendo Anthropic una “azienda di sinistra radicale” e dichiarandola “rischio per la catena di fornitura”. Il motivo? Anthropic si rifiutava di rimuovere le salvaguardie etiche che impedivano l’uso del modello per operazioni letali e chiedeva garanzie contro l’impiego in sistemi d’arma autonomi. Questo significa che il modello più sofisticato, quello che aveva processato decine di migliaia di documenti persiani e simulato fino a centomila scenari, è stato messo da parte proprio nel momento cruciale. Al suo posto, il Pentagono si è rivolto a OpenAI, il cui CEO Sam Altman aveva accettato di fornire servizi per l’analisi di documenti classificati. La domanda sorge spontanea: perché silurare proprio il modello che aveva la maggiore capacità predittiva? Una possibile risposta è che Claude, con le sue simulazioni, stesse producendo scenari sgraditi – magari proprio quelli che includevano la chiusura di Hormuz e le sue conseguenze catastrofiche. Sostituirlo con modelli più “accomodanti” (o semplicemente meno sofisticati) potrebbe essere stata una scelta politica, non tecnica. Al di là delle ipotesi sul bias deliberato, esiste un problema strutturale che nessuna regolazione degli input può risolvere. Come emerge da un’analisi approfondita pubblicata su una piattaforma cinese, l’AI militare americana ha un tallone di Achille: la “data boundary” (confine dei dati). I sistemi di intelligenza artificiale utilizzati in guerra – dai droni autonomi ai modelli predittivi – funzionano sulla base di dati storici e parametri predefiniti. Le loro capacità operative (tempi di reazione, raggi di rilevamento, logiche di riconoscimento) sono “bloccate” in fabbrica e non possono essere aggiornate in tempo reale durante il combattimento . Questo crea un paradosso: più l’AI è sofisticata, più è vulnerabile una volta che i suoi parametri vengono esposti. Facciamo un esempio: se un drone americano con tempi di reazione di 0,32 secondi viene catturato o analizzato, il nemico può sviluppare contromisure con tempi di reazione di 0,27 secondi, rendendolo obsoleto. Applicato alle simulazioni strategiche, questo significa che, usciti dalla “fabbrica”,  i modelli predittivi lavorano su scenari “noti” e comportamenti “già visti”. L’Iran non aveva mai chiuso completamente Hormuz in risposta a un attacco USA. Non c’erano dati su cui addestrare la previsione. L’AI non poteva “immaginare” una mossa che non era nei suoi archivi. The post Come è passata tramite la AI la strategia sbagliata degli USA first appeared on Lavoratrici e Lavoratori Aci Informatica.
Le teorie di Peter Thiel prendono forma nel Regno Unito, i dati sulla salute degli inglesi verranno gestiti da Palantir
(Fonte) – Matteo Suanno – 17 marzo 2026 Domenica 15 marzo sono cominciate a Roma le lezioni “sull’Anticristo” di Peter Thiel. Il presidente di Palantir Technologies, società di analisi dati e sorveglianza strategica al servizio di mezzo mondo, dal governo degli Stati Uniti alla Cia, da Stellantis a British Petroleum, passando per la Nato, ha portato in Italia un format già riprodotto in passato e spesso tenutosi off the record, riservato ad auditori selezionati e con location comunicate solo poche ore prima dell’evento ai diretti interessati. È stato così solo qualche settimana fa, quando Thiel ha parlato a Cambridge sostenendo che “regolare lo sviluppo tecnologico favorirebbe il totalitarismo” e che Reform Uk, il partito di estrema destra co-fondato da Nigel Farage e attualmente in testa nei sondaggi, “è l’unica possibilità di salvezza per il Regno Unito”. Nonostante le tante proteste da parte degli studenti, legate soprattutto alle accuse documentate di un coinvolgimento di Palantir nelle operazioni militari di Israele a Gaza (ma sempre negate dall’azienda), non è un caso che Thiel abbia scelto il Regno Unito per esprimere una summa del suo pensiero, un tecno-spiritualismo dove tutto ciò che si oppone all’imporsi della tecnologia è da mettere all’indice. La piattaforma con cui si centralizzano i dati sanitari degli inglesi Nel novembre 2023, l’allora governo conservatore guidato da Rishi Sunak aveva assegnato a un consorzio guidato da Palantir un contratto da 330 milioni di sterline per la gestione dei dati dell’NHS England, il sistema sanitario nazionale. L’accordo prevedeva la creazione di un sistema centralizzato in grado di convogliare in un unico database i dati di fino a 240 realtà del sistema sanitario. Oltre ai dubbi sulla “natura proprietaria” degli algoritmi che guidano la piattaforma e le “implicazioni per la sovranità dei dati”, sono state sollevate delle criticità per il diritto alla salute dei pazienti, in un contesto in cui la crisi del sistema sanitario britannico è diventata uno dei principali temi del dibattito pubblico. Per Medact, l’ong britannica attiva nell’ambito della giustizia sanitaria, il rischio principale connesso a quello per la salute dei cittadini è che utilizzare Palantir come “autostrada” per far correre più velocemente e in modo meno frammentario i dati dei pazienti “potrebbe consentire ad altri dipartimenti del governo britannico, come l’Home Office e le forze di polizia, di accedere più facilmente alle informazioni personali.” La penetrazione di Palantir nei sistemi informatici del governo britannico In un rapporto presentato al Parlamento, l’organizzazione legale Foxglove ha avvertito che la piattaforma potrebbe creare una “centralizzazione senza precedenti dei dati sanitari” e rafforzare la dipendenza del Nhs da Palantir. Oltre al contratto con Nhs England, negli ultimi cinque anni il governo del Regno Unito ha affidato all’azienda un numero crescente di incarichi legati all’analisi e alla gestione di grandi banche dati statali. Si tratta di una sinergia che ha attraversato i governi conservatori di Boris Johnson, Rishi Sunak, i 45 giorni di Liz Truss e il governo laburista di Keir Starmer. Nel 2022 il ministero della Difesa ha firmato un accordo da circa 75,2 milioni di sterline (ampliato poi oltre i 300 milioni tra il 2025 e il 2026) per utilizzare le piattaforme analitiche di Palantir nei sistemi militari, con l’obiettivo di supportare pianificazione operativa e decisioni strategiche su dati classificati. Contratti vicini al miliardo di sterline Parallelamente la tecnologia dell’azienda ha iniziato a comparire anche in altri livelli dell’apparato statale. Nel 2026 la Metropolitan Police Service ha firmato un contratto pilota da quasi mezzo milione di sterline per una piattaforma di integrazione dei dati investigativi capace di collegare diversi database e automatizzare analisi interne. A livello locale, nel 2025, l’amministrazione della città di Coventry ha avviato un accordo da circa 500 mila sterline l’anno per applicare strumenti di analisi e intelligenza artificiale alla gestione dei servizi sociali e dei casi nei servizi per minori. Analisi indipendenti dei database di procurement pubblico e diverse inchieste giornalistiche hanno individuato almeno 34 contratti tra Palantir e istituzioni britanniche. Una traiettoria che ha alimentato il dibattito politico sulla crescente dipendenza tecnologica dello Stato da un unico fornitore privato. The post Le teorie di Peter Thiel prendono forma nel Regno Unito, i dati sulla salute degli inglesi verranno gestiti da Palantir first appeared on Lavoratrici e Lavoratori Aci Informatica.
“L’IA è l’intelligenza africana”: i lavoratori che addestrano l’IA si ribellano.
(Fonte) Jason Koebler – 12 marzo 2026 Michael Geoffrey Asia lavorava in Kenya come data labeler per aziende di intelligenza artificiale: passava ore a visionare e annotare materiale pornografico per addestrare modelli di IA e, in un secondo lavoro, gestiva conversazioni sessuali fingendosi diverse identità dietro sex-bot destinati soprattutto a utenti statunitensi. Il lavoro, caratterizzato da turni lunghi, gestione algoritmica e contenuti estremi, gli ha provocato gravi conseguenze psicologiche e fisiche, tra cui insonnia, stress post-traumatico e problemi nella vita intima. Dopo aver lasciato il settore, Asia è diventato segretario generale della Data Labelers Association (DLA) in Kenya e denuncia le condizioni di sfruttamento dei lavoratori che addestrano l’IA: salari molto bassi, scarsa tutela psicologica e nessun beneficio economico nonostante il loro ruolo centrale nella crescita delle grandi aziende tecnologiche. È autore di ” The Emotional Labor Behind AI Intimacy “, una testimonianza del suo periodo come lavoratore umano dietro i sex bot basati sull’IA. Durante un incontro organizzato a Nairobi dalla Data Labelers Association (DLA), lavoratori dell’etichettatura dei dati per l’intelligenza artificiale hanno denunciato le condizioni di lavoro: ore passate a visionare contenuti traumatici, scarse tutele per la salute mentale e gestione tramite algoritmi opachi. Nel corso dell’evento è stato sottolineato come questi lavoratori, pur essendo fondamentali per il funzionamento e la crescita economica delle grandi aziende tecnologiche, restino all’ultimo gradino della filiera globale. Alcuni interventi hanno inoltre collegato la loro condizione a forme contemporanee di sfruttamento simili a dinamiche coloniali, indicando multinazionali come Apple, Meta e Gemini come i principali beneficiari di questa catena produttiva e lanciando un appello alla solidarietà e alla lotta per i diritti dei lavoratori e dell’ambiente. Durante un viaggio in Kenya per una conferenza su IA e giornalismo, emerge quanto l’etichettatura dei dati sia un lavoro molto diffuso nel settore tecnologico locale. Aziende come Sama, che collaborano con giganti tecnologici come Meta e OpenAI, impiegano molti lavoratori in attività di annotazione di immagini e video, spesso con salari molto bassi (circa 240 dollari al mese) e con forte esposizione a contenuti violenti, che hanno portato anche a cause legali e a casi di stress post-traumatico tra i dipendenti. Insomma, l’intelligenza artificiale non è il prodotto esclusivo delle grandi aziende tecnologiche della Silicon Valley, ma si basa su una vasta catena globale di lavoro umano sottopagato, spesso invisibile, svolto soprattutto in paesi come il Kenya. Questo “lavoro fantasma” di etichettatura e moderazione dei contenuti è fondamentale per far funzionare i sistemi di IA, ma rimane poco riconosciuto e privo di tutele. Asia denuncia che gli strumenti di IA vengono costruiti grazie al lavoro precario di questi lavoratori, che poi vengono esclusi una volta che i prodotti sono pronti, mentre accordi di riservatezza molto restrittivi impediscono loro di parlare delle condizioni subite. Organizzazioni come la Data Labelers Association stanno cercando di rompere questa cultura del silenzio, mentre avvocati per i diritti dei lavoratori sottolineano come le decisioni delle grandi aziende tecnologiche negli Stati Uniti abbiano conseguenze dirette sulle condizioni di lavoro e sui diritti dei lavoratori africani. Mutemi, avvocata specializzata in diritti dei lavoratori, si è occupata della causa contro Meta e si è impegnata a contrastare gli accordi di non divulgazione (NDA) affinché i lavoratori possano parlare più liberamente delle proprie esperienze. Le aziende tecnologiche “prigioniano mentalmente le persone, facendole sentire inibite nel parlare di questi argomenti. Ma gli NDA sono insensati: le nostre leggi non li riconoscono”, ha affermato. «L’Africa si trova in fondo alla catena di approvvigionamento dell’IA. Ma in questo momento, il fatto che siamo tutti qui e che la maggior parte di voi si occupi di etichettatura dei dati – siete voi a fornire la manodopera – ci porta a pensare all’intero ecosistema dell’IA, a chi viene in mente l’ingegnere, e forse questa è l’immagine che la maggior parte del mondo ha dell’IA», ha affermato Angela. «Ed è un’immagine del tutto intenzionale. Rendere invisibile [il vostro lavoro], far apparire l’IA come un oggetto luccicante che nessuno capisce, qualcosa di automatico, bello e tecnologico. Questa è l’intenzione di nascondere il lavoro e il dietro le quinte dell’IA». The post “L’IA è l’intelligenza africana”: i lavoratori che addestrano l’IA si ribellano. first appeared on Lavoratrici e Lavoratori Aci Informatica.
Soldi a fondo perduto e inquilini valutati da un algoritmo. I nuovi ostacoli per affittare a Roma
(Fonte) – Filippo Poltronieri – 8 marzo 2026 Una provvigione all’agenzia del 15% sul canone annuo (2500 euro + 550 di iva), 50mila euro di reddito annuo lordo, un contratto a tempo indeterminato, la cittadinanza italiana e duemila euro a fondo perduto come assicurazione per il rischio morosità. Per assicurarsi un appartamento da 1.400 euro al mese al Pigneto, insomma, è necessario anticipare oltre cinquemila euro e presentare una serie di garanzie piuttosto stringenti. Negli ultimi anni il mercato immobiliare romano ha raggiunto un livello di complessità che ridefinisce completamente il concetto di cercare casa. Una trasformazione cui ha contribuito anche il sistema inventato da SoloAffitti Spa, un gruppo che conta ormai circa trecento agenzie in tutta Italia, una ventina nella Capitale, e che ha scelto di puntare tutto sulla tecnologia applicata alla locazione attraverso la piattaforma SoloAffitti PAY. Come funziona. Non si paga la caparra al proprietario dell’immobile ma a un’agenzia privata che garantisce per l’inquilino dando al proprietario la certezza dei pagamenti anche in caso di morosità, fino all’avvenuto sfratto. Il proprietario a sua volta devolve un 10% dell’incasso mensile all’agenzia. La selezione degli inquilini avviene attraverso un’istruttoria rigorosa gestita da un algoritmo. Chi cerca casa deve caricare sulla piattaforma documenti di reddito, siano essi di lavoro dipendente, autonomo o pensioni. L’algoritmo incrocia questi dati e restituisce un indicatore di solvibilità personalizzato che definisce esattamente quale appartamento il soggetto può permettersi. “Poi è il proprietario l’ultimo decisore che può imporre qualsiasi limitazione” spiega Alessandro Galardo, che gestisce una delle agenzie affiliate di Roma. A Roma poi, dove operano circa venti agenzie coordinate che possono lavorare su tutta la città pur avendo punti di riferimento, il mercato è estremamente variegato. Ancora Galardo “in città esiste un mercato del transitorio molto forte, alimentato da master annuali o trasferimenti legati alle cariche istituzionali come quelle della Camera dei Deputati, dove i contratti durano quanto la legislatura”. Il profilo dei proprietari è altrettanto specifico. Secondo Galardo, la maggior parte dei locatori ha un’età compresa tra i quaranta e i sessant’anni, persone che hanno avuto la possibilità di acquistare casa o che sono eredi dello storico tessuto dei “palazzinari” e delle imprese edili che hanno costruito massicciamente fino agli anni novanta. SoloAffitti PAY si inserisce con una forza dirompente: Galardo rivela che nel 2025 circa il 95% degli immobili da loro gestiti è stato affittato utilizzando la garanzia Rent Pass. Questa automazione della fiducia crea una forma di esclusione per chi non possiede i requisiti minimi richiesti come chi ha un lavoro atipico o fa parte di categorie storicamente fragili. Il modello si scontra quindi con una realtà economica per l’inquilino che è diventata estremamente onerosa. Oltre alla provvigione per l’agenzia, che nella Capitale si attesta solitamente sul 15% del canone annuo, l’aspirante inquilino deve versare una cifra a fondo perduto che non è un deposito cauzionale e non verrà restituita a fine contratto, ma costituisce un pagamento per il servizio di assicurazione contro la morosità, e trasforma l’accesso alla casa.   The post Soldi a fondo perduto e inquilini valutati da un algoritmo. I nuovi ostacoli per affittare a Roma first appeared on Lavoratrici e Lavoratori Aci Informatica.
intelligenza artificiale Rapporto Analisi Come OpenAI ha ceduto al Pentagono sulla sorveglianza tramite intelligenza artificiale
(Fonte) – Campo Hayden – 2 marzo 2026 OpenAI, guidata da Sam Altman, ha raggiunto un accordo con il Pentagono sull’uso dell’intelligenza artificiale militare dopo lo stallo con Anthropic, che era stata esclusa per aver imposto limiti rigidi (no sorveglianza di massa sugli americani e no armi autonome letali). Altman ha dichiarato che OpenAI mantiene principi simili, ma secondo fonti vicine ai negoziati l’accordo è molto più flessibile: l’uso della tecnologia è consentito per “qualsiasi uso lecito”. In pratica, se un’attività è legalmente permessa — anche programmi di sorveglianza di massa già autorizzati in passato — l’esercito statunitense potrà utilizzare la tecnologia di OpenAI. L’ex responsabile della ricerca politica di OpenAI, Miles Brundage, sostiene che l’azienda avrebbe in realtà ceduto alle richieste del Pentagono, presentando però l’accordo come se non avesse fatto concessioni e mettendo in difficoltà Anthropic. OpenAI nega: la portavoce Kate Waters afferma che l’intesa non consente sorveglianza di massa sugli americani. Tuttavia, esperti avvertono che l’IA potrebbe permettere forme di sorveglianza estremamente dettagliate combinando grandi quantità di dati personali. A differenza di Anthropic, che voleva un divieto esplicito, OpenAI si affida soprattutto ai limiti legali già esistenti (Costituzione USA e leggi sull’intelligence) per regolare l’uso della tecnologia. Le rassicurazioni di OpenAI sull’uso legale dell’IA da parte del Pentagono non convincono. Dopo l’11 settembre, infatti, le agenzie di intelligence statunitensi hanno già sviluppato programmi di sorveglianza di massa considerati formalmente legali, come rivelato nel 2013 da Edward Snowden (raccolta di tabulati telefonici e programma PRISM). Secondo alcuni analisti, richiamarsi semplicemente alle leggi esistenti non impedisce nuove forme di sorveglianza interna, anche perché strumenti come l’ordine esecutivo 12333 hanno già consentito pratiche molto invasive. OpenAI sostiene che il suo accordo non permette monitoraggi indiscriminati dei cittadini statunitensi e che ogni attività dovrà rispettare la normativa vigente, ma Amodei di Anthropic ha dichiarato pubblicamente che la legge non è ancora al passo con la capacità dell’IA di condurre attività di sorveglianza su larga scala e che i limiti e le leggi potrebbero cambiare. Secondo la ricercatrice Sarah Shoker, il linguaggio usato da OpenAI sull’accordo con il Pentagono è volutamente vago e pieno di formule (“senza vincoli”, “generalizzato”, “aperto”) che non costituiscono veri divieti, lasciando ampio margine di discrezionalità. In base ai limiti legali attuali, il Pentagono potrebbe comunque usare la tecnologia di OpenAI per analizzare grandi quantità di dati sugli americani, combinando informazioni pubbliche, dati acquistati da broker e database di intelligence. Anche la “linea rossa” sulle armi autonome letali appare debole: il divieto vale solo nei casi in cui la legge richieda già il controllo umano. A differenza di Anthropic, che chiedeva un bando più esplicito, l’accordo di OpenAI sembra quindi allinearsi alle regole esistenti senza introdurre restrizioni aggiuntive. Sam Altman sostiene che l’accordo tra OpenAI e il Pentagono includa controlli tecnici e supervisione umana, come classificatori per monitorare l’uso dei modelli e autorizzazioni di sicurezza per alcuni dipendenti. Tuttavia, secondo fonti vicine ai negoziati, queste misure hanno efficacia limitata: non possono verificare se una decisione militare sia stata realmente supervisionata da un umano né se richieste sui dati facciano parte di programmi di sorveglianza di massa. Inoltre, se il governo considera un’azione legalmente consentita, i sistemi di OpenAI non potrebbero bloccarla. Anche il divieto sulle armi autonome letali appare debole: OpenAI parla di “responsabilità umana”, che può significare solo responsabilità dopo l’azione, mentre Anthropic chiedeva supervisione umana prima o durante l’uso. Le garanzie tecniche (come l’uso solo nel cloud) non impedirebbero comunque che l’IA supporti la catena decisionale che porta all’attacco. In generale, l’accordo si basa sull’idea che la tecnologia possa essere usata per qualsiasi attività ritenuta legale dal governo, un limite considerato fragile perché le leggi e le loro interpretazioni possono cambiare nel tempo. L’amministrazione Trump ha rivendicato che le decisioni sull’uso militare dell’IA spettano solo al governo e non alle aziende tecnologiche. L’accordo con OpenAI è stato presentato come un compromesso già offerto anche ad Anthropic, che però lo ha rifiutato perché non coerente con i suoi limiti. Dopo il rifiuto, il Pentagono ha classificato Anthropic come rischio per la supply chain, invitando le agenzie federali a smettere di usare la sua IA; l’azienda ha annunciato che contesterà la decisione. Molti nel settore tecnologico hanno sostenuto Anthropic per aver mantenuto la propria posizione, facendo diventare la sua app Claude la più scaricata sull’App Store. Tuttavia, il CEO Dario Amodei  ha affermato “Le armi completamente autonome (quelle che escludono completamente gli esseri umani dal controllo e automatizzano la selezione e l’ingaggio dei bersagli) potrebbero rivelarsi fondamentali per la nostra difesa nazionale”, ha affermato Amodei. “Ma oggi, i sistemi di intelligenza artificiale di frontiera non sono semplicemente sufficientemente affidabili per alimentarle”. The post intelligenza artificiale Rapporto Analisi Come OpenAI ha ceduto al Pentagono sulla sorveglianza tramite intelligenza artificiale first appeared on Lavoratrici e Lavoratori Aci Informatica.
OpenAI annuncia l’accordo con il Pentagono dopo che Trump ha vietato Anthropic
(Fonte) Shannon Bond Geoff Brumfiel – 28 febbraio 2026 Venerdì Trump ha ordinato a tutte le agenzie federali di interrompere immediatamente l’uso dei prodotti di Anthropic, accusando l’azienda di aver tentato di imporre i propri Termini di Servizio al governo invece di adeguarsi alle decisioni militari. In un post su Truth Social ha definito la scelta dell’azienda un “errore disastroso” e ha annunciato che la tecnologia Anthropic sarà eliminata gradualmente entro sei mesi. Contestualmente, il Segretario alla Difesa Pete Hegseth ha dichiarato su X che Anthropic è stata designata come rischio per la sicurezza nazionale nella catena di approvvigionamento, escludendola da collaborazioni con l’esercito e con i suoi appaltatori, nel quadro del rebranding del Pentagono come “Dipartimento della Guerra”. La decisione chiude una dura controversia relativa a un contratto da 200 milioni di dollari, nell’ambito del quale Anthropic aveva cercato di mantenere due restrizioni: il divieto di sorveglianza di massa dei cittadini americani e il divieto di utilizzo dei suoi modelli per armi completamente autonome. Il Pentagono sosteneva di non voler usare l’IA in tali modi, ma pretendeva la possibilità di impiegare i modelli per “tutti gli scopi legittimi”. Alla scadenza fissata, l’azienda non ha revocato le limitazioni e il Dipartimento della Difesa ha proceduto con la designazione. Anthropic ha annunciato che contesterà la decisione in tribunale, sostenendo che la designazione è giuridicamente infondata e crea un precedente pericoloso per qualsiasi azienda che negozi con il governo. Ha inoltre affermato che, secondo la legge federale, la classificazione come rischio per la catena di approvvigionamento si applicherebbe solo all’uso di Claude nei contratti del Dipartimento della Guerra, senza estendersi ad altri clienti. L’azienda ha ribadito di aver negoziato in buona fede e di sostenere tutti gli usi legittimi dell’IA per la sicurezza nazionale, eccetto le due eccezioni contestate, motivate dall’inaffidabilità attuale dei modelli per sistemi d’arma autonomi e dal rischio di violazione dei diritti fondamentali attraverso la sorveglianza di massa. Poco dopo l’annuncio di Trump, OpenAI ha comunicato di aver raggiunto un accordo con il Dipartimento della Difesa per fornire la propria tecnologia alle reti classificate. In un post su X, il CEO Sam Altman ha dichiarato che l’accordo incorpora principi di sicurezza come il divieto di sorveglianza di massa nazionale e la responsabilità umana nell’uso della forza, anche nei sistemi d’arma autonomi. In precedenza, Altman aveva affermato alla CNBC di condividere le “linee rosse” di Anthropic e, secondo quanto riportato dal Wall Street Journal, in una nota interna aveva spiegato che OpenAI stava negoziando esclusioni simili per impedire usi senza supervisione umana. Il Pentagono aveva anche minacciato di invocare il Defense Production Act per costringere Anthropic a consentire l’uso illimitato dei propri modelli. Hegseth ha accusato l’azienda di arroganza e tradimento, sostenendo che il Dipartimento della Guerra deve avere accesso completo ai modelli per ogni scopo legale in difesa della Repubblica e che i militari non saranno ostaggio dei “capricci ideologici” delle aziende tecnologiche. Emil Michael, sottosegretario per la ricerca e l’ingegneria, ha ribadito su X che il dipartimento rispetterà sempre la legge ma non si piegherà a interessi aziendali, affermando in un’intervista a CBS News che la normativa già vieta sorveglianza di massa e armi autonome e che occorre fidarsi delle forze armate. Negli ultimi anni, molte aziende hanno progressivamente allentato i propri principi etici per accedere a contratti governativi e militari sempre più redditizi: OpenAI ha eliminato il divieto di utilizzi bellici e firmato accordi con aziende come Anduril e con lo stesso Dipartimento della Difesa, mentre anche Amazon, Google e Microsoft hanno ampliato le collaborazioni con agenzie di difesa e intelligence, inclusa l’ICE, nonostante le proteste interne dei lavoratori, che in passato avevano portato a cambiamenti, come nel caso del ritiro di Google dal Project Maven nel 2018. The post OpenAI annuncia l’accordo con il Pentagono dopo che Trump ha vietato Anthropic first appeared on Lavoratrici e Lavoratori Aci Informatica.
La tua auto ti spia e le aziende israeliane sono in testa alla corsa alla sorveglianza
(Fonte) Omer Benjakob – 16 febbraio 2026 Negli ultimi anni diverse aziende israeliane hanno sviluppato e commercializzato strumenti avanzati di cyber intelligence in grado di penetrare i sistemi digitali delle automobili connesse, trasformando i veicoli in potenti fonti di raccolta informativa. Questa nuova frontiera, nota nel settore come CARINT (car intelligence), consente non solo di tracciare in tempo reale i movimenti di un’auto, ma anche di incrociare dati provenienti da molteplici fonti per identificare un obiettivo tra decine di migliaia di veicoli. In alcuni casi, la tecnologia permette perfino di accedere da remoto ai microfoni e alle telecamere installate a bordo, intercettando conversazioni o immagini senza che il conducente ne sia consapevole. Le automobili moderne sono ormai veri e propri computer su ruote, dotati di decine di sistemi digitali e di connessioni Internet o cellulari permanenti tramite SIM integrate. Questa connettività migliora navigazione, sicurezza e comfort, ma espone anche a rischi significativi per la privacy e per la sicurezza nazionale. I dati generati dai veicoli – posizione, percorsi, comunicazioni Bluetooth e wireless – possono essere raccolti, fusi e analizzati grazie a sistemi basati sull’intelligenza artificiale, capaci di elaborare milioni di informazioni in tempo reale. Un’inchiesta di Haaretz ha rivelato che almeno tre aziende israeliane operano nel settore CARINT. Tra queste figura Toka, cofondata dall’ex primo ministro Ehud Barak e dal generale Yaron Rosen, inizialmente specializzata nell’hacking di telecamere di sicurezza e poi approdata all’intelligence automobilistica. Secondo fonti del settore, Toka avrebbe sviluppato un prodotto offensivo in grado di violare sistemi multimediali di specifici modelli di auto, localizzarli e attivare microfoni o telecamere di bordo. Il Ministero della Difesa israeliano ne aveva autorizzato la commercializzazione, anche se l’azienda sostiene di non venderlo più in vista della roadmap 2026. Anche Rayzone ha introdotto un prodotto CARINT, commercializzato tramite la consociata TA9, che integra i dati dei veicoli con altre fonti informative per offrire ai governi una “copertura di intelligence completa”. Il sistema sfrutta SIM installate nelle auto, controlli incrociati con telecamere stradali e database governativi, inserendosi in una più ampia tendenza alla fusione dei dati. In parallelo, Ateros – affiliata a Netline – ha presentato GeoDome, una piattaforma che collega informazioni provenienti da targhe, comunicazioni cellulari e sensori, inclusi identificatori unici presenti negli pneumatici, creando una sorta di impronta digitale del veicolo. Il fenomeno non è limitato a Israele. Negli Stati Uniti, agenzie come FBI e NSA richiedono regolarmente dati ai produttori di automobili, mentre aziende come Palantir, Berla e Cellebrite integrano informazioni veicolari in sistemi di analisi per clienti governativi e militari. In Cina, i produttori sono obbligati a trasmettere dati dei veicoli alle autorità, e le Forze di Difesa Israeliane hanno limitato l’uso di auto elettriche cinesi per motivi di sicurezza. Le conferenze ISS World, soprannominate “Souk degli Spettri”, mostrano come il mercato dell’intelligence stia evolvendo verso sistemi sempre più integrati e potenziati dall’intelligenza artificiale. L’IA consente di trasformare enormi quantità di dati non correlati – video, audio, tracciamenti GPS – in intelligence operativa rapida ed efficace. Questo segna un passaggio dai tradizionali strumenti altamente invasivi, come gli spyware per smartphone, verso un modello fondato sulla raccolta e fusione massiva di dati. Nonostante le potenzialità, l’hacking diretto delle auto resta tecnicamente complesso: ogni modello ha sistemi differenti e la connettività rende più facile essere individuati. Per questo, secondo alcune fonti, la fusione dei dati tramite IA risulta spesso più efficiente dell’intrusione diretta. Tuttavia, la crescente digitalizzazione dei veicoli amplifica i rischi. Ricercatori e hacker etici avvertono da anni che i dati generati dalle auto possono essere sfruttati per identificare abitudini, spostamenti o persino per prendere il controllo remoto del veicolo. Alcuni governi, secondo fonti del settore, non si accontentano più di localizzare un’auto, ma desiderano poterla disattivare a distanza. Più le automobili diventano connesse e intelligenti, maggiore diventa il potenziale impatto sulla nostra sicurezza fisica. The post La tua auto ti spia e le aziende israeliane sono in testa alla corsa alla sorveglianza first appeared on Lavoratrici e Lavoratori Aci Informatica.
“State zitti e concentratevi sulla missione”: i lavoratori del settore tecnologico e il silenzio delle loro aziende sull’ICE
(Fonte) Campo Hayden – 11 febbraio 2026  Nel 2026, mentre agenti federali hanno ucciso almeno otto persone e le proteste pubbliche contro le operazioni dell’ICE si intensificano, i CEO delle principali aziende tecnologiche – tra cui Google, Meta, Microsoft, Apple, Amazon, AWS e OpenAI – hanno mantenuto un sostanziale silenzio pubblico. In privato, secondo fonti interne, Tim Cook di Apple e Sam Altman di OpenAI avrebbero inviato promemoria ai dipendenti chiedendo una de-escalation e confidando nella leadership del presidente Trump, senza però rilasciare dichiarazioni ufficiali forti. Dario Amodei di Anthropic ha rappresentato un’eccezione parziale, affermando alla NBC che la sua azienda non ha contratti con l’ICE e scrivendo su X della necessità di difendere valori e diritti democratici. Nel 2018, centinaia di dipendenti Microsoft firmarono una petizione contro i contratti con l’ICE, mentre migliaia di Googler riuscirono a bloccare la collaborazione con il Pentagono nel progetto Project Maven. Dopo l’uccisione di George Floyd nel 2020, le Big Tech avevano assunto impegni pubblici e finanziari a sostegno del movimento Black Lives Matter. Molti leader tecnologici hanno donato al fondo di insediamento del presidente o a super PAC a lui collegati, hanno cenato alla Casa Bianca e lodato pubblicamente l’approccio dell’amministrazione su tecnologia e intelligenza artificiale. Parallelamente, hanno ampliato collaborazioni con il governo, sviluppando prodotti dedicati come Claude Gov o ChatGPT Gov e mantenendo o estendendo contratti con DHS, ICE e altre agenzie legate alla repressione dell’immigrazione. In risposta, un movimento popolare invita al boicottaggio di aziende come Microsoft, Amazon e OpenAI. All’interno delle aziende cresce il malcontento. Un dipendente di YouTube ha espresso frustrazione per l’invito implicito a “restare concentrati sulla missione” senza affrontare pubblicamente le implicazioni etiche delle collaborazioni governative. Una petizione firmata da oltre 1.000 dipendenti Google chiede alla dirigenza di sollecitare risposte urgenti dal governo, organizzare sessioni di domande e risposte sui contratti con DHS e CBP e proteggere i lavoratori più vulnerabili. Un’altra iniziativa, promossa da ICEout.tech e intitolata “La tecnologia chiede all’ICE di andarsene dalle nostre città”, ha raccolto oltre 2.000 firme di dipendenti di numerose aziende del settore, chiedendo ai CEO di intervenire presso la Casa Bianca, rescindere i contratti con l’ICE e condannare pubblicamente la violenza. Nonostante il silenzio dei vertici, alcune figure di rilievo hanno preso posizione. Jeff Dean di Google ha definito “assolutamente vergognoso” un recente omicidio legato all’ICE, mentre James Dyett di OpenAI ha criticato l’assenza di indignazione dei leader tecnologici. Tuttavia, molti lavoratori descrivono un clima di cautela e autocensura, soprattutto tra chi possiede visti come l’H-1B e teme ripercussioni. Dipendenti Microsoft raccontano di discussioni private critiche verso la collaborazione con l’ICE e di una crescente distanza tra la missione dichiarata dell’azienda e le sue azioni. Alcuni lamentano l’assenza totale di riferimenti alla crisi nei portali interni e nelle riunioni aziendali, con comunicazioni concentrate solo su obiettivi di intelligenza artificiale e nuovi prodotti. Anche in altre aziende, come Abbott e CLEAR, i lavoratori riferiscono comunicazioni generiche sulle risorse per la salute mentale ma nessun piano concreto su come affrontare eventuali interventi dell’ICE nei luoghi di lavoro. Molti descrivono uno stato di ipervigilanza e paura nelle comunità colpite, con la sensazione che la tecnologia – inclusi sistemi biometrici e strumenti di tracciamento – possa essere utilizzata per finalità di controllo e repressione. Le conversazioni di persona, tra colleghi fidati, sono diventate una forma di resistenza silenziosa. Per diversi lavoratori, emerge la consapevolezza che  il settore tecnologico è segnato da sorveglianza e repressione statale. The post “State zitti e concentratevi sulla missione”: i lavoratori del settore tecnologico e il silenzio delle loro aziende sull’ICE first appeared on Lavoratrici e Lavoratori Aci Informatica.
Noi – 50 Anni in Assemblea
Nelle iniziative verso i “50 anni insieme” vengono organizzate delle assemblee su temi che, pur non corrispondendo immediatamente con la vertenzialità sindacale, determinano la coscienza sociale e politica delle lavoratrici e dei lavoratori. Queste assemblee sono guidate sempre dagli obiettivi di pace, uguaglianza e libertà rifiutando ogni forma di discriminazione – di genere, razziale o di classe – e lavorando all’inclusione di tutte e tutti. Sono momenti di dibattito che grazie al contributo di soggetti esterni impegnate e impegnati nelle tematiche che si affrontano arricchiscono tutte le lavoratrici e i lavoratori nel percorso collettivo. INCONTRIAMOCI PER INFORMARCI VERSO L'ABISSO: RIARMO E NUCLEARE Nell’ambito delle iniziative sui “50 ANNI insieme” il primo incontro ci aiuta a riflettere e come poterci informare su tematiche che ormai sono presenti quotidianamente in ogni ambito sociale. Sono intervenuti: * ROBERTA LEONI: docente e Presidente dell’Osservatorio contro la militarizzazione delle scuole e delle università. * OSVALDO COSTANTINI: docente di Antropologia Culturale presso il dipartimento di Psicologia dei Processi di Sviluppo e Socializzazione dell’Università di Roma “La Sapienza”. * GIORGIO FERRARI: fisico nucleare. Risorse importanti: 1. Il sito per seguire e essere informati sul lavoro dell’Osservatorio contro la militarizzazione delle scuole e delle università 2. La campagna più generale che promuove la legge di iniziativa popolare si chiama “La conoscenza non marcia” 3. Il Vademecum contro la militarizzazione nelle scuole 4. Il sito per seguire e essere informati sulla campagna “Per un Medio Oriente privo di armi nucleari e di altre armi di distruzione di massa” 5. Il dossier prodotto da Giorgio Ferrari sulla storia del nucleare in Medio Oriente. 50 ANNI INSIEME - ALIMENTAZIONE: UN FATTORE DI SALUTE L’incontro ci ha aiutato a ragionare rispetto all’alimentazione come fattore determinante per la nostra salute e quindi confrontarsi e riflettere sul cibo significa prevenire i fattori di rischio. È quindi importante anche ricostruire i processi di produzione del cibo anche in relazione alle responsabilità che attengono ai modelli di sviluppo che ponendo al centro dell’attenzione il profitto anziché i bisogni delle persone determinano disuguaglianze e privazioni. Sono intervenuti: * DR.SSA GIULIA CAIRELLA:medico nutrizionista e responsabile U.O.S.D. Promozione della Salute, Piani di Prevenzione e Medicina dello Sport del Dipartimento di Prevenzione – ASL Roma 2 * MAURO SECONDI:Rappresentante del Consiglio del Cibo del Comune di Roma. La presentazione prodotta dalla Dr.ssa Giulia Cairella sulla Piramide Alimentare 50 ANNI INSIEME - SENZA CONSENSO È STUPRO Nell’ambito delle iniziative sui “50 ANNI insieme” abbiamo pubblicato sul nostro canale YouTube il video dell’assemblea del 3 marzo scorso “Senza consenso è stupro” L’incontro ci ha aiutato a capire la discussione in Parlamento del disegno di legge che modifica il reato di stupro, ridefinendo gli elementi che identificano i casi in cui si realizza una violenza sessuale Lo scorso novembre alla Camera dei Deputati era stato approvato all’unanimità un testo che poneva l’accento sul consenso esplicito come elemento caratterizzante un rapporto volontario e paritario; nell’esame del provvedimento alla Commissione Giustizia del Senato il testo è stato stravolto ponendo il dissenso della persona violata come condizione necessaria a determinare il reato di violenza sessuale. Questo cambiamento di approccio al tema della violenza sessuale ha prodotto un movimento esteso di donne e uomini contrarie e contrari alla cultura patriarcale e che vedono in questa impostazione la riproduzione dell’idea che il corpo delle donne è a disposizione se non vi è un esplicita dichiarazione di “non disponibilità”. Sono intervenute: – Dr.ssa Francesca De Masi : operatrice antiviolenza, sociologa e presidente della cooperativa sociale Be Free – Avvocata Carla Quinto: responsabile dell’ufficio legale della cooperativa sociale Be Free Be Free: cooperativa sociale attiva dal 2007 con centri antiviolenza, anti-tratta e case rifugio in Lazio, Molise, Abruzzo e Umbria. The post Noi – 50 Anni in Assemblea first appeared on Lavoratrici e Lavoratori Aci Informatica.
La sicurezza dell’intelligenza artificiale incontra la macchina da guerra
(Fonte) Steven Levy – 20 febbraio 2026 Quando lo scorso anno Anthropic è diventata la prima grande azienda di intelligenza artificiale ad essere autorizzata dal governo degli Stati Uniti per usi classificati, comprese applicazioni militari, la notizia non ha fatto molto scalpore. Ma questa settimana è emerso che il Pentagono sta riconsiderando il suo rapporto con l’azienda, incluso un contratto da 200 milioni di dollari, apparentemente perché l’azienda di intelligenza artificiale, attenta alla sicurezza, si oppone a partecipare a determinate operazioni mortali. Il cosiddetto Dipartimento della Guerra potrebbe persino designare Anthropic come “rischio per la catena di approvvigionamento”, una lettera scarlatta solitamente riservata alle aziende che fanno affari con paesi sottoposti a controllo da agenzie federali, come la Cina, il che significa che il Pentagono non farebbe affari con aziende che utilizzano l’intelligenza artificiale di Anthropic nelle loro attività di difesa. In una dichiarazione a WIRED, il portavoce capo del Pentagono Sean Parnell ha affermato “la nostra nazione richiede che i nostri partner siano disposti ad aiutare i nostri combattenti a vincere in qualsiasi battaglia. In definitiva, si tratta delle nostre truppe e della sicurezza del popolo americano”. Questo è un messaggio anche per altre aziende: OpenAI, xAI e Google, che attualmente hanno contratti con il Dipartimento della Difesa per lavori non classificati, stanno facendo i salti mortali per ottenere le loro autorizzazioni più elevate. C’è molto da analizzare qui. Innanzitutto, c’è la questione se Anthropic sia stata punita per essersi lamentata del fatto che il suo modello di intelligenza artificiale Claude sia stato utilizzato come parte del raid per rimuovere il presidente venezuelano Nicolás Maduro (questo è quanto riportato ; l’azienda lo nega). C’è anche il fatto che Anthropic sostiene pubblicamente la regolamentazione dell’intelligenza artificiale, una posizione anomala nel settore e in contrasto con le politiche dell’amministrazione. Ma c’è in gioco una questione più grande e inquietante. Le richieste governative di utilizzo militare renderanno l’intelligenza artificiale stessa meno sicura? Anthropic si è ritagliata uno spazio come la più attenta alla sicurezza di tutte le piattaforme di intelligenza artificiale. In qualità di primo grande laboratorio con un contratto classificato, Anthropic fornisce al governo un “set personalizzato di modelli Claude Gov costruiti esclusivamente per i clienti della sicurezza nazionale statunitense”. Tuttavia, Anthropic ha affermato di averlo fatto senza violare i propri standard di sicurezza, incluso il divieto di utilizzare Claude per produrre o progettare armi. Il CEO di Anthropic, Dario Amodei, ha espressamente dichiarato di non volere che Claude sia coinvolto in armi autonome o nella sorveglianza governativa tramite intelligenza artificiale. Ma questo potrebbe non funzionare con l’attuale amministrazione. Il CTO del Dipartimento della Difesa, Emil Michael (ex direttore commerciale di Uber), ha dichiarato ai giornalisti questa settimana che il governo non tollererà che un’azienda di intelligenza artificiale limiti il modo in cui l’esercito utilizza l’intelligenza artificiale nei suoi armamenti. D’altra parte il CEO di Palantir, Alex Karp, non ha remore ad affermare , con evidente orgoglio: “Il nostro prodotto viene occasionalmente utilizzato per uccidere”, e il Pentagono lo dice esplicitamente: se le aziende di intelligenza artificiale vogliono collaborare con il Dipartimento della Difesa, devono impegnarsi a fare tutto il necessario per vincere. È ormai un dato di fatto che il futuro della guerra è l’IA. Il futuro potrebbe dipendere da chi è responsabile dell’intelligenza artificiale avanzata e da come la plasma e la sfrutta. Mentre i signori dell’intelligenza artificiale si avvolgono nel patriottismo e cercano accordi con il Pentagono, il fatto è che stanno fornendo una tecnologia spaventosamente potente e imprevedibile a un governo e a un dipartimento della Guerra che rifiutano l’idea di supervisione.   The post La sicurezza dell’intelligenza artificiale incontra la macchina da guerra first appeared on Lavoratrici e Lavoratori Aci Informatica.