Tag - ai&guerra

Come è passata tramite la AI la strategia sbagliata degli USA
(Fonte) Silvano Cacciari – 18 Marzo 2026 E’ ormai consolidato il fatto che la AI è la principale arma di guerra di ogni esercito, specie in scenari adattivi complessi come quelli attuali e a maggior ragione  per gli Stati Uniti. Eppure la simulazione AI della crisi di Hormuz, che sta strangolando gli Usa, pare non essere stata davvero elaborata, causando una seria crisi strategico-militare per gli USA. La pianificazione dell’Operazione Epic Fury non si è basata su un unico modello, ma su un doppio binario di simulazione: quello tecnologico-operativo affidato all’AI e quello strategico-geopolitico elaborato dai think tank negli ultimi diciassette anni. Sul piano tecnologico, il cuore del sistema è stata l’integrazione tra il modello Claude di Anthropic e la piattaforma Gotham di Palantir. Claude ha processato decine di migliaia di documenti persiani dell’IRGC, da quello che si sa non quelli classificati,  mappato le reti comunicative della leadership iraniana e simulato un numero compreso tra diecimila e centomila scenari d’attacco, proponendo l’ordine ottimale dei bersagli e le finestre temporali con la massima probabilità di successo. La piattaforma Gotham, di Palantir, ha funzionato come sistema nervoso centrale, integrando dati satellitari, comunicazioni intercettate, consumi energetici e persino le rotte di fuga di emergenza dei vertici iraniani. Sul piano strategico, la cassetta degli attrezzi concettuale era invece già stata preparata nel 2009 dalla Brookings Institution con il rapporto “Verso la Persia: opzioni per una nuova strategia americana verso l’Iran”. Il documento prevedeva con precisione la sequenza: attacco aereo con obiettivo di decapitazione, rappresaglia missilistica iraniana contro basi USA nel Golfo, coinvolgimento di Hezbollah, e la variabile critica dello Stretto di Hormuz come “variabile che le forze armate non hanno ancora pienamente testato“. Nonostante la potenza di calcolo e la profondità di analisi strategica, il sistema ha mostrato almeno tre grandi zone d’ombra che i modelli non avevano catturato e che gli Usa stanno fortemente pagando sul campo e in termini di guerra finanziaria: la resilienza del sistema di potere iraniano alla decapitazione; la sottovalutazione sistematica della chiusura di Hormuz; la rapidità della reazione a catena assicurativo-logistica.  Ma perché sia sul piano tecnologico che su quello strategico gli USA sembrano non aver tenuto conto proprio dello scenario che si è realizzato, una guerra asimmetrica nel quale il soggetto militarmente più debole mette in difficoltà strategica quello più forte? Le fonti disponibili suggeriscono che le simulazioni non hanno previsto la chiusura di Hormuz per una combinazione di bias cognitivo umano, limiti strutturali dei modelli predittivi e – probabilmente – un’indicazione implicita dai vertici di privilegiare scenari che mantenessero aperta quella opzione. I funzionari hanno tacitamente ammesso al Congresso di non aver pianificato lo scenario peggiore della chiusura dello Stretto. Questo rivela un primo livello di fallimento: il bias della “razionalità condivisa”. I modelli AI, addestrati su dati storici, avevano incorporato questa stessa convinzione dei funzionari. Il piano della selezione dei modelli. Nelle settimane precedenti l’attacco, il Pentagono stava utilizzando Claude di Anthropic per simulazioni strategiche e analisi di intelligence. Ma il 27 febbraio, poche ore prima dell’attacco, Trump ha firmato un ordine esecutivo che imponeva a tutte le agenzie federali di cessare l’uso di Claude, definendo Anthropic una “azienda di sinistra radicale” e dichiarandola “rischio per la catena di fornitura”. Il motivo? Anthropic si rifiutava di rimuovere le salvaguardie etiche che impedivano l’uso del modello per operazioni letali e chiedeva garanzie contro l’impiego in sistemi d’arma autonomi. Questo significa che il modello più sofisticato, quello che aveva processato decine di migliaia di documenti persiani e simulato fino a centomila scenari, è stato messo da parte proprio nel momento cruciale. Al suo posto, il Pentagono si è rivolto a OpenAI, il cui CEO Sam Altman aveva accettato di fornire servizi per l’analisi di documenti classificati. La domanda sorge spontanea: perché silurare proprio il modello che aveva la maggiore capacità predittiva? Una possibile risposta è che Claude, con le sue simulazioni, stesse producendo scenari sgraditi – magari proprio quelli che includevano la chiusura di Hormuz e le sue conseguenze catastrofiche. Sostituirlo con modelli più “accomodanti” (o semplicemente meno sofisticati) potrebbe essere stata una scelta politica, non tecnica. Al di là delle ipotesi sul bias deliberato, esiste un problema strutturale che nessuna regolazione degli input può risolvere. Come emerge da un’analisi approfondita pubblicata su una piattaforma cinese, l’AI militare americana ha un tallone di Achille: la “data boundary” (confine dei dati). I sistemi di intelligenza artificiale utilizzati in guerra – dai droni autonomi ai modelli predittivi – funzionano sulla base di dati storici e parametri predefiniti. Le loro capacità operative (tempi di reazione, raggi di rilevamento, logiche di riconoscimento) sono “bloccate” in fabbrica e non possono essere aggiornate in tempo reale durante il combattimento . Questo crea un paradosso: più l’AI è sofisticata, più è vulnerabile una volta che i suoi parametri vengono esposti. Facciamo un esempio: se un drone americano con tempi di reazione di 0,32 secondi viene catturato o analizzato, il nemico può sviluppare contromisure con tempi di reazione di 0,27 secondi, rendendolo obsoleto. Applicato alle simulazioni strategiche, questo significa che, usciti dalla “fabbrica”,  i modelli predittivi lavorano su scenari “noti” e comportamenti “già visti”. L’Iran non aveva mai chiuso completamente Hormuz in risposta a un attacco USA. Non c’erano dati su cui addestrare la previsione. L’AI non poteva “immaginare” una mossa che non era nei suoi archivi. The post Come è passata tramite la AI la strategia sbagliata degli USA first appeared on Lavoratrici e Lavoratori Aci Informatica.
intelligenza artificiale Rapporto Analisi Come OpenAI ha ceduto al Pentagono sulla sorveglianza tramite intelligenza artificiale
(Fonte) – Campo Hayden – 2 marzo 2026 OpenAI, guidata da Sam Altman, ha raggiunto un accordo con il Pentagono sull’uso dell’intelligenza artificiale militare dopo lo stallo con Anthropic, che era stata esclusa per aver imposto limiti rigidi (no sorveglianza di massa sugli americani e no armi autonome letali). Altman ha dichiarato che OpenAI mantiene principi simili, ma secondo fonti vicine ai negoziati l’accordo è molto più flessibile: l’uso della tecnologia è consentito per “qualsiasi uso lecito”. In pratica, se un’attività è legalmente permessa — anche programmi di sorveglianza di massa già autorizzati in passato — l’esercito statunitense potrà utilizzare la tecnologia di OpenAI. L’ex responsabile della ricerca politica di OpenAI, Miles Brundage, sostiene che l’azienda avrebbe in realtà ceduto alle richieste del Pentagono, presentando però l’accordo come se non avesse fatto concessioni e mettendo in difficoltà Anthropic. OpenAI nega: la portavoce Kate Waters afferma che l’intesa non consente sorveglianza di massa sugli americani. Tuttavia, esperti avvertono che l’IA potrebbe permettere forme di sorveglianza estremamente dettagliate combinando grandi quantità di dati personali. A differenza di Anthropic, che voleva un divieto esplicito, OpenAI si affida soprattutto ai limiti legali già esistenti (Costituzione USA e leggi sull’intelligence) per regolare l’uso della tecnologia. Le rassicurazioni di OpenAI sull’uso legale dell’IA da parte del Pentagono non convincono. Dopo l’11 settembre, infatti, le agenzie di intelligence statunitensi hanno già sviluppato programmi di sorveglianza di massa considerati formalmente legali, come rivelato nel 2013 da Edward Snowden (raccolta di tabulati telefonici e programma PRISM). Secondo alcuni analisti, richiamarsi semplicemente alle leggi esistenti non impedisce nuove forme di sorveglianza interna, anche perché strumenti come l’ordine esecutivo 12333 hanno già consentito pratiche molto invasive. OpenAI sostiene che il suo accordo non permette monitoraggi indiscriminati dei cittadini statunitensi e che ogni attività dovrà rispettare la normativa vigente, ma Amodei di Anthropic ha dichiarato pubblicamente che la legge non è ancora al passo con la capacità dell’IA di condurre attività di sorveglianza su larga scala e che i limiti e le leggi potrebbero cambiare. Secondo la ricercatrice Sarah Shoker, il linguaggio usato da OpenAI sull’accordo con il Pentagono è volutamente vago e pieno di formule (“senza vincoli”, “generalizzato”, “aperto”) che non costituiscono veri divieti, lasciando ampio margine di discrezionalità. In base ai limiti legali attuali, il Pentagono potrebbe comunque usare la tecnologia di OpenAI per analizzare grandi quantità di dati sugli americani, combinando informazioni pubbliche, dati acquistati da broker e database di intelligence. Anche la “linea rossa” sulle armi autonome letali appare debole: il divieto vale solo nei casi in cui la legge richieda già il controllo umano. A differenza di Anthropic, che chiedeva un bando più esplicito, l’accordo di OpenAI sembra quindi allinearsi alle regole esistenti senza introdurre restrizioni aggiuntive. Sam Altman sostiene che l’accordo tra OpenAI e il Pentagono includa controlli tecnici e supervisione umana, come classificatori per monitorare l’uso dei modelli e autorizzazioni di sicurezza per alcuni dipendenti. Tuttavia, secondo fonti vicine ai negoziati, queste misure hanno efficacia limitata: non possono verificare se una decisione militare sia stata realmente supervisionata da un umano né se richieste sui dati facciano parte di programmi di sorveglianza di massa. Inoltre, se il governo considera un’azione legalmente consentita, i sistemi di OpenAI non potrebbero bloccarla. Anche il divieto sulle armi autonome letali appare debole: OpenAI parla di “responsabilità umana”, che può significare solo responsabilità dopo l’azione, mentre Anthropic chiedeva supervisione umana prima o durante l’uso. Le garanzie tecniche (come l’uso solo nel cloud) non impedirebbero comunque che l’IA supporti la catena decisionale che porta all’attacco. In generale, l’accordo si basa sull’idea che la tecnologia possa essere usata per qualsiasi attività ritenuta legale dal governo, un limite considerato fragile perché le leggi e le loro interpretazioni possono cambiare nel tempo. L’amministrazione Trump ha rivendicato che le decisioni sull’uso militare dell’IA spettano solo al governo e non alle aziende tecnologiche. L’accordo con OpenAI è stato presentato come un compromesso già offerto anche ad Anthropic, che però lo ha rifiutato perché non coerente con i suoi limiti. Dopo il rifiuto, il Pentagono ha classificato Anthropic come rischio per la supply chain, invitando le agenzie federali a smettere di usare la sua IA; l’azienda ha annunciato che contesterà la decisione. Molti nel settore tecnologico hanno sostenuto Anthropic per aver mantenuto la propria posizione, facendo diventare la sua app Claude la più scaricata sull’App Store. Tuttavia, il CEO Dario Amodei  ha affermato “Le armi completamente autonome (quelle che escludono completamente gli esseri umani dal controllo e automatizzano la selezione e l’ingaggio dei bersagli) potrebbero rivelarsi fondamentali per la nostra difesa nazionale”, ha affermato Amodei. “Ma oggi, i sistemi di intelligenza artificiale di frontiera non sono semplicemente sufficientemente affidabili per alimentarle”. The post intelligenza artificiale Rapporto Analisi Come OpenAI ha ceduto al Pentagono sulla sorveglianza tramite intelligenza artificiale first appeared on Lavoratrici e Lavoratori Aci Informatica.
OpenAI annuncia l’accordo con il Pentagono dopo che Trump ha vietato Anthropic
(Fonte) Shannon Bond Geoff Brumfiel – 28 febbraio 2026 Venerdì Trump ha ordinato a tutte le agenzie federali di interrompere immediatamente l’uso dei prodotti di Anthropic, accusando l’azienda di aver tentato di imporre i propri Termini di Servizio al governo invece di adeguarsi alle decisioni militari. In un post su Truth Social ha definito la scelta dell’azienda un “errore disastroso” e ha annunciato che la tecnologia Anthropic sarà eliminata gradualmente entro sei mesi. Contestualmente, il Segretario alla Difesa Pete Hegseth ha dichiarato su X che Anthropic è stata designata come rischio per la sicurezza nazionale nella catena di approvvigionamento, escludendola da collaborazioni con l’esercito e con i suoi appaltatori, nel quadro del rebranding del Pentagono come “Dipartimento della Guerra”. La decisione chiude una dura controversia relativa a un contratto da 200 milioni di dollari, nell’ambito del quale Anthropic aveva cercato di mantenere due restrizioni: il divieto di sorveglianza di massa dei cittadini americani e il divieto di utilizzo dei suoi modelli per armi completamente autonome. Il Pentagono sosteneva di non voler usare l’IA in tali modi, ma pretendeva la possibilità di impiegare i modelli per “tutti gli scopi legittimi”. Alla scadenza fissata, l’azienda non ha revocato le limitazioni e il Dipartimento della Difesa ha proceduto con la designazione. Anthropic ha annunciato che contesterà la decisione in tribunale, sostenendo che la designazione è giuridicamente infondata e crea un precedente pericoloso per qualsiasi azienda che negozi con il governo. Ha inoltre affermato che, secondo la legge federale, la classificazione come rischio per la catena di approvvigionamento si applicherebbe solo all’uso di Claude nei contratti del Dipartimento della Guerra, senza estendersi ad altri clienti. L’azienda ha ribadito di aver negoziato in buona fede e di sostenere tutti gli usi legittimi dell’IA per la sicurezza nazionale, eccetto le due eccezioni contestate, motivate dall’inaffidabilità attuale dei modelli per sistemi d’arma autonomi e dal rischio di violazione dei diritti fondamentali attraverso la sorveglianza di massa. Poco dopo l’annuncio di Trump, OpenAI ha comunicato di aver raggiunto un accordo con il Dipartimento della Difesa per fornire la propria tecnologia alle reti classificate. In un post su X, il CEO Sam Altman ha dichiarato che l’accordo incorpora principi di sicurezza come il divieto di sorveglianza di massa nazionale e la responsabilità umana nell’uso della forza, anche nei sistemi d’arma autonomi. In precedenza, Altman aveva affermato alla CNBC di condividere le “linee rosse” di Anthropic e, secondo quanto riportato dal Wall Street Journal, in una nota interna aveva spiegato che OpenAI stava negoziando esclusioni simili per impedire usi senza supervisione umana. Il Pentagono aveva anche minacciato di invocare il Defense Production Act per costringere Anthropic a consentire l’uso illimitato dei propri modelli. Hegseth ha accusato l’azienda di arroganza e tradimento, sostenendo che il Dipartimento della Guerra deve avere accesso completo ai modelli per ogni scopo legale in difesa della Repubblica e che i militari non saranno ostaggio dei “capricci ideologici” delle aziende tecnologiche. Emil Michael, sottosegretario per la ricerca e l’ingegneria, ha ribadito su X che il dipartimento rispetterà sempre la legge ma non si piegherà a interessi aziendali, affermando in un’intervista a CBS News che la normativa già vieta sorveglianza di massa e armi autonome e che occorre fidarsi delle forze armate. Negli ultimi anni, molte aziende hanno progressivamente allentato i propri principi etici per accedere a contratti governativi e militari sempre più redditizi: OpenAI ha eliminato il divieto di utilizzi bellici e firmato accordi con aziende come Anduril e con lo stesso Dipartimento della Difesa, mentre anche Amazon, Google e Microsoft hanno ampliato le collaborazioni con agenzie di difesa e intelligence, inclusa l’ICE, nonostante le proteste interne dei lavoratori, che in passato avevano portato a cambiamenti, come nel caso del ritiro di Google dal Project Maven nel 2018. The post OpenAI annuncia l’accordo con il Pentagono dopo che Trump ha vietato Anthropic first appeared on Lavoratrici e Lavoratori Aci Informatica.
La sicurezza dell’intelligenza artificiale incontra la macchina da guerra
(Fonte) Steven Levy – 20 febbraio 2026 Quando lo scorso anno Anthropic è diventata la prima grande azienda di intelligenza artificiale ad essere autorizzata dal governo degli Stati Uniti per usi classificati, comprese applicazioni militari, la notizia non ha fatto molto scalpore. Ma questa settimana è emerso che il Pentagono sta riconsiderando il suo rapporto con l’azienda, incluso un contratto da 200 milioni di dollari, apparentemente perché l’azienda di intelligenza artificiale, attenta alla sicurezza, si oppone a partecipare a determinate operazioni mortali. Il cosiddetto Dipartimento della Guerra potrebbe persino designare Anthropic come “rischio per la catena di approvvigionamento”, una lettera scarlatta solitamente riservata alle aziende che fanno affari con paesi sottoposti a controllo da agenzie federali, come la Cina, il che significa che il Pentagono non farebbe affari con aziende che utilizzano l’intelligenza artificiale di Anthropic nelle loro attività di difesa. In una dichiarazione a WIRED, il portavoce capo del Pentagono Sean Parnell ha affermato “la nostra nazione richiede che i nostri partner siano disposti ad aiutare i nostri combattenti a vincere in qualsiasi battaglia. In definitiva, si tratta delle nostre truppe e della sicurezza del popolo americano”. Questo è un messaggio anche per altre aziende: OpenAI, xAI e Google, che attualmente hanno contratti con il Dipartimento della Difesa per lavori non classificati, stanno facendo i salti mortali per ottenere le loro autorizzazioni più elevate. C’è molto da analizzare qui. Innanzitutto, c’è la questione se Anthropic sia stata punita per essersi lamentata del fatto che il suo modello di intelligenza artificiale Claude sia stato utilizzato come parte del raid per rimuovere il presidente venezuelano Nicolás Maduro (questo è quanto riportato ; l’azienda lo nega). C’è anche il fatto che Anthropic sostiene pubblicamente la regolamentazione dell’intelligenza artificiale, una posizione anomala nel settore e in contrasto con le politiche dell’amministrazione. Ma c’è in gioco una questione più grande e inquietante. Le richieste governative di utilizzo militare renderanno l’intelligenza artificiale stessa meno sicura? Anthropic si è ritagliata uno spazio come la più attenta alla sicurezza di tutte le piattaforme di intelligenza artificiale. In qualità di primo grande laboratorio con un contratto classificato, Anthropic fornisce al governo un “set personalizzato di modelli Claude Gov costruiti esclusivamente per i clienti della sicurezza nazionale statunitense”. Tuttavia, Anthropic ha affermato di averlo fatto senza violare i propri standard di sicurezza, incluso il divieto di utilizzare Claude per produrre o progettare armi. Il CEO di Anthropic, Dario Amodei, ha espressamente dichiarato di non volere che Claude sia coinvolto in armi autonome o nella sorveglianza governativa tramite intelligenza artificiale. Ma questo potrebbe non funzionare con l’attuale amministrazione. Il CTO del Dipartimento della Difesa, Emil Michael (ex direttore commerciale di Uber), ha dichiarato ai giornalisti questa settimana che il governo non tollererà che un’azienda di intelligenza artificiale limiti il modo in cui l’esercito utilizza l’intelligenza artificiale nei suoi armamenti. D’altra parte il CEO di Palantir, Alex Karp, non ha remore ad affermare , con evidente orgoglio: “Il nostro prodotto viene occasionalmente utilizzato per uccidere”, e il Pentagono lo dice esplicitamente: se le aziende di intelligenza artificiale vogliono collaborare con il Dipartimento della Difesa, devono impegnarsi a fare tutto il necessario per vincere. È ormai un dato di fatto che il futuro della guerra è l’IA. Il futuro potrebbe dipendere da chi è responsabile dell’intelligenza artificiale avanzata e da come la plasma e la sfrutta. Mentre i signori dell’intelligenza artificiale si avvolgono nel patriottismo e cercano accordi con il Pentagono, il fatto è che stanno fornendo una tecnologia spaventosamente potente e imprevedibile a un governo e a un dipartimento della Guerra che rifiutano l’idea di supervisione.   The post La sicurezza dell’intelligenza artificiale incontra la macchina da guerra first appeared on Lavoratrici e Lavoratori Aci Informatica.