Tag - anthropic

Che cosa fa l’intelligenza artificiale in guerra
Immagine in evidenza generata con l’ausilio dell’intelligenza artificiale “La guerra è il dominio dell’incertezza: tre quarti delle cose su cui si basa l’azione bellica giacciono nella nebbia di un’incertezza più o meno grande”. A due secoli di distanza dal trattato di strategia militare Della guerra di Von Clausewitz, potremmo dire che, oggi, uno dei principali obiettivi dell’impiego dei sistemi d’intelligenza artificiale in ambito bellico è proprio quello di dissipare quanto più possibile la celeberrima “nebbia della guerra” teorizzata nell’Ottocento dal generale prussiano. Navigare e pattugliare territori estesi attraverso droni a guida autonoma, riconoscere e classificare rapidamente gli obiettivi che compaiono in video e immagini, ottenere un’analisi predittiva delle minacce, stimare i potenziali danni collaterali, rilevare anomalie. Tutti gli impieghi militari dell’intelligenza artificiale hanno principalmente due scopi: ridurre l’incertezza – raccogliendo, filtrando e interpretando enormi quantità di dati provenienti da sensori, satelliti, droni e sistemi di intelligence – e aumentare la velocità decisionale, valutando le opzioni operative in tempi ridotti, stimando rischi e conseguenze, coordinando le unità e reagendo quasi in tempo reale agli sviluppi del conflitto. Il paradosso è che questi algoritmi predittivi – che aggregano migliaia di dati di intelligence raccolti da centinaia di fonti diverse – in molti casi rischiano di infittire, invece che diradare, la nebbia della guerra, perché producono una tale quantità di informazioni da rendere la loro interpretazione e gestione particolarmente complessa. Ed è qui che entrano in gioco i modelli linguistici di OpenAI, Anthropic, xAI e, in Europa, Mistral, il cui compito è aiutare a dissipare la coltre di nebbia provocata dall’enorme mole di dati prodotti dai sistemi predittivi. IL RUOLO CRUCIALE DELL’AI PREDITTIVA Che cosa fa infatti un chatbot pressoché identico a quelli che usiamo nella vita quotidiana quando è utilizzato in ambito bellico? Prima di tutto, bisogna chiarire alcuni aspetti importanti. Come mostrato anche da un paper della NATO Science and Technology Organization, si tende infatti a fare confusione tra gli impieghi degli algoritmi predittivi (che analizzano dati per individuare schemi, classificare eventi e stimare probabilità future) e quelli invece generativi (capaci di generare probabilisticamente testo, immagini, video o altro). I large language model non possono riconoscere automaticamente i bersagli, non guidano i missili o i droni, non raccolgono informazioni, non analizzano direttamente i dati dei sensori e non eseguono autonomamente azioni nel mondo reale. La capacità fondamentale di ChatGPT e dei suoi compagni è infatti (provare a) comprendere, elaborare e generare il linguaggio umano sulla base del dataset testuale su cui sono stati addestrati. Sul campo di battaglia, il grosso del lavoro sporco lo svolgono quindi i sistemi basati su algoritmi predittivi. Due dei casi più (tristemente) noti sono quelli relativi alle piattaforme di intelligenza artificiale massicciamente impiegate dall’esercito israeliano durante l’invasione di Gaza: The Gospel e Lavender. The Gospel analizza direttamente i dati raccolti tramite intelligence e sorveglianza per identificare obiettivi infrastrutturali – edifici, tunnel, depositi – che vengono poi colpiti dall’esercito. Secondo l’ex capo dell’IDF Aviv Kochavi, questo sistema è in grado di individuare fino a 100 bersagli al giorno: “Per dare una prospettiva”, ha spiegato Kochavi, “in passato ottenevamo 50 obiettivi all’anno”. Lavender è invece un sistema statistico che assegna a ogni individuo presente nella Striscia di Gaza un punteggio relativo alla probabilità di appartenenza a gruppi armati, elaborando dati provenienti anche in questo caso da intelligence e sorveglianza, oltre a segnali comportamentali e indicatori demografici. Secondo le inchieste del magazine israeliano +972, nel corso del conflitto Lavender ha identificato – con un margine di errore accettato del 10% – circa 37mila palestinesi come potenziali bersagli. Per quanto invece riguarda gli Stati Uniti (e la NATO), il più diffuso sistema di supporto decisionale (DSS, decision support system) è il Maven Smart System. Sviluppato a partire dal 2017 da Palantir – subentrata dopo il passo indietro di Google, che al tempo aveva rinunciato in seguito alle proteste dei dipendenti – in collaborazione con Amazon (che fornisce in appoggio la piattaforma cloud AWS), una prima versione di Maven è stata impiegata nel 2021 durante il ritiro statunitense dall’Afghanistan. Successivamente è stato utilizzato in supporto a Israele durante l’invasione di Gaza ed è fino a oggi stato impiegato anche per gli attacchi contro l’Iran. A differenza di The Gospel, Maven non è solo un sistema di AI assisted targeting, ma una piattaforma di comando e controllo che offre anche “consapevolezza situazionale in tempo reale” — ovvero una rappresentazione di ciò che accade sul terreno, comprese posizioni delle forze amiche e nemiche, asset disponibili e minacce attive — e supporto alla pianificazione operativa: dalla generazione e valutazione delle azioni potenziali alla stesura di elementi utili per gli ordini operativi. Secondo gli stessi funzionari della NATO, che hanno siglato nel 2025 un contratto con Palantir per il suo utilizzo, Maven fornisce ai comandanti delle “abilità in stile videogioco” di supervisionare ciò che avviene sul campo di battaglia.   Open embedded content from YouTube CHE COSA FANNO I MODELLI LINGUISTICI E allora i large language model? Prima di vedere i loro usi più avanzati e il modo in cui Claude prima e ChatGPT poi (dopo lo scontro tra Anthropic e il Pentagono) stanno venendo integrati in Maven e in altri sistemi bellici, partiamo dagli impieghi più semplici. In modo non dissimile dai suoi utilizzi civili – ma sfruttando delle versioni appositamente ottimizzate – i modelli linguistici vengono impiegati dagli eserciti per riassumere i manuali operativi, i rapporti delle missioni, i briefing dell’intelligence e altro ancora. Viceversa, possono essere utilizzati anche per generare, a partire dalle indicazioni dei soldati, rapporti, traduzioni, trascrizioni e documentazione di vario tipo. Durante le esercitazioni, questi sistemi possono anche contribuire alla generazione di scenari bellici; mentre nell’ambito della medicina militare, gli LLM vengono utilizzati per sintetizzare cartelle cliniche e storia medica dei pazienti, consentendo ai medici di campo un accesso rapido alle informazioni essenziali. Possono inoltre essere usati – in maniera simile al “civile” Claude for Healthcare – come strumenti di supporto decisionale, in grado di confrontare opzioni terapeutiche e assistere i medici nelle loro valutazioni. Nei casi più avanzati, bisogna invece immaginare l’impiego bellico di Claude o ChatGPT come una “interfaccia conversazionale” integrata, per esempio, in Maven Smart System, che permette agli utenti di interpretare più facilmente le informazioni provenienti dalle piattaforme di supporto decisionale. Messa così, può sembrare una cosa da poco. In realtà – come scrive James O’Donnell sulla MIT Tech Review – “è difficile sopravvalutare tutto ciò: l’intelligenza artificiale già da tempo svolge compiti di analisi per i militari, estraendo informazioni utili da un oceano di dati”. Oltre a permettere di navigarli sfruttando il linguaggio naturale e ricevendo risposte immediatamente comprensibili, “l’uso dell’AI generativa permette di ottenere consigli su quale azione intraprendere sul campo, una funzione che sta venendo testata sul serio per la prima volta in Iran”. Il large language model viene quindi integrato nelle piattaforme predittive per rendere più facilmente comprensibile la complessità delle informazioni da essi ricavate: “Una possibile applicazione potrebbe consistere nell’assistere i comandanti militari nel prendere la decisione giusta alla velocità richiesta, supportando lo staff nello sviluppo, nella valutazione e nella raccomandazione delle opzioni operative disponibili (Courses of Action, COA)”, si legge sulla rivista del Joint Air Power Competence Centre (un centro di ricerca della NATO). “Gli LLM potrebbero inoltre aiutare l’operatore umano nell’analisi e nella valutazione dei dati in tempo reale, accorciando così il ciclo operativo e fornendo un vantaggio decisivo sul campo di battaglia”. Per fare un (teorico) esempio concreto, possiamo immaginare il seguente scenario: durante un conflitto, i sistemi predittivi rilevano un’anomalia termica in un complesso industriale nemico, i sensori intercettano un picco di comunicazioni crittografate nella stessa area e un drone cattura immagini di veicoli classificati come lanciatori missilistici mobili. Il modello linguistico integrato nella piattaforma di comando incrocia questi dati, provenienti da tre sistemi diversi, con i rapporti di intelligence ricevuti nelle settimane precedenti. In questo modo, individua che lo stesso sito era già stato segnalato come possibile deposito e che il pattern delle comunicazioni somiglia a quelli osservati prima di lanci precedenti. In pochi minuti — anziché nelle ore che servirebbero a un team di analisti — genera un briefing sintetico con tre possibili azioni: attacco, sorveglianza intensificata, richiesta di conferma. Il comandante lo legge, interroga il sistema su ulteriori aspetti specifici e decide il da farsi. In sintesi, Maven unisce i dati provenienti da satelliti, droni, report di intelligence e segnali radar. Claude o ChatGPT, integrati nella stessa piattaforma, analizzano questi dati, li rendono consultabili in linguaggio naturale e possono fornire suggerimenti sull’azione da intraprendere o la forza da impiegare. Nel corso degli attacchi in Iran, scrive il Washington Post, “Maven ha suggerito centinaia di obiettivi, fornito coordinate di localizzazione precise e dato priorità a questi obiettivi in base alla loro importanza. L’integrazione tra Maven e Claude ha creato uno strumento che sta accelerando il ritmo della campagna, riducendo la capacità dell’Iran di contrattaccare e trasformando una pianificazione delle operazioni che richiedeva settimane in operazioni in tempo reale”. Uno studio della Georgetown University ha invece analizzato i modi in cui il 18° Airborne Corps dell’esercito statunitense utilizza Maven e Claude, concludendo, tra le altre cose, che consente di fare con una squadra di 20 persone ciò che prima ne avrebbe richieste duemila. Nel 2024 è stata poi siglata una collaborazione tra Anduril – startup che produce armi autonome e semiautonome,  come il drone Altius-600M, l’aereo da guerra autonomo Fury e il sottomarino da battaglia Dive-LD – e OpenAI. Come si legge ancora sulla MIT Tech Review, “Anduril addestra da tempo i propri modelli di intelligenza artificiale per analizzare riprese video e dati dei sensori al fine di identificare le minacce. Ciò su cui si concentra meno sono invece i sistemi di AI conversazionale che consentono ai soldati di interrogare direttamente questi sistemi o ricevere indicazioni in linguaggio naturale. Ed è in questo spazio che i modelli di OpenAI potrebbero inserirsi”. Qualcosa si muove anche in Europa, dove la francese Mistral AI ha siglato alla fine del 2025 un accordo quadro triennale con il ministero delle Forze Armate di Parigi per integrare i propri modelli linguistici nelle operazioni di esercito, marina e aviazione, oltre che in enti strategici come il commissariato per l’energia atomica e il centro di ricerca aerospaziale ONERA. Gli impieghi previsti sono simili a quelli statunitensi: analisi documentale, traduzione, redazione di briefing, supporto decisionale. In questo caso, Mistral sfrutta esclusivamente l’infrastruttura informatica francese, al riparo dai potenziali sguardi indiscreti del cloud statunitense. LE CRITICITÀ DELL’AI IN GUERRA In sintesi, i modelli linguistici impiegati in ambito militare sono complementari ai modelli predittivi e spesso integrati nelle stesse piattaforme, permettendo, tra le altre cose, di analizzare con maggiore facilità e rapidità la grande mole di dati raccolta ed elaborata dai sistemi di supporto decisionale. Che cosa succede, però, quando l’obiettivo principale per il quale si sfruttano questi sistemi di “supporto decisionale” – in cui quindi l’ultima parola spetta agli esseri umani – è aumentare al massimo la velocità con cui si opta per una particolare strategia o si reagisce a uno scenario inatteso? “Avevo a disposizione 20 secondi per ciascun bersaglio, valutandone dozzine ogni giorno”, ha raccontato al Guardian un soldato israeliano che utilizzava Lavender. “Non avevo nessun valore aggiunto come essere umano, se non il fatto di apporre il timbro di approvazione”. Nel momento in cui la velocità diventa l’imperativo fondamentale, l’essere umano è quasi d’intralcio alla macchina, che quindi da sistema di supporto decisionale rischia di diventare il “sistema decisionale”, mentre i soldati e gli ufficiali si limitano a certificare la loro approvazione alle decisioni prese dalla macchina. Una situazione che è ulteriormente esacerbata dall’integrazione dei modelli linguistici: “Mentre l’interfaccia di Maven costringe gli utenti a ispezionare e interpretare direttamente i dati presenti sulla mappa, i risultati forniti dai modelli generativi sono più semplici da ottenere ma più difficili da verificare”, scrive ancora James O’Donnell. “Il cambio di paradigma cruciale è che l’AI permette all’esercito statunitense di individuare bersagli alla velocità della macchina invece che a quella umana”, ha spiegato, parlando con il Washington Post, Paule Scharre, vicepresidente del Center for a New American Security. “Il lato negativo è che l’intelligenza artificiale sbaglia e abbiamo bisogno di esseri umani per controllare i suoi output, soprattutto quando ci sono in ballo delle vite”. Il controllo umano è però tanto indispensabile quanto problematico. Prima di tutto perché, inevitabilmente, riduce la velocità, ma anche perché la capacità degli esseri umani di supervisionare, correggere o ignorare le decisioni della macchina è regolarmente sovrastimata. Le ragioni sono varie e in parte già note: uno studio pubblicato di recente dalla Wharton School definisce “resa cognitiva” il fenomeno per cui gli utenti dei modelli linguistici tendono a dedicare sempre meno tempo alla verifica dei risultati. È una sorta di versione ancora più insidiosa del noto “automation bias”, secondo cui le persone si fidano del giudizio della macchina a causa della patina di oggettività che circonda (erroneamente) questi strumenti statistici e del modo in cui le loro capacità vengono magnificate senza essere adeguatamente problematizzate. Un altro elemento che sta emergendo è quello del de-skilling causato dalla necessità di prendere decisioni sempre più rapide, che spinge a delegare un numero crescente di responsabilità decisionali alla macchina: “Stiamo riducendo le nostre stesse abilità”, ha spiegato Elke Schwarz, docente del dipartimento di Studi bellici dell’Università di Londra. “I comandanti stanno diventando sempre meno abili a identificare ciò di cui sono responsabili in un campo di battaglia”. Tutto ciò è ulteriormente complicato dalla tendenza di questi sistemi – ormai accertata e anche ammessa dagli stessi sviluppatori – a dare ragione agli utenti con troppa facilità (fenomeno chiamato AI Sycophancy). Per certi versi, è il contrario dell’automation bias: se nel primo caso sono gli umani che si fidano troppo della macchina, in questo caso sono le macchine che tendono a confermare ciò che gli umani vogliono sentirsi dire, con il rischio che, sul campo di battaglia, i soldati sfruttino questi sistemi, magari inconsapevolmente, per ottenere una conferma di decisioni già prese, indipendentemente dalla loro bontà. C’è poi il noto e ineliminabile problema delle allucinazioni (quando un sistema di intelligenza artificiale presenta come se fosse certa un’informazione invece sbagliata o completamente inventata), che potrebbero annidarsi in ogni sintesi di report, documento generato a partire dai dati o traduzione. Criticità che diventa ancora più allarmante se combinata alla tendenza dei modelli generativi, recentemente osservata, a prediligere nelle simulazioni l’escalation bellica rispetto a soluzioni più caute. E questo senza nemmeno aver aperto il fondamentale capitolo dell’etica, della responsabilità (e tracciabilità) decisionale e della trasparenza, soprattutto considerando che – come riporta l’Independent – l’esercito statunitense non tiene traccia del ruolo giocato dall’AI nei singoli attacchi. “Uno stato ha la responsabilità di sapere se l’intelligenza artificiale è stata impiegata in uno qualsiasi dei suoi attacchi”, ha affermato Jessica Dorsey, professoressa di diritto internazionale dell’Università di Utrecht. “I comandanti dovrebbero avere accesso alle informazioni di intelligence su cui si basano i loro attacchi”. Da questo punto di vista, un recente e tragico episodio avvenuto agli inizi dei bombardamenti sull’Iran riassume perfettamente quanto ciò possa essere problematico. Un numero schiacciante di prove indica che gli Stati Uniti siano responsabili dell’attacco alla scuola di Minab, in Iran, in cui hanno perso la vita 175 persone, la maggior parte delle quali studentesse. Attacco che potrebbe essere stato condotto a causa di dati di intelligence obsoleti, risalenti a quando il sito faceva effettivamente parte di una base navale adiacente delle Guardie Rivoluzionarie iraniane. Considerando che Maven ha generato oltre mille opzioni di attacco solo nelle prime 24 ore, viene da porsi una domanda: e se l’errore fosse stato causato da una decisione sbagliata dell’intelligenza artificiale (come tra l’altro sospettato), magari a causa di un “pacchetto di bersagli” obsoleto ma che l’AI ha riciclato presentandolo in maniera convincente? Oppure se, più semplicemente, la quantità di bersagli individuati in un tempo rapidissimo non avesse dato ai militari il tempo necessario a verificare che fossero quelli giusti? L’intelligenza artificiale potrebbe non essere responsabile di questa strage, ma di sicuro sta rendendo più complesso risalire la catena delle responsabilità. Tutti questi rischi e queste criticità vengono sollevate da anni dalle organizzazioni che chiedono di vietare – o almeno regolamentare rigidamente, a livello internazionale – l’impiego dell’intelligenza artificiale in ambito bellico. Quel treno, ormai, sembra però essere passato. L'articolo Che cosa fa l’intelligenza artificiale in guerra proviene da Guerre di Rete.
April 8, 2026
Guerre di Rete
Nuova rogna in casa Anthropic: il codice di Claude pubblicato per errore
L’azienda fondata da Dario Amodei e sua sorella torna sulle prima pagine dei giornali alcune settimane dopo la vicenda dell’annullamento dei contratti col pentagono, ma stavolta per una svista madornale commessa da qualcuno dei dipendenti. Infatti, un errore in una delle ultime versioni di Claude Code, l’assistente AI di Anthropic […] L'articolo Nuova rogna in casa Anthropic: il codice di Claude pubblicato per errore su Contropiano.
April 4, 2026
Contropiano
L’IA: il disallineamento di un paese di geni – di Giorgio Griziotti
Mentre si consuma una svolta storica — un'offensiva tecnofascista su scala mondiale che instaura un regime di guerra permanente — l'IA diventa il sistema nervoso centrale di questa volontà di potenza. Si integra con tutte le tecnologie belliche: dalle piattaforme esistenti, compresi i sistemi nucleari di comando e controllo (NC3), ai nuovi sistemi autonomi, [...]
April 2, 2026
Effimera
Guerra :fondamentalismi occidentali, onde d’urto verso oriente, intelligenza artificiale e complesso militare industriale
Tentare di decrittare la guerra israelo americana contro l’Iran senza ricorerre a categorie psicoanalitiche è impresa ardua. La dicotomia semplicistica dei buoni contro i cattivi, che discende dalle rappresentazioni hollywoodiane dei nemici come sempiterni cattivi senza sfumature, è stata utilizzata fin dai tempi di Reagan che parlava dell’Unione sovietica come l’impero del male pensando di essere sul cast di “Guerre stellari”. Nell’ora più buia che stiamo vivendo si aggiunge un’ aggravante ulteriore costituita dalla overdose di fondamentalismo che permea le menti dei protagonisti di questa guerra. La deriva messianica sionista è stata ampiamente constatata durante il massacro di Gaza non fosse per i deliri di Netanyahu che paragonava i gazawi agli amaleciti ,un antico popolo che fu sterminato dagli Israeliti per ordine biblico divino (bambini, neonati, animali e donne incluse), che abitava il Negev .L’ossessione fondamentalista evangelica che impera nell’amministrazione americana ha oltre che in Trump sostenuto apertamente dai pastori evangelici, validi  interpreti in Hegseth a capo del ministero della Difesa ,pardon della guerra ,uno psicopatico suprematista che invoca una nuova crociata e in Rubio il neocon che si presenta in televisione con una croce sulla fronte il mercoledì’ delle ceneri. Anche JD Vance non è esente da una visione suprematista ultracattolica che auspica un’America cristiana, bianca, tradizionalista, chiusa al mondo e guidata da una presunta missione divina. A queste considerazioni si sommano le perplessità sullo scopo della guerra contro l’Iran, le difficoltà dell’ammnistrazione Trump a gestire le conseguenze globali di un’aggressione che si pensava portasse ad un rapido cambio di regime. Questa sottovalutazione probabilmente deriva dal fatto che i decisori all’interno delle strutture militari americani si sono  formati in un epoca post guerra fredda in cui gli Stati Uniti sembravano  gli unici regolatori globali in grado di esercitare una potenza militare senza avversari. Finita questa fase e di fronte ad una guerra non più asimmetrica con uno stato come l’Iran strutturato e con un esercito organizzato ,con uno scenario globale che vede l’emergere della potenza cinese e alla fine del ciclo imperiale americano le mutate condizioni stanno mettendo in crisi le capacità dell’apparato militare americano . Ne parliamo con Francesco Dall’Aglio studioso dei paesi dell’Europa orientale ed analista di  questioni strategico militari.  Ambiguità ed equilibrismi per gli stati a maggioranza musulmana sono passaggi inevitabili dopo l’aggressione degli yankee-sionisti. Da un lato vengono scombinate alleanze che si erano andate a costituire, o almeno  molte cancellerie a Oriente di Tehran vengono poste in imbarazzo sia per le conseguenze del più probematico approvvigionamento di idrocarburi, sia per obblighi, o attese derivanti da accordi di reciproco aiuto o di schieramento. Con Emanuele Giordana, aprodato a Bangkok nel suo pellegrinaggio attraverso i territori del Sudest asiatico, abbiamo considerato innanzitutto la situazione della guerra inopinatamente esplosa nelal sua recrudescenza lungo la Durand Line tra il Pakistan, stufo dell’ausilio dato ai talebani del TTP dai “cugini” afgani ormai al potere da 5 anni, proprio grazie all’appoggio di Islamabad. Una situazione resa complessa dall’appoggio indiano ai talebani di Kabul, ma anche dal patto di mutuo soccorso siglato dal Pakistan con l’Arabia Saudita, all’epoca considerato nel suo valore di ombrello nucleare ottenuto dai sauditi e ora invece si ribalta in un inestricabile rebus per una nazione musulmana e vicina a Tehran, il cui debito è detenuto dal recente alleato, grande nemico del regime iraniano. Una situazione analoga si sta vivendo in Indonesia che ha anche ritardato a esprimere il cordoglio per la morte di Khamenei – sollevando contro Prabowo il disappunto di molti indonesiani – e si trova tra l’incudine della fedeltà agli Usa (e al timore dei dazi di Trump) vs la solidarietà dovuta a un paese musulmano sotto attacco imperialista giudaico-cristiano. Le prime consegenze dell’avventata mossa di Trump-Netanyahu è che salterano gli AbrahamsAccord, l’adesinoe dell’Indonesia al Board of Peace e l’invio di 8000 militari d’interposizione a Gaza. Non male come primo effetto delal guerra lampo contro gli ayatollah. Nel resto del Sudest asiatico la preoccupazione è molta per la carenza di energia dei paesi minori, mentre la Cina, che poteva venire considerata l’obiettivo di una guerra mediorientale, si trova nella condizione di poter reggere più di 6 mesi grazie alal pianificazione e allo stoccaggio di ingenti quantità di petrolio. Un problema non di poco conto saranno le migliaia di sfollati e migranti che si riverseranno fuori dagli scenari di guerra e dei bombardamenti, senza considerare il tracollo dele borse, in particolare in India Corea, e soprattutto Giappone. Un punto di vista ancora più da incubo per un’area ancora più vasta di quella in cui le basi americane nel Golfo vengono prese di mira nei paesi limitrofi all’Iran, allargando verso Est l’estensione del conflitto, sempre menno circoscritto. Si sta definendo un complesso militare, tecnologico e finanziario con al centro l’intelligenza artificiale che incontra le esigenze di aziende e start up affamate di utili che ancora non arrivano e inquiete per una prossima bolla speculativa. Assistiamo ad una ipercapitalizzazione (solo Nvidia capitalizza 4600 miliardi di dollari) a fronte di un alto tasso d’indebitamento e profitti ancora non all’altezza degli investimenti. Il ruolo da monopolista della maggior produttrice di microprocessori di Nvidia rischia di essere intaccato da altri produttori di chip specifici per compiti  differenziati come i TPU di Google in uno scontro d’interessi nel quale s’inserisce il caso Anthropic .Il Pentagono ha definito la società di  Amodei “un rischio per la catena di approvvigionamento” nonostante il contratto da 200 milioni di dollari già stipulato. Il rifiuto di Anthropic di consentire l’uso del suo sistema definito “Claude” d’intelligenza artificale generativa per la sorveglianza di massa e per le armi autonome senza supervisione umana ha portato ad una rottura con il Pentagono ,ma non fa certamente Anthropic un modello di etica considerando i contratti di collaborazione già in essere anche con Palantir. E’ sempre più difficile districare l’utilizzo dual use dell’intelligenza artificiale ,gli usi civili da quelli militari. Molte applicazioni che utilizziamo frequentemente derivano da progetti che rispondevano ad esigenze miitari ,lo scontro con la Cina si gioca anche sulle capacità di produrre microprocessori avanzati nonostante le limitazioni imposte a Pechino dalle restrizioni commerciali americane. Gli investimenti massicci del progetto “Star link” evidenziano un gigantismo nordamericano che comporta la costruzione di enormi data center estremamente energivori che rischiano anche di diventare in un contesto bellico obiettivi militari. Di questo e altro ne parliamo con Daniele Signorelli giornalista freelance di “Guerre di rete” progetto di informazione su cybersicurezza, sorveglianza, privacy, censura online, intelligenza intelligenza artificiale.           
March 14, 2026
Radio Blackout - Info
Iran: Repressione e Guerra -Anthropic-Amazon-Palantir – Teologie reazionarie – Hackerare Teheran – Google in guerra e in casa@0
Estratti dalla puntata del 9 marzo 2026 di Bello Come Una Prigione Che Brucia REPRESSIONE E GUERRA Grazie al contributo di un compagno dell’assemblea Sabotiamo la Guerra riprendiamo alcuni aspetti emersi dall’incontro tenutosi lo scorso febbraio a Viterbo sulla relazione tra eventi bellici e disciplinamento repressivo della popolazione. ANTHROPIC (E PETER THIEL A ROMA) Ritorniamo sull’affaire Anthropic e sul suo ruolo nella guerra all’Iran, passando per una parentesi sul tour di Peter Thiel (Palantir & co) a Roma. Chi inviterà a sentirlo parlare di Anticristo? Mentre si normalizza il targeting algoritmico ed emergono potenziali errori tipici di un chatbot, torniamo ad approfondire la sinergia tra Claude-Amazon-Palantir e ad analizzare l‘ipocrisia dei “paletti etici” di Anthropic. Aggiornamento: secondo un lancio di Axios di martedi 10 marzo 2026, Trump potrebbe emettere un ordine esecutivo per escludere Anthropic dai sistemi del governo federale; tuttavia potrebbe essere un’ulteriore forma di pressione all’interno delle trattative in corso. MESSAGGIO INTERESSANTE SULLE NASCENTI TEOLOGIE REAZIONARIE Arriva un messaggio molto interessante che si ricollega alla volontà di interferenza su un piano religioso e teologico di figure come Peter Thiel: PROPAGANDA ISRAELIANA E HACKING VIDEOSORVEGLIANZA DI TEHERAN Nella propaganda sionista i tunnel di Hamas sono stati un ingrediente cruciale per giustificare il genocidio di Gaza; Jonathan Conricus, portavoce di IDF, ammette la presenza di strutture di comando dell’esercito israeliano all’interno (e sotto) zone residenziali di Tel Aviv… Parallelamente, a cavallo tra l’esibizione di potenza cyberoffensiva e il marketing, vengono fatte emergere maggiori informazioni riguardo ai metodi utilizzati per localizzare e uccidere Ali Kamenei: la Unit8200 di IDF avrebbe preso il controllo dei circuiti di videosorveglianza che attraversano le strade di Teheran. Quali conseguenza può avere un evento del genere? DATACENTERS SOTTO ATTACCO Vari datacenters di Amazon Web Services sono stati attacchi dall’Iran: oltre a interferire con la quotidianità dei flussi di informazioni e di transazioni in Bahrein e negli Emirati, stanno emergendo come gangli cruciali degli apparati militari e – di conseguenza – come obbiettivi sensibili. GOOGLE E PROTESTE MOLTO PARZIALI Mentre a Google si stanno nuovamente sollevando proteste interne al corpo dei dipendenti per il coinvolgimento di questo colosso nel settore bellico e della sorveglianza di massa, altrettanta attenzione non si sviluppa per il “normale” progresso della pervasività degli sguardi di Google nelle nostre vite, la cui ultima frontiera è la modalità Live Search all’interno del servizio Home Premium: flussi video delle videocamere domestiche analizzabili da remoto con Gemini AI, chiedendo ad esempio se propria figlia abbia indossato il cappotto prima di uscire o se il cane stia giocando in salotto. Che potere possono conferire questi flussi di dati, tanto sul piano della profilazione quanto dell’apprendimento? Quante persone sceglieranno di pagare 20 dollari al mese per conferire un accesso pressoché totale alla AI di Google all’interno delle proprie abitazioni? Link approfondimento su proteste all’interno di Polaroid contro apartheid in Sud Africa
March 11, 2026
Radio Blackout - Info
Iran: Repressione e Guerra -Anthropic-Amazon-Palantir – Teologie reazionarie – Hackerare Teheran – Google in guerra e in casa@1
Estratti dalla puntata del 9 marzo 2026 di Bello Come Una Prigione Che Brucia REPRESSIONE E GUERRA Grazie al contributo di un compagno dell’assemblea Sabotiamo la Guerra riprendiamo alcuni aspetti emersi dall’incontro tenutosi lo scorso febbraio a Viterbo sulla relazione tra eventi bellici e disciplinamento repressivo della popolazione. ANTHROPIC (E PETER THIEL A ROMA) Ritorniamo sull’affaire Anthropic e sul suo ruolo nella guerra all’Iran, passando per una parentesi sul tour di Peter Thiel (Palantir & co) a Roma. Chi inviterà a sentirlo parlare di Anticristo? Mentre si normalizza il targeting algoritmico ed emergono potenziali errori tipici di un chatbot, torniamo ad approfondire la sinergia tra Claude-Amazon-Palantir e ad analizzare l‘ipocrisia dei “paletti etici” di Anthropic. Aggiornamento: secondo un lancio di Axios di martedi 10 marzo 2026, Trump potrebbe emettere un ordine esecutivo per escludere Anthropic dai sistemi del governo federale; tuttavia potrebbe essere un’ulteriore forma di pressione all’interno delle trattative in corso. MESSAGGIO INTERESSANTE SULLE NASCENTI TEOLOGIE REAZIONARIE Arriva un messaggio molto interessante che si ricollega alla volontà di interferenza su un piano religioso e teologico di figure come Peter Thiel: PROPAGANDA ISRAELIANA E HACKING VIDEOSORVEGLIANZA DI TEHERAN Nella propaganda sionista i tunnel di Hamas sono stati un ingrediente cruciale per giustificare il genocidio di Gaza; Jonathan Conricus, portavoce di IDF, ammette la presenza di strutture di comando dell’esercito israeliano all’interno (e sotto) zone residenziali di Tel Aviv… Parallelamente, a cavallo tra l’esibizione di potenza cyberoffensiva e il marketing, vengono fatte emergere maggiori informazioni riguardo ai metodi utilizzati per localizzare e uccidere Ali Kamenei: la Unit8200 di IDF avrebbe preso il controllo dei circuiti di videosorveglianza che attraversano le strade di Teheran. Quali conseguenza può avere un evento del genere? DATACENTERS SOTTO ATTACCO Vari datacenters di Amazon Web Services sono stati attacchi dall’Iran: oltre a interferire con la quotidianità dei flussi di informazioni e di transazioni in Bahrein e negli Emirati, stanno emergendo come gangli cruciali degli apparati militari e – di conseguenza – come obbiettivi sensibili. GOOGLE E PROTESTE MOLTO PARZIALI Mentre a Google si stanno nuovamente sollevando proteste interne al corpo dei dipendenti per il coinvolgimento di questo colosso nel settore bellico e della sorveglianza di massa, altrettanta attenzione non si sviluppa per il “normale” progresso della pervasività degli sguardi di Google nelle nostre vite, la cui ultima frontiera è la modalità Live Search all’interno del servizio Home Premium: flussi video delle videocamere domestiche analizzabili da remoto con Gemini AI, chiedendo ad esempio se propria figlia abbia indossato il cappotto prima di uscire o se il cane stia giocando in salotto. Che potere possono conferire questi flussi di dati, tanto sul piano della profilazione quanto dell’apprendimento? Quante persone sceglieranno di pagare 20 dollari al mese per conferire un accesso pressoché totale alla AI di Google all’interno delle proprie abitazioni? Link approfondimento su proteste all’interno di Polaroid contro apartheid in Sud Africa
March 11, 2026
Radio Blackout - Info
Iran: Repressione e Guerra -Anthropic-Amazon-Palantir – Teologie reazionarie – Hackerare Teheran – Google in guerra e in casa@2
Estratti dalla puntata del 9 marzo 2026 di Bello Come Una Prigione Che Brucia REPRESSIONE E GUERRA Grazie al contributo di un compagno dell’assemblea Sabotiamo la Guerra riprendiamo alcuni aspetti emersi dall’incontro tenutosi lo scorso febbraio a Viterbo sulla relazione tra eventi bellici e disciplinamento repressivo della popolazione. ANTHROPIC (E PETER THIEL A ROMA) Ritorniamo sull’affaire Anthropic e sul suo ruolo nella guerra all’Iran, passando per una parentesi sul tour di Peter Thiel (Palantir & co) a Roma. Chi inviterà a sentirlo parlare di Anticristo? Mentre si normalizza il targeting algoritmico ed emergono potenziali errori tipici di un chatbot, torniamo ad approfondire la sinergia tra Claude-Amazon-Palantir e ad analizzare l‘ipocrisia dei “paletti etici” di Anthropic. Aggiornamento: secondo un lancio di Axios di martedi 10 marzo 2026, Trump potrebbe emettere un ordine esecutivo per escludere Anthropic dai sistemi del governo federale; tuttavia potrebbe essere un’ulteriore forma di pressione all’interno delle trattative in corso. MESSAGGIO INTERESSANTE SULLE NASCENTI TEOLOGIE REAZIONARIE Arriva un messaggio molto interessante che si ricollega alla volontà di interferenza su un piano religioso e teologico di figure come Peter Thiel: PROPAGANDA ISRAELIANA E HACKING VIDEOSORVEGLIANZA DI TEHERAN Nella propaganda sionista i tunnel di Hamas sono stati un ingrediente cruciale per giustificare il genocidio di Gaza; Jonathan Conricus, portavoce di IDF, ammette la presenza di strutture di comando dell’esercito israeliano all’interno (e sotto) zone residenziali di Tel Aviv… Parallelamente, a cavallo tra l’esibizione di potenza cyberoffensiva e il marketing, vengono fatte emergere maggiori informazioni riguardo ai metodi utilizzati per localizzare e uccidere Ali Kamenei: la Unit8200 di IDF avrebbe preso il controllo dei circuiti di videosorveglianza che attraversano le strade di Teheran. Quali conseguenza può avere un evento del genere? DATACENTERS SOTTO ATTACCO Vari datacenters di Amazon Web Services sono stati attacchi dall’Iran: oltre a interferire con la quotidianità dei flussi di informazioni e di transazioni in Bahrein e negli Emirati, stanno emergendo come gangli cruciali degli apparati militari e – di conseguenza – come obbiettivi sensibili. GOOGLE E PROTESTE MOLTO PARZIALI Mentre a Google si stanno nuovamente sollevando proteste interne al corpo dei dipendenti per il coinvolgimento di questo colosso nel settore bellico e della sorveglianza di massa, altrettanta attenzione non si sviluppa per il “normale” progresso della pervasività degli sguardi di Google nelle nostre vite, la cui ultima frontiera è la modalità Live Search all’interno del servizio Home Premium: flussi video delle videocamere domestiche analizzabili da remoto con Gemini AI, chiedendo ad esempio se propria figlia abbia indossato il cappotto prima di uscire o se il cane stia giocando in salotto. Che potere possono conferire questi flussi di dati, tanto sul piano della profilazione quanto dell’apprendimento? Quante persone sceglieranno di pagare 20 dollari al mese per conferire un accesso pressoché totale alla AI di Google all’interno delle proprie abitazioni? Link approfondimento su proteste all’interno di Polaroid contro apartheid in Sud Africa
March 11, 2026
Radio Blackout - Info
Iran: Repressione e Guerra -Anthropic-Amazon-Palantir – Teologie reazionarie – Hackerare Teheran – Google in guerra e in casa@3
Estratti dalla puntata del 9 marzo 2026 di Bello Come Una Prigione Che Brucia REPRESSIONE E GUERRA Grazie al contributo di un compagno dell’assemblea Sabotiamo la Guerra riprendiamo alcuni aspetti emersi dall’incontro tenutosi lo scorso febbraio a Viterbo sulla relazione tra eventi bellici e disciplinamento repressivo della popolazione. ANTHROPIC (E PETER THIEL A ROMA) Ritorniamo sull’affaire Anthropic e sul suo ruolo nella guerra all’Iran, passando per una parentesi sul tour di Peter Thiel (Palantir & co) a Roma. Chi inviterà a sentirlo parlare di Anticristo? Mentre si normalizza il targeting algoritmico ed emergono potenziali errori tipici di un chatbot, torniamo ad approfondire la sinergia tra Claude-Amazon-Palantir e ad analizzare l‘ipocrisia dei “paletti etici” di Anthropic. Aggiornamento: secondo un lancio di Axios di martedi 10 marzo 2026, Trump potrebbe emettere un ordine esecutivo per escludere Anthropic dai sistemi del governo federale; tuttavia potrebbe essere un’ulteriore forma di pressione all’interno delle trattative in corso. MESSAGGIO INTERESSANTE SULLE NASCENTI TEOLOGIE REAZIONARIE Arriva un messaggio molto interessante che si ricollega alla volontà di interferenza su un piano religioso e teologico di figure come Peter Thiel: PROPAGANDA ISRAELIANA E HACKING VIDEOSORVEGLIANZA DI TEHERAN Nella propaganda sionista i tunnel di Hamas sono stati un ingrediente cruciale per giustificare il genocidio di Gaza; Jonathan Conricus, portavoce di IDF, ammette la presenza di strutture di comando dell’esercito israeliano all’interno (e sotto) zone residenziali di Tel Aviv… Parallelamente, a cavallo tra l’esibizione di potenza cyberoffensiva e il marketing, vengono fatte emergere maggiori informazioni riguardo ai metodi utilizzati per localizzare e uccidere Ali Kamenei: la Unit8200 di IDF avrebbe preso il controllo dei circuiti di videosorveglianza che attraversano le strade di Teheran. Quali conseguenza può avere un evento del genere? DATACENTERS SOTTO ATTACCO Vari datacenters di Amazon Web Services sono stati attacchi dall’Iran: oltre a interferire con la quotidianità dei flussi di informazioni e di transazioni in Bahrein e negli Emirati, stanno emergendo come gangli cruciali degli apparati militari e – di conseguenza – come obbiettivi sensibili. GOOGLE E PROTESTE MOLTO PARZIALI Mentre a Google si stanno nuovamente sollevando proteste interne al corpo dei dipendenti per il coinvolgimento di questo colosso nel settore bellico e della sorveglianza di massa, altrettanta attenzione non si sviluppa per il “normale” progresso della pervasività degli sguardi di Google nelle nostre vite, la cui ultima frontiera è la modalità Live Search all’interno del servizio Home Premium: flussi video delle videocamere domestiche analizzabili da remoto con Gemini AI, chiedendo ad esempio se propria figlia abbia indossato il cappotto prima di uscire o se il cane stia giocando in salotto. Che potere possono conferire questi flussi di dati, tanto sul piano della profilazione quanto dell’apprendimento? Quante persone sceglieranno di pagare 20 dollari al mese per conferire un accesso pressoché totale alla AI di Google all’interno delle proprie abitazioni? Link approfondimento su proteste all’interno di Polaroid contro apartheid in Sud Africa
March 11, 2026
Radio Blackout - Info
Iran: Repressione e Guerra -Anthropic-Amazon-Palantir – Teologie reazionarie – Hackerare Teheran – Google in guerra e in casa@4
Estratti dalla puntata del 9 marzo 2026 di Bello Come Una Prigione Che Brucia REPRESSIONE E GUERRA Grazie al contributo di un compagno dell’assemblea Sabotiamo la Guerra riprendiamo alcuni aspetti emersi dall’incontro tenutosi lo scorso febbraio a Viterbo sulla relazione tra eventi bellici e disciplinamento repressivo della popolazione. ANTHROPIC (E PETER THIEL A ROMA) Ritorniamo sull’affaire Anthropic e sul suo ruolo nella guerra all’Iran, passando per una parentesi sul tour di Peter Thiel (Palantir & co) a Roma. Chi inviterà a sentirlo parlare di Anticristo? Mentre si normalizza il targeting algoritmico ed emergono potenziali errori tipici di un chatbot, torniamo ad approfondire la sinergia tra Claude-Amazon-Palantir e ad analizzare l‘ipocrisia dei “paletti etici” di Anthropic. Aggiornamento: secondo un lancio di Axios di martedi 10 marzo 2026, Trump potrebbe emettere un ordine esecutivo per escludere Anthropic dai sistemi del governo federale; tuttavia potrebbe essere un’ulteriore forma di pressione all’interno delle trattative in corso. MESSAGGIO INTERESSANTE SULLE NASCENTI TEOLOGIE REAZIONARIE Arriva un messaggio molto interessante che si ricollega alla volontà di interferenza su un piano religioso e teologico di figure come Peter Thiel: PROPAGANDA ISRAELIANA E HACKING VIDEOSORVEGLIANZA DI TEHERAN Nella propaganda sionista i tunnel di Hamas sono stati un ingrediente cruciale per giustificare il genocidio di Gaza; Jonathan Conricus, portavoce di IDF, ammette la presenza di strutture di comando dell’esercito israeliano all’interno (e sotto) zone residenziali di Tel Aviv… Parallelamente, a cavallo tra l’esibizione di potenza cyberoffensiva e il marketing, vengono fatte emergere maggiori informazioni riguardo ai metodi utilizzati per localizzare e uccidere Ali Kamenei: la Unit8200 di IDF avrebbe preso il controllo dei circuiti di videosorveglianza che attraversano le strade di Teheran. Quali conseguenza può avere un evento del genere? DATACENTERS SOTTO ATTACCO Vari datacenters di Amazon Web Services sono stati attacchi dall’Iran: oltre a interferire con la quotidianità dei flussi di informazioni e di transazioni in Bahrein e negli Emirati, stanno emergendo come gangli cruciali degli apparati militari e – di conseguenza – come obbiettivi sensibili. GOOGLE E PROTESTE MOLTO PARZIALI Mentre a Google si stanno nuovamente sollevando proteste interne al corpo dei dipendenti per il coinvolgimento di questo colosso nel settore bellico e della sorveglianza di massa, altrettanta attenzione non si sviluppa per il “normale” progresso della pervasività degli sguardi di Google nelle nostre vite, la cui ultima frontiera è la modalità Live Search all’interno del servizio Home Premium: flussi video delle videocamere domestiche analizzabili da remoto con Gemini AI, chiedendo ad esempio se propria figlia abbia indossato il cappotto prima di uscire o se il cane stia giocando in salotto. Che potere possono conferire questi flussi di dati, tanto sul piano della profilazione quanto dell’apprendimento? Quante persone sceglieranno di pagare 20 dollari al mese per conferire un accesso pressoché totale alla AI di Google all’interno delle proprie abitazioni? Link approfondimento su proteste all’interno di Polaroid contro apartheid in Sud Africa
March 11, 2026
Radio Blackout - Info