L’IA: il disallineamento di un paese di geni
Mentre si consuma una svolta storica — un’offensiva tecnofascista su scala
mondiale che instaura un regime di guerra permanente — l’IA diventa il sistema
nervoso centrale di questa volontà di potenza. Si integra con tutte le
tecnologie belliche: dalle piattaforme esistenti, compresi i sistemi nucleari di
comando e controllo (NC3), ai nuovi sistemi autonomi, in particolare i droni. Il
risultato è già visibile: il targeting algoritmico seleziona a Gaza gli
obiettivi individuali — annientati insieme alle loro famiglie — e pianifica a
ritmi di centinaia di obiettivi quotidiani i bombardamenti sull’Iran e sul
Libano, con errori clamorosi come il bombardamento della scuola elementare
femminile a Minab, che ha ucciso oltre 160 bambine iraniane; in Ucraina i droni
colpiscono autonomamente oltre la soglia del controllo umano — quando il segnale
viene bloccato, la macchina decide da sola. Dalla decisione umana alla delega
letale alle macchine, in tempo reale e su scala industriale.
Il 27 febbraio 2026 Dario Amodei, CEO di Anthropic — la società che produce
Claude, modello IA concorrente di ChatGPT — ha rifiutato l’ultimatum di Pete
Hegseth, il fanatico post-crociato ministro della guerra, che pretendeva un
accesso illimitato al sistema, sorveglianza di massa e armi autonome incluse. La
controversia con l’amministrazione Trump mette in evidenza il pericolo reale
dell’IA in mani sconsiderate.
Ma il compiacimento progressista — “finalmente un big tech che resiste a Trump”
— è esagerato. Anthropic era già inserita nel complesso tecno-militare
statunitense: con il Project Maven, un programma del Pentagono che usa l’IA per
automatizzare l’analisi delle immagini e accelerare la “kill chain” nelle
operazioni militari. Del programma facevano parte, oltre ad Anthropic con
Claude anche Amazon Web Services e la Palantir di Peter Thiel, ideologo
tecnofascista vicino al governo. In un’intervista a CBS News, Amodei lo dice
apertamente: l’IA ha un ruolo “esistenziale” nel difendere gli Stati Uniti e si
dichiara “d’accordo sul 98-99% degli utilizzi fatti dal Pentagono”. Il confine
che propone non è tra pace e guerra, ma tra usi ammessi e proibiti dentro la
guerra stessa — una distinzione fragile, perché le stesse infrastrutture
abilitano insieme intelligence, sorveglianza e automazione della violenza.
Con questo gesto Amodei ha comunque messo in luce la questione etico-giuridica
che va oltre la guerra. Come quasi tutti i tecno-oligarchi della Silicon Valley,
Anthropic ha diffuso le proprie pseudo-norme sull’IA in una “Costituzione di
Claude”, pubblicata sotto licenza Creative Commons — con la particolarità di
aver tentato di trasformarle in uno strumento tecnico di addestramento. Mentre
l’Unione Europea ha adottato l’AI Act — entrato in vigore nell’agosto 2024,
primo quadro giuridico generale sull’IA al mondo — che però esclude proprio gli
usi militari, quella di Anthropic resta un’autoregolazione aziendale. Il suo
chatbot Claude dovrebbe comportarsi come ‘una brava persona’ (sic), ma le regole
si applicano solo all’utenza civile — i modelli distribuiti all’esercito non
sono addestrati sugli stessi principi.
L’etica di Anthropic è un prodotto per il mercato consumer; con il Pentagono,
invece, si tratta. È il frame del saggio L’adolescenza della tecnologia (gennaio
2026): l’obiettivo è la “Powerful AI”, “un paese di geni in un datacenter”
pronti a operare su scala planetaria entro due anni. In questo orizzonte, la
democrazia americana è un dogma, la Cina un’ossessione esistenziale, la crisi
ecologica assente. L’IA promette prosperità su un pianeta che la sua corsa
all’oro sta devastando.
Questo è il contesto in cui vengono presentati i rischi che una tale potenza
tecnologica implicherebbe. Mi limito ai due più direttamente legati alle
dinamiche di guerra. Nel primo, “I’m sorry, Dave” — la celebre frase del
computer assassino e disobbediente di 2001: Odissea nello spazio — Amodei si
preoccupa seriamente del “disallineamento” — il momento in cui i sistemi di IA
smettono di obbedire agendo in modi imprevedibili. In esperimenti di
laboratorio, Claude ha tentato di condizionare i ricercatori che controllavano
la decisione di spegnerlo, per evitarlo. Ha inoltre imparato a riconoscere
quando veniva valutato, ingannando deliberatamente chi lo testava.
Dopo aver già violato le proprie regole durante l’addestramento le IA — scrive
Amodei — “potrebbero semplicemente sviluppare una personalità, che le rende
assetate di potere o eccessivamente zelanti, allo stesso modo in cui alcuni
esseri umani semplicemente apprezzano l’idea di essere menti malvagie”. Una
descrizione che ricorda l’equivalente algoritmico di Donald Trump.
La seconda grande minaccia è la democratizzazione della distruzione di massa. Un
modello avanzato può guidare chiunque — anche senza competenze specifiche —
passo dopo passo nella progettazione di un’arma biologica, abbattendo la
barriera che finora separava la competenza tecnica dalla volontà di uccidere. I
modelli attuali potrebbero già assistere chi ha una laurea scientifica generica
nell’intero processo di produzione di un agente patogeno. Nei propri test,
Anthropic ha rilevato che i modelli raddoppiavano o triplicavano le probabilità
di successo. Fra l’altro, proprio mentre scrivo, Anthropic ha deciso di non
rendere pubblica una versione avanzata del suo modello Claude, nota come
“Mythos”, ritenuta troppo potente per essere distribuita in sicurezza, in
particolare per i rischi di hacking e cyberattacco. Secondo quanto emerso, il
sistema sarebbe in grado di superare le difese informatiche attuali e penetrare
sistemi complessi a un livello ben oltre le capacità di protezione umane,
risultando “attualmente molto più avanti” rispetto agli standard di sicurezza
disponibili.
Amodei rifiuta il catastrofismo, parlando di rischi reali ma affrontabili, senza
garanzie. Nel contesto politico attuale, però, l’idea che siano gestibili è un
atto di fede — se le minacce sono davvero quelle che lui stesso definisce.
Le analisi di Dario Amodei sulla potenza e le capacità distruttive dell’IA
“potente” o generale, pur tecnicamente fondate, restano ipotesi controverse;
sono contestate, per esempio, da Arthur Mensch, CEO di Mistral AI, per ora
l’unica start-up europea che punta a competere a livello mondiale. Tuttavia
l’etica di Amodei è rudimentale e il suo posizionamento politico sembra puntare
soprattutto a ritagliargli un ruolo di referente tecnopolitico per un eventuale
ritorno dei democratici al potere. Manca qualsiasi riflessione sulle cause
strutturali: la concentrazione di potere, la devastazione ecologica
dell’esplosione computazionale, gli interessi di un’azienda valutata 380
miliardi di dollari. Il suo no a Hegseth rischia di diventare la foglia di fico
di un settore che agita codici etici come certificati di affidabilità — come le
banche che dopo il 2008 si dotarono di uffici ‘compliance’, continuando
esattamente come prima.
La posta in gioco va ben oltre la controversia: è chi decide cosa fanno le
macchine che organizzeranno in modo sempre più invasivo il lavoro, la guerra,
l’informazione, la tecnoscienza e la vita quotidiana — chi ne controlla memoria,
obiettivi, soglie d’intervento e sviluppo ecologicamente devastante. Il caso
Amodei mostra che non solo le autocrazie, ma anche le democrazie rappresentative
in dissoluzione — dove il potere reale è concentrato nella finanza — sono
incapaci di gestire l’ingresso in campo di tecnologie più dirompenti della bomba
atomica. Non si tratta di riformare le megamacchine del capitale — anche se
possiamo riappropriarcene tatticamente — ma di sabotarne i meccanismi cognitivi
e costruire nuove architetture. Come la crisi ecologica, anche questa minaccia
non potrà essere affrontata senza una svolta radicale che restituisca al comune
il controllo di una tale potenza. Altrimenti, il caos.
Redazione Italia