La riflessione sulla guerra e la lettura psicoanalitica di Franco Fornari
Una atroce perversione che spinge ad armarsi, reclutare e sacrificare i nostri
ragazzi e uccidere i figli degli altri.
La riflessione sulla guerra come fenomeno umano attraversa la storia del
pensiero politico, ma acquista una particolare profondità nella lettura
psicoanalitica proposta da Franco Fornari. Nella sua opera Psicoanalisi della
guerra (Feltrinelli), Fornari interpreta la guerra non semplicemente come
espressione di odio o aggressività, bensì come una forma di “pazzia d’amore”:
un’istituzione sociale ritualizzata attraverso la quale le comunità umane
tentano di elaborare e contenere le proprie angosce più profonde.
La guerra, in questa prospettiva, diventa un dispositivo simbolico collettivo
che consente di trasformare il “terrificante interno” – l’angoscia depressiva,
il senso di colpa, la paura della perdita – in un conflitto esterno contro un
nemico identificabile. Essa non elimina tali tensioni psichiche, ma le rende
gestibili attraverso un linguaggio simbolico fatto di sacrificio, appartenenza e
legittimazione morale della violenza.
Questa interpretazione assume una nuova e inquietante attualità nel contesto
contemporaneo, caratterizzato dalla crescente integrazione dell’intelligenza
artificiale nei sistemi di sicurezza e nella gestione della deterrenza nucleare.
Secondo alcune analisi geopolitiche, tra cui quelle di Lucio Caracciolo, l’uso
dell’AI nei sistemi strategici rischia di trasformare la deterrenza in una forma
di “gestione meccanica della paranoia”. In altre parole, ciò che per decenni è
stato un equilibrio fragile fondato su decisioni umane, dubbi, paure e
responsabilità morali potrebbe progressivamente essere affidato a sistemi
algoritmici progettati per reagire con rapidità e precisione a segnali di
minaccia. Il problema non risiede soltanto nell’eventualità tecnica di errori o
malfunzionamenti, ma nella trasformazione più profonda della logica stessa della
guerra e della deterrenza.
Se la guerra, come sosteneva Fornari, ha storicamente funzionato anche come un
rito attraverso cui le società umane elaborano le proprie tensioni psichiche, la
sua progressiva automatizzazione rischia di eliminare proprio questa dimensione
simbolica. L’intelligenza artificiale non prova paura, non conosce esitazione,
non sperimenta il peso della responsabilità morale. Essa opera secondo logiche
di calcolo, probabilità e ottimizzazione. Nel momento in cui sistemi di supporto
decisionale sempre più sofisticati entrano nei circuiti strategici, il rischio è
che la deliberazione politica e morale venga compressa in tempi sempre più
brevi, mentre le decisioni operative tendono a essere subordinate alla velocità
delle macchine. In tale scenario, la guerra perderebbe il suo carattere di
tragica ma umana istituzione sociale per trasformarsi in un processo tecnico
altamente automatizzato.
Questa trasformazione genera un paradosso profondo. Nel corso della storia, la
guerra è stata una pratica devastante, ma ha comunque mantenuto una dimensione
antropologica che implicava responsabilità individuali, conflitti morali e
possibilità di esitazione. Anche nei momenti più drammatici della deterrenza
nucleare durante la Guerra Fredda, la decisione ultima rimaneva nelle mani di
esseri umani consapevoli delle conseguenze potenzialmente catastrofiche delle
proprie azioni. La presenza di dubbi, paure e conflitti interiori costituiva
paradossalmente uno dei freni più importanti all’uso effettivo delle armi
nucleari. L’introduzione dell’AI nei sistemi di comando e controllo rischia di
erodere proprio questi freni antropologici. Una macchina non sperimenta
l’angoscia della distruzione globale né il senso di colpa per la morte di
milioni di persone; essa reagisce a parametri, modelli e segnali. In tal modo,
ciò che era un equilibrio psicologico instabile potrebbe diventare un sistema
automatico di escalation potenzialmente incontrollabile.
Un ulteriore elemento critico riguarda la compressione del tempo decisionale. I
sistemi di intelligenza artificiale sono progettati per elaborare grandi
quantità di dati in tempi estremamente ridotti, permettendo ai decisori di
reagire quasi istantaneamente a possibili minacce. Tuttavia, nel contesto
nucleare, la velocità non è necessariamente un vantaggio. La stabilità
strategica della deterrenza è stata storicamente legata anche alla lentezza
deliberativa, che lasciava spazio alla verifica delle informazioni, alla
comunicazione diplomatica e alla possibilità di correggere interpretazioni
errate dei segnali militari. L’automatizzazione dei processi decisionali rischia
di ridurre drasticamente questi margini di riflessione, trasformando la
deterrenza in una dinamica sempre più rapida e rigida, in cui l’errore o
l’interpretazione sbagliata di un segnale potrebbero generare escalation
irreversibili.
In questo contesto, anche il significato politico e morale della pace subisce
una trasformazione radicale. L’idea tradizionale di “pace giusta”, ottenuta
attraverso la vittoria militare e la sconfitta del nemico, appare sempre meno
compatibile con un mondo caratterizzato dalla presenza di arsenali nucleari e
dall’emergere di sistemi di guerra automatizzati. Una vittoria militare totale
tra potenze nucleari equivarrebbe, nella maggior parte degli scenari plausibili,
a una distruzione reciproca su scala globale. La logica della “pace giusta”
rischia quindi di trasformarsi in quello che potrebbe essere definito un trionfo
della morte. In alternativa, diventa necessario pensare a una “pace possibile”,
imperfetta e spesso scomoda, basata su compromessi, equilibri instabili e forme
di cooperazione minima tra potenze rivali.
In questa prospettiva, la nonviolenza smette di essere soltanto un ideale etico
o una posizione morale di carattere utopico. In un mondo in cui la combinazione
tra armi nucleari e intelligenza artificiale può ridurre drasticamente il
controllo umano sui processi di escalation, la nonviolenza assume un significato
pragmatico e strategico. Essa diventa una condizione necessaria per la
sopravvivenza collettiva, non tanto come rifiuto assoluto del conflitto, quanto
come ricerca sistematica di strumenti politici e diplomatici capaci di prevenire
la trasformazione dei conflitti in guerre distruttive.
In questo senso, il rafforzamento del controllo umano nei sistemi decisionali,
la trasparenza sugli strumenti tecnologici impiegati nella deterrenza e il
rilancio di accordi internazionali di limitazione degli armamenti – come quelli
sviluppati nel contesto del Trattato di non proliferazione nucleare –
rappresentano elementi fondamentali di una strategia volta a preservare la
possibilità stessa della pace.
Riletta alla luce delle trasformazioni tecnologiche contemporanee, l’intuizione
di Fornari rivela dunque una sorprendente attualità. Se la guerra è stata
storicamente una forma tragica di elaborazione collettiva delle angosce umane,
l’automatizzazione della violenza attraverso l’intelligenza artificiale rischia
di privare l’umanità perfino di questa mediazione simbolica. Il pericolo non
consiste soltanto nell’aumento della potenza distruttiva degli strumenti
militari, ma nella progressiva separazione tra decisione e responsabilità, tra
azione e coscienza.
In un mondo in cui le macchine possono accelerare i processi di escalation oltre
la capacità umana di comprenderli e controllarli, la costruzione di una “pace
possibile” non rappresenta più un semplice progetto politico, ma una necessità
storica. La sopravvivenza della specie potrebbe dipendere proprio dalla capacità
di reintrodurre nella gestione dei conflitti quei limiti, quelle esitazioni e
quelle responsabilità che l’automazione tende a cancellare.
Laura Tussi