intelligenza artificiale Rapporto Analisi Come OpenAI ha ceduto al Pentagono sulla sorveglianza tramite intelligenza artificiale

Lavoratrici e Lavoratori Aci Informatica - Monday, March 9, 2026

(Fonte) – Campo Hayden – 2 marzo 2026

OpenAI, guidata da Sam Altman, ha raggiunto un accordo con il Pentagono sull’uso dell’intelligenza artificiale militare dopo lo stallo con Anthropic, che era stata esclusa per aver imposto limiti rigidi (no sorveglianza di massa sugli americani e no armi autonome letali). Altman ha dichiarato che OpenAI mantiene principi simili, ma secondo fonti vicine ai negoziati l’accordo è molto più flessibile: l’uso della tecnologia è consentito per “qualsiasi uso lecito”. In pratica, se un’attività è legalmente permessa — anche programmi di sorveglianza di massa già autorizzati in passato — l’esercito statunitense potrà utilizzare la tecnologia di OpenAI.

L’ex responsabile della ricerca politica di OpenAI, Miles Brundage, sostiene che l’azienda avrebbe in realtà ceduto alle richieste del Pentagono, presentando però l’accordo come se non avesse fatto concessioni e mettendo in difficoltà Anthropic. OpenAI nega: la portavoce Kate Waters afferma che l’intesa non consente sorveglianza di massa sugli americani. Tuttavia, esperti avvertono che l’IA potrebbe permettere forme di sorveglianza estremamente dettagliate combinando grandi quantità di dati personali. A differenza di Anthropic, che voleva un divieto esplicito, OpenAI si affida soprattutto ai limiti legali già esistenti (Costituzione USA e leggi sull’intelligence) per regolare l’uso della tecnologia.

Le rassicurazioni di OpenAI sull’uso legale dell’IA da parte del Pentagono non convincono. Dopo l’11 settembre, infatti, le agenzie di intelligence statunitensi hanno già sviluppato programmi di sorveglianza di massa considerati formalmente legali, come rivelato nel 2013 da Edward Snowden (raccolta di tabulati telefonici e programma PRISM). Secondo alcuni analisti, richiamarsi semplicemente alle leggi esistenti non impedisce nuove forme di sorveglianza interna, anche perché strumenti come l’ordine esecutivo 12333 hanno già consentito pratiche molto invasive. OpenAI sostiene che il suo accordo non permette monitoraggi indiscriminati dei cittadini statunitensi e che ogni attività dovrà rispettare la normativa vigente, ma Amodei di Anthropic ha dichiarato pubblicamente che la legge non è ancora al passo con la capacità dell’IA di condurre attività di sorveglianza su larga scala e che i limiti e le leggi potrebbero cambiare.

Secondo la ricercatrice Sarah Shoker, il linguaggio usato da OpenAI sull’accordo con il Pentagono è volutamente vago e pieno di formule (“senza vincoli”, “generalizzato”, “aperto”) che non costituiscono veri divieti, lasciando ampio margine di discrezionalità. In base ai limiti legali attuali, il Pentagono potrebbe comunque usare la tecnologia di OpenAI per analizzare grandi quantità di dati sugli americani, combinando informazioni pubbliche, dati acquistati da broker e database di intelligence. Anche la “linea rossa” sulle armi autonome letali appare debole: il divieto vale solo nei casi in cui la legge richieda già il controllo umano. A differenza di Anthropic, che chiedeva un bando più esplicito, l’accordo di OpenAI sembra quindi allinearsi alle regole esistenti senza introdurre restrizioni aggiuntive.

Sam Altman sostiene che l’accordo tra OpenAI e il Pentagono includa controlli tecnici e supervisione umana, come classificatori per monitorare l’uso dei modelli e autorizzazioni di sicurezza per alcuni dipendenti. Tuttavia, secondo fonti vicine ai negoziati, queste misure hanno efficacia limitata: non possono verificare se una decisione militare sia stata realmente supervisionata da un umano né se richieste sui dati facciano parte di programmi di sorveglianza di massa. Inoltre, se il governo considera un’azione legalmente consentita, i sistemi di OpenAI non potrebbero bloccarla.

Anche il divieto sulle armi autonome letali appare debole: OpenAI parla di “responsabilità umana”, che può significare solo responsabilità dopo l’azione, mentre Anthropic chiedeva supervisione umana prima o durante l’uso. Le garanzie tecniche (come l’uso solo nel cloud) non impedirebbero comunque che l’IA supporti la catena decisionale che porta all’attacco. In generale, l’accordo si basa sull’idea che la tecnologia possa essere usata per qualsiasi attività ritenuta legale dal governo, un limite considerato fragile perché le leggi e le loro interpretazioni possono cambiare nel tempo.

L’amministrazione Trump ha rivendicato che le decisioni sull’uso militare dell’IA spettano solo al governo e non alle aziende tecnologiche. L’accordo con OpenAI è stato presentato come un compromesso già offerto anche ad Anthropic, che però lo ha rifiutato perché non coerente con i suoi limiti. Dopo il rifiuto, il Pentagono ha classificato Anthropic come rischio per la supply chain, invitando le agenzie federali a smettere di usare la sua IA; l’azienda ha annunciato che contesterà la decisione.

Molti nel settore tecnologico hanno sostenuto Anthropic per aver mantenuto la propria posizione, facendo diventare la sua app Claude la più scaricata sull’App Store. Tuttavia, il CEO Dario Amodei  ha affermato “Le armi completamente autonome (quelle che escludono completamente gli esseri umani dal controllo e automatizzano la selezione e l’ingaggio dei bersagli) potrebbero rivelarsi fondamentali per la nostra difesa nazionale”, ha affermato Amodei. “Ma oggi, i sistemi di intelligenza artificiale di frontiera non sono semplicemente sufficientemente affidabili per alimentarle”.

The post intelligenza artificiale Rapporto Analisi Come OpenAI ha ceduto al Pentagono sulla sorveglianza tramite intelligenza artificiale first appeared on Lavoratrici e Lavoratori Aci Informatica.