INTELLIGENZA ARTIFICIALE E MANIPOLAZIONE: QUALI STRUMENTI PER RICONOSCERE LA REALTÀ E TUTELARE I DATI? INTERVISTA A HERMES CENTER
L’intelligenza artificiale è divenuto uno strumento trasformativo epocale nel
panorama tecnologico. Uno strumento, come tutti, “può essere utilizzato bene o
male, a seconda di chi lo produce e utilizza”. Sono le parole ai microfoni di
Radio Onda d’Urto di Davide del Monte, dell’associazione Hermes Center, tra i
promotori insieme alla Rete per i Diritti Umani Digitali della conferenza stampa
che si svolgerà mercoledì 15 aprile presso la Sala Stampa della Camera a tema
diritti umani e IA.
Su questo fronte, l’Unione Europea ha recentemente introdotto l’AI Act, “il
primo ordinamento europeo volto a regolamentare l’intelligenza artificiale”.
Seppur con dei limiti e con “diverse lacune, come già evidenziato nei nostri
report” sottolinea Davide del Monte, l’AI Act “serve per cercare di tutelare i
diritti dei cittadini”, come recentemente fatto dalla Cina con la
regolamentazione dei contenuti e della sicurezza.
L’AI Act europeo è stato visto “in modo molto negativo non solo dalle industrie
americane, ma dallo stesso governo americano. Trump ha lanciato attacchi rivolti
alla Comissione Europea nel tentativo di portare a una deregolamentazione
dell’intelligenza artificiale. Quando tu vai a tutelare i diritti rispetto a uno
strumento poni dei vincoli, anche a livello di mercato, cosa che le grandi
multinazionali, come big tech e start up della Silicon Valley, hanno visto come
un grosso pericolo per il loro business”, fa sapere ai nostri microfoni Davide
del Monte.
Uno degli aspetti più controversi dell’IA è la manipolazione della realtà:
l’intelligenza artificiale può infatti essere usata per influenzare le opinioni
e manipolare i comportamenti degli utenti online, così come le direzioni
politiche. Non da ultimo il caso dei dati raccolti da Meta: la piattaforma di
Facebook e Instagram è stata multata per aver raccolto impropriamente i dati
degli utenti con l’obiettivo di una profilazione politica, costringendo
Zuckrberg all’introduzione di un algoritmo che regolasse la diffusione dei post
politici.
Si tratta dei “deep fake, delle fake news e di tutto quello che contribuisce a
costruire strumenti sempre più potenti di propaganda”. Ma “l’algoritmo delle
piattaforme che raccoglie dati e fornisce strumenti di propaganda è la scoperta
dell’acqua calda”, aggiunge Davide del Monte. “Va bene che si sia preso atto,
seppur in ritardo, di questi meccanismi distorsivi dell’opinione pubblica. Era
qualcosa però che oggettivamente associazioni, collettivi, attivisti,
ricercatori hanno evidenziato da un bel pò di tempo”.
Il Digital Service Act introdotto in UE nel 2024 è una direttiva che dovrebbe
regolamentare l’utilizzo di questi algoritmi: “dal nostro punto di vista c’è
ancora tantissimo da fare. Queste piattaforme non solo hanno la potenza
economica per influenzare anche le decisioni europee, attraverso operazioni di
lobbing multimiliardarie, ma ora hanno anche l’appoggio del presidente degli
Stati Uniti”.
I contenuti prodotti con l’intelligenza artificiale, inoltre, non hanno obblighi
di pubblicazione. Non ci sono vincoli nel dover indicare che il contenuto
pubblicato sui social media sia generato dall’IA. Vista la sempre più vicinanza
con immagini o video reali, la filigrana (o watermark) sarebbe uno strumento
necessario per distinguere il lavoro umano da quello digitale. Da questo punto
di vista “il tema non è tanto tecnologico o giuridico, è politico. Anche qui
Trump è il primo a pubblicare video o immagini generati con l’intelligenza
artificiale per darli in pasto alla propria bolla di fanatici ed esaltati.
Quando il presidente degli Stati Uniti fa questo il tema diventa politico”.
L’intervista completa a Davide del Monte di Hermes Center. Ascolta o scarica.