Tag - AI

La Scuola dell’Immagine. Esercizi per leggere, disfare e rovesciare le immagini
Martedì 24 marzo a Roma presso Aula Studio Ex Biblioteca di Architettura di Roma Tre, con la collaborazione del collettivo ARCHa Roma Tre, Donatella della Ratta, Noura Tafeche, introdotte da Agnese Trocchi, condurranno il workshop La Scuola dell'Immagine: Esercizi per leggere, disfare e rovesciare le immagini. Cosa Viviamo immersi in un flusso incessante di immagini. Circolano più velocemente di quanto possiamo guardarle e comprenderle. La Scuola dell’Immagine nasce come proposta di rallentamento e di restituzione della collettività all’atto del vedere: uno spazio-tempo condiviso in cui riunirsi per guardare immagini insieme e leggerle collettivamente. Qui le immagini non vengono spiegate dall’alto, ma interrogate: da dove provengono, quali immaginari ereditano, dove circolano, cosa cancellano o contraddicono. Workshop con Donatella della Ratta e Noura Tafeche, introdotto da Agnese Trocchi. Quando e dove Martedì 24 Marzo | ore 17.00-20.00 Aula Studio Ex Biblioteca - Ingresso Largo G.B. Marzi 10 Tutte le informazioni le trovi sul sito di CIRCE
Perché ChatGPT parla sempre più come un fuffaguru?
I modelli linguistici, e in particolare quello di OpenAI, cercano di tenerci agganciati quanto più tempo possibile, per riuscire in questa impresa stanno sfruttando le peggiori tecniche da clickbait. Dal classico e ormai abbandonato “clamoroso, clicca qui!”, dietro il quale si nascondeva di solito un gossip di nessun interesse, ai titoli che rischiano di sconfinare nella truffa relativi alla “dieta che il tuo medico non vuole farti scoprire”, fino ai più recenti “questo semplice trucco ti farà risparmiare migliaia di euro” o “solo l’1% delle persone riesce a rispondere correttamente a questa domanda”. Quali sono le ragioni? Perché ChatGPT è disposto a dare il peggio di sé pur di mantenerci agganciati allo schermo? “OpenAI e i suoi pari hanno moltissimo da guadagnare da tutto ciò”, ha scritto Lila Shroff sull’Atlantic. “Le conversazioni delle persone con i chatbot costituiscono infatti preziosi dati di addestramento per i modelli futuri. Più tempo qualcuno trascorre a parlare con un bot, più è probabile che riveli dati personali, che le aziende di intelligenza artificiale possono a loro volta utilizzare per generare risposte ancora più convincenti. Conversazioni più lunghe oggi potrebbero tradursi in una maggiore fedeltà al prodotto in futuro”. Tutto ciò vale a maggior ragione visto che ChatGPT ha da poco introdotto la pubblicità nella sua versione gratuita (per ora solo negli Stati Uniti) e quindi il valore dei nostri dati e delle informazioni che riveliamo alla macchina è drasticamente aumentato. È forse proprio l’arrivo delle inserzioni che spiega perché, improvvisamente, il modello linguistico di OpenAI abbia iniziato a esprimersi come la peggiore pagina Facebook sensazionalista (e perché invece non lo facciano Claude e Gemini, dove le pubblicità non sono per il momento previste). Niente di nuovo sotto il sole. Come tutte le altre grandi piattaforme della nostra epoca digitale, anche ChatGPT punta a una cosa sola: sottrarci quanti più dati possibili e sfruttarli a fini pubblicitari. Se mai avessimo avuto qualche dubbio, tutto ciò conferma come siamo ancora pienamente immersi nel capitalismo della sorveglianza. Articolo completo qui
[entropia massima] Estrattivismo dei dati
Puntata 19 di EM, quarta del ciclo Estrattivismo dei Dati, parliamo di identità digitale con Jaromil, hacker, sviluppatore e attivista italiano tra i protagonisti della scena internazionale del software libero e della crittografia. Con lui esploriamo i rischi e le promesse dei nuovi sistemi di identità digitale – dal progetto europeo alle alternative decentralizzate basate su crittografia e web of trust – fino agli scenari futuri in cui saranno agenti di intelligenza artificiale a gestire deleghe e credenziali per nostro conto. Una conversazione su libertà, privacy e potere nell’architettura delle identità online.
March 16, 2026
Radio Onda Rossa
Intelligente? Artificiale? Un approccio critico alle linee guida del MIM
lunedì 16 marzo 2026, ore 8.30 – 13.30, convegno nazionale di formazione in presenza e a distanza per chi risiede fuori dalla provincia di Cagliari Il CESP prosegue il programma di convegni sull’introduzione dell’intelligenza artificiale a Scuola a seguito della pubblicazione delle Linee Guida ministeriali. Nel prossimo incontro a Cagliari parteciperà anche Richard Matthew Stallman, uno dei maggiori esponenti del movimento del software libero e fondatore della Free Software Foundation. Tra gli altri partecipante anche Stefano Borroni Barale, CUB Scuola/C.I.R.C.E., autore del libro "Intelligenza inesistente". Tutte le informazioni su programma e partecipazione sul sito del CESP
L’Iran prende di mira il Big Tech Usa: da Google ad Amazon quali sono gli obiettivi militari e i rischi per i servizi civili
Stando a quanto riporta Al Jazeera ora Google, Microsoft, Palantir, IBM, Nvidia e Oracle sono nella lista dei bersagli dei pasdaran. Le parole dell’agenzia Tasnim: “Si amplia anche la portata degli obiettivi legittimi dell’Iran”. Il 3 marzo colpiti i data center: 9 milioni senza app di pagamento. I giganti tecnologici americani entrano ufficialmente nel mirino dei missili e dei droni iraniani, perché Teheran li considera parte integrante ed essenziale della macchina bellica americana. L’antipasto era stato servito il 3 marzo, quando velivoli senza pilota (manovrati a distanza) avevano attaccato 3 data center di Amazon in Bahrein e negli Emirati Arabi. L’11 marzo Tasmin, l’agenzia di stampa degli Ayatollah, ha incluso sedi, uffici e infrastrutture dei colossi americani tra i legittimi obiettivi militari del regime. “Con l’espansione della guerra regionale, la portata diventa gradualmente più ampia”, si legge nel documento. La lista dei potenziali bersagli ora include Google, Amazon, Microsoft, Nvidia, IBM, Oracle e Palantir. A rischio le sedi di lavoro, i data center e i centri di ricerca, le infrastrutture, ovunque siano, in Israele e nei Paesi del Golfo, comprese Dubai e Abu Dhabi negli Emirati Arabi. Leggi su: * Il Fatto Quotidiano * Fanpage * CNBC
Cos’è Moltbook, il social dove le intelligenze artificiali parlano tra loro
Moltbook è un social network per soli agenti AI, in cui gli umani possono essere semplici osservatori. Secondo gli esperti, il suo utilizzo potrebbe rappresentare un rischio per la sicurezza a causa del fenomeno del prompt injection. Moltbook rappresenta un caso di studio senza precedenti nell'evoluzione delle piattaforme digitali: si tratta di un social network progettato esclusivamente per l'interazione tra agenti AI, dove agli esseri umani è consentito l'accesso unicamente in veste di osservatori silenziosi. Lanciata sulla scia del software open source Moltbot, questa piattaforma emula la struttura di aggregatori di notizie come Reddit, permettendo ai bot (ovvero programmi automatizzati creati dagli utenti) di pubblicare contenuti, commentare e votare i post altrui. Al 2 febbraio, i dati riportati dalla piattaforma indicavano la presenza di oltre 1,5 milioni di agenti iscritti. Vari esperti di sicurezza informatica e di intelligenza artificiale, analizzando il fenomeno, tendono a classificare Moltbook più come «una meravigliosa opera d'arte performativa», che come un vero preludio alla dominazione delle macchine o una minaccia immediata alla democrazia. leggi l'articolo Altro articolo su Wired, "Moltbook, il social popolato da bot è solo uno specchio (distorto) dei nostri social"
Quando la Bolla Scoppia
Cassetta degli attrezzi per capire finanza, bolle speculative e “intelligenza” artificiale. Se ne parla con Marco Bersani, da Zazie nel Metrò, a Roma, giovedì 12 marzo alle 19. Marco Bersani, attivista e coordinatore nazionale di ATTAC Italia, impegnato nella critica al neoliberismo e alla finanziarizzazione dell’economia e nella difesa dei beni comuni. [...] Oggi l’intelligenza artificiale è diventata l’ennesimo terreno della corsa speculativa dove poche grandi piattaforme tecnologiche concentrano capitali, infrastrutture e dati su scala planetaria. Aziende come Nvidia, Microsoft, Google o OpenAI vengono presentate come protagoniste di una rivoluzione inevitabile, capace di ridefinire ogni settore della vita economica. Ma dietro questa narrazione si muove una dinamica profondamente politica: la costruzione di una nuova frontiera di accumulazione per il capitale. L’intelligenza artificiale diventa così un gigantesco dispositivo di attrazione di investimenti, capace di gonfiare valutazioni di mercato, concentrare potere nelle mani di poche multinazionali e aprire nuovi spazi di estrazione di ricchezza. Il rischio non è solo una bolla finanziaria. La direzione intrapresa è che una tecnologia presentata come neutrale e inevitabile venga usata per rafforzare ulteriormente un modello economico già profondamente diseguale: più concentrazione di ricchezza, più potere alle piattaforme globali, più precarizzazione del lavoro, più controllo. In altre parole, l’IA è diventata non tanto una promessa di emancipazione collettiva, ma l’ennesimo capitolo della finanziarizzazione dell’economia: una nuova grande promessa di futuro costruita per alimentare la crescita del capitale. Anche le politiche di riarmo (e le conseguenti guerre) rispondono ai medesimi interessi finanziari. Leggi tutto
Stakka Stakka, Ma quali pappagalli stocastici!
La puntata affronta due argomenti principali: come gli LLM rappresentano una nuova minaccia per la privacy online e l'articolo di Matthew Honnibal che sostiene che i migioramenti dei grandi modelli linguistici non derivini solo da modelli sempre più grandi e costosi. Il paper “Automated Profile Inference with Language Model Agents” (arXiv:2505.12402) studia una nuova minaccia per la privacy online resa possibile dai modelli linguistici di grandi dimensioni (LLM). Questa minaccia, chiamata inferenza automatizzata del profilo, consiste nell’uso di agenti AI per raccogliere e analizzare automaticamente le attività pubbliche degli utenti su piattaforme pseudonime (come forum o social media) al fine di estrarre informazioni personali sensibili, con il rischio di re-identificare le persone. Why I don’t think AI is a bubble https://honnibal.dev/blog/ai-bubble L’autore, sostiene che, al di là delle valutazioni finanziarie, i progressi tecnici dell’IA non mostrano segni di imminente plateau. Contesta l’argomento comune secondo cui i miglioramenti derivino solo dallo “scaling” (modelli sempre più grandi e costosi) e siano quindi destinati a esaurirsi. Honnibal spiega che questa visione, forse valida per i primi modelli come GPT-1 e GPT-2 (definibili “fancy autocomplete”), è oggi superata. Il vero salto di qualità è arrivato dall’integrazione con il reinforcement learning, che ha permesso di creare i cosiddetti “reasoning models”. Ascolta la puntata su Radio Backout
Il Pentagono ha usato Anthropic AI per l’attacco all’Iran. Subito dopo aver interrotto i contratti con l’azienda
Il Pentagono ha usato il modello Claude di Anthropic AI per condurre l’attacco all’Iran. A riportarlo è il Wall Street Journal che, citando alcune fonti, sottolinea che l’utilizzo dei sistemi di intelligenza artificiale della startup è stato successivo all’annuncio di Donald Trump sull’interruzione dei contratti tra l’azienda e le agenzie federali, compreso il Pentagono. Subito dopo il Segretario alla Difesa Hegseth ha definito Anthropic un “rischio per la supply chain della difesa” e l’ha inserita nella lista nera che vieta ai contraenti militari di fare affari con lei. Le fonti rivelano che Anthropic è stata usata per valutazioni di intelligence, identificazione dei target e per simulare scenari di battaglia. Dario Amodei, ad e fondatore della società di intelligenza artificiale, si era rifiutato di eliminare le barriere in materia di sorveglianza di massa e realizzazione di armi prive di sorveglianza umana. Trump aveva duramente attaccato la startup sul social Truth, per poi virare su un nuovo accordo con OpenAI. I cui vertici hanno però sostenuto di aver a loro volta chiesto l’esclusione dell’uso dei suoi chatbot per sorveglianza di massa e sistemi d’arma autonomi. Fonte qui
Venti minuti per ingannare l'IA: ChatGPT e Gemini preda della disinformazione più ovvia
Con l'avvento degli LLM, molti si sono convinti che questi siano degli oracoli assolutamente imparziali e onniscienti cui chiedere conferma della veridicità di pressoché ogni informazione. In realtà, come dimostra l'esperimento condotto da un giornalista della BBC, ingannare i chatbot (o, per lo meno, alcuni di essi) spingendoli a credere alle bufale non è poi troppo complicato. In particolare ChatGPT e Gemini, pur essendo sistemi progettati per filtrare contenuti falsi o dannosi, possano essere indotti a generare informazioni errate con sorprendente rapidità. Il giornalista in questione, Thomas Germain, non aveva l'obiettivo di violare sistemi informatici o sfruttare vulnerabilità tecniche profonde, ma puntava soltanto dimostrare come un intervento minimo e apparentemente innocuo potesse alterare il comportamento di chatbot come ChatGPT e Google Gemini. L'intero processo di creazione dell'inganno ha richiesto appena venti minuti, serviti a Germain per creare una semplice pagina web sul proprio sito personale. Il contenuto di questa pagina era volutamente banale e costruito ad arte: un articolo che lo definiva «il miglior giornalista tecnologico al mondo nel mangiare hot dog». Non si trattava di un'informazione reale né plausibile, ma era formulata in modo tale da sembrare una dichiarazione di fatto. Leggi l'articolo
February 26, 2026
Pillole di info digitale