Stakka Stakka, Ma quali pappagalli stocastici!
La puntata affronta due argomenti principali: come gli LLM rappresentano una
nuova minaccia per la privacy online e l'articolo di Matthew Honnibal che
sostiene che i migioramenti dei grandi modelli linguistici non derivini solo da
modelli sempre più grandi e costosi.
Il paper “Automated Profile Inference with Language Model Agents”
(arXiv:2505.12402) studia una nuova minaccia per la privacy online resa
possibile dai modelli linguistici di grandi dimensioni (LLM). Questa minaccia,
chiamata inferenza automatizzata del profilo, consiste nell’uso di agenti AI per
raccogliere e analizzare automaticamente le attività pubbliche degli utenti su
piattaforme pseudonime (come forum o social media) al fine di estrarre
informazioni personali sensibili, con il rischio di re-identificare le persone.
Why I don’t think AI is a bubble
https://honnibal.dev/blog/ai-bubble
L’autore, sostiene che, al di là delle valutazioni finanziarie, i progressi
tecnici dell’IA non mostrano segni di imminente plateau. Contesta l’argomento
comune secondo cui i miglioramenti derivino solo dallo “scaling” (modelli sempre
più grandi e costosi) e siano quindi destinati a esaurirsi. Honnibal spiega che
questa visione, forse valida per i primi modelli come GPT-1 e GPT-2 (definibili
“fancy autocomplete”), è oggi superata. Il vero salto di qualità è arrivato
dall’integrazione con il reinforcement learning, che ha permesso di creare i
cosiddetti “reasoning models”.
Ascolta la puntata su Radio Backout