Source - Lavoratrici e Lavoratori Aci Informatica

Autorganizzati

L’AI non è uno strumento, rimodella il pensiero umano
(Fonte) Giampaolo Colletti – 18 gennaio 2026 Secondo Derrick de Kerckhove siamo oltre un punto di non ritorno: il digitale non è più uno strumento, ma un ambiente cognitivo in cui pensiamo, ricordiamo e decidiamo. Questo tipping point segna una trasformazione irreversibile della mente, che si riorganizza attraverso reti, dati e algoritmi. Non è un […] The post L’AI non è uno strumento, rimodella il pensiero umano first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’intelligenza personale di Google Gemini si basa sulla cronologia delle tue ricerche e di YouTube
(Fonte) AJ Dellinger – 14 gennaio 2026 A questo punto, sembra chiaro che la prossima grande frontiera dell’intelligenza artificiale rivolta al consumatore sia la personalizzazione. OpenAI ha reso questo aspetto centrale in ChatGPT introducendo memorie che consentono al chatbot di attingere alle conversazioni passate, e ora Google sta facendo un ulteriore passo avanti. Mercoledì, ha annunciato una […] The post L’intelligenza personale di Google Gemini si basa sulla cronologia delle tue ricerche e di YouTube first appeared on Lavoratrici e Lavoratori Aci Informatica.
Gli enti regolatori affermano che DoorDash e Uber Eats hanno sottratto ai fattorini di New York 550 milioni di dollari in mance
(Fonte) Liam Quigley – 13 gennaio 2026 Un rapporto pubblicato dal Dipartimento per la tutela dei consumatori e dei lavoratori sostiene che i colossi delle app di consegna di cibo hanno reagito alle norme sul salario minimo per i fattorini entrate in vigore nel dicembre 2023, implementando “trucchi di progettazione” che oscurano la possibilità di offrire una […] The post Gli enti regolatori affermano che DoorDash e Uber Eats hanno sottratto ai fattorini di New York 550 milioni di dollari in mance first appeared on Lavoratrici e Lavoratori Aci Informatica.
Volevi dire: Per favore, pubblicami un annuncio?
(Fonte)  Whizy Kim – 14 gennaio 2026 la pubblicità sta comparendo nei prodotti di intelligenza artificiale, a partire dal chatbot AI Mode di Google per la ricerca. Il lancio sta avvenendo lentamente, ma la tensione è già evidente: l’intelligenza artificiale viene spesso pubblicizzata come uno strumento affidabile per distinguersi dalla massa, non come un altro […] The post Volevi dire: Per favore, pubblicami un annuncio? first appeared on Lavoratrici e Lavoratori Aci Informatica.
Il creatore di Signal, Moxie Marlinspike, vuole fare per l’intelligenza artificiale quello che ha fatto per la messaggistica
(Fonte) Dan Goodin – 13 gen 2026 Moxie Marlinspike, pseudonimo di un ingegnere che ha stabilito un nuovo standard per la messaggistica privata con la creazione di Signal Messenger, ora punta a rivoluzionare i chatbot basati sull’intelligenza artificiale in modo simile. La sua ultima creazione è Confer , un assistente AI open source che fornisce solide garanzie […] The post Il creatore di Signal, Moxie Marlinspike, vuole fare per l’intelligenza artificiale quello che ha fatto per la messaggistica first appeared on Lavoratrici e Lavoratori Aci Informatica.
I deepfake basati sull’intelligenza artificiale si spacciano per pastori per truffare le loro congregazioni
(Fonte) Kat Tenbarge – 5 gennaio 2026 Padre Mike Schmitz,Un prete cattolico e podcaster, si è rivolto alla sua congregazione di oltre 1,2 milioni di iscritti a YouTube a novembre con un’omelia insolita. Non ci si poteva sempre fidare delle parole che uscivano dalla sua bocca, ha detto Schmitz, perché a volte non erano davvero le sue parole, o […] The post I deepfake basati sull’intelligenza artificiale si spacciano per pastori per truffare le loro congregazioni first appeared on Lavoratrici e Lavoratori Aci Informatica.
La FDA annuncia cambiamenti radicali nella supervisione dei dispositivi indossabili e abilitati all'intelligenza artificiale
(Fonte) Lizzy Lawrence, Mario Aguilar, Katie Palmer, Brittany Trang – 6 gennaio 2026 La Food and Drug Administration ha annunciato martedì che alleggerirà la regolamentazione dei prodotti sanitari digitali, dando seguito alle promesse dell’amministrazione Trump di deregolamentare l’intelligenza artificiale e promuoverne l’uso diffuso. Il commissario della FDA Marty Makary ha affermato che una delle priorità […] The post La FDA annuncia cambiamenti radicali nella supervisione dei dispositivi indossabili e abilitati all'intelligenza artificiale first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’IA vuole diventare il nostro primo consulto medico.
(Fonte) Francesca Cerati – 13 gennaio 2026 Dai dati clinici in ChatGPT Health ai workflow ospedalieri di Claude, la sanità digitale avanza. Ma i recenti errori di Google mostrano che l’IA non è infallibile. L’intelligenza artificiale sta entrando rapidamente nel settore sanitario. OpenAI e Anthropic hanno appena lanciato strumenti dedicati alla salute, ChatGPT Health e […] The post L’IA vuole diventare il nostro primo consulto medico. first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’intelligenza artificiale sbarca negli studi dei medici di famiglia
(Fonte) Marzio Bartoloni – 13 gennaio 2026 Finanziata dal Pnrr la Piattaforma “Mia” (acronimo che sta per Medicina e intelligenza artificiale) sarà testata dai primi 1500 camici bianchi: si potrà interrogare per farsi aiutare su diagnosi, percorsi di cura, farmaci da prescrivere o attività di prevenzione. Dopo l’impiego crescente negli ospedali e nelle apparecchiature diagnostiche, […] The post L’intelligenza artificiale sbarca negli studi dei medici di famiglia first appeared on Lavoratrici e Lavoratori Aci Informatica.
La guerra invisibile delle ricostruzioni combattuta con l’IA
(Fonte) Barbara Carfagna – 6 gennaio 2026 Tecnologia e suolo. Dalla Siria al Nagorno-Karabakh nelle fasi post belliche vince chi controlla le leve dell’intelligenza artificiale Quando le bombe smettono di cadere inizia una guerra diversa. È quella per la Ricostruzione: decidere chi e come programmerà la normalità di domani. Il potere, che nel dopoguerra del ‘900 era di chi possedeva il suolo, sarà di chi controlla l’intelligenza artificiale che lo governerà. I modelli contengono infatti il disegno della società futura, a partire dalla cybersecurity, che sarà integrata nelle fondamenta invece che adattata alla difesa dell’esistente. Dal Karabakh alla Siria (prossimamente dall’Ucraina a Gaza) la ricostruzione post-bellica installa un sistema nervoso digitale che orienta autonomamente, costantemente, dinamicamente, invisibilmente, il modo in cui vivranno milioni di persone per i prossimi decenni. Le guerre in corso producono enormi flussi di dati in tempo reale che addestrano modelli di IA cruciali per armi autonome, simulazioni strategiche e definizione dei target futuri. La fase di ricostruzione, affidata all’Agentic AI, rischia di fissare in modo irreversibile una logica algoritmica del territorio, cedendo sovranità su ciò che è “sicuro”, “normale” o “prioritario” a sistemi spesso stranieri. Chi addestra i modelli su un territorio acquisisce un vantaggio informativo permanente: nel caso ucraino, saranno gli algoritmi statunitensi – più che l’Europa – a conoscere e governare lo spazio postbellico. Intanto, esperimenti come gli “AI village” nel Karabakh mostrano come la ricostruzione algoritmica includa anche il controllo della memoria e dei traumi collettivi. Nel Karabakh la ricostruzione postbellica è diventata un progetto pilota di governo algoritmico: un sistema di Agentic AI, autonomo e autorizzato, simula e indirizza le politiche statali come un attore del processo decisionale. In pochi anni, su un territorio devastato da decenni di guerra e mine, sono sorti villaggi razionali completamente ricostruiti, con welfare automatizzato, servizi essenziali e sorveglianza pervasiva. Sensori IoT e modelli predittivi ottimizzano risorse, sicurezza, coltivazioni e comportamenti, addestrando soluzioni di Ricostruzione esportabili. Il costo reale, oltre ai miliardi investiti, è una cessione di sovranità: infrastrutture tecnologiche straniere, sicurezza esternalizzata e un ordine sociale regolato dall’anticipazione algoritmica del rischio, dove il governo delle “anomalie” precede e sostituisce l’applicazione della legge. Nei sistemi di governo algoritmico l’IA persegue una funzione-obiettivo e produce contro-narrazioni personalizzate per orientare i comportamenti dei cittadini, soprattutto attraverso i social. In questo quadro la sovranità cognitiva diventa decisiva: generazioni formate, curate e indirizzate da modelli esterni rischiano di interiorizzare valori estranei alla propria cultura. L’Arabia Saudita punta a ridurre la dipendenza da IA straniere, investendo in datacenter nazionali e in HumAIn, un’IA sovrana alimentata dai dati e dalle simulazioni dei Giga project e di Neom, la città interamente gestita da AI. L’obiettivo è sviluppare modelli proprietari ed esportabili, mentre l’Europa resta in ritardo nel comprendere la posta in gioco. L’Ue sta perdendo un’altra guerra importante: quella dei dati dei conflitti e per le Ricostruzioni. Il progetto del Digital Twin of Earth, finanziato da Horizon Europe, promette di simulare crisi climatiche e guidare la resilienza continentale. Ma è costruito su dataset prevalentemente anglosassoni, modelli addestrati negli USA, infrastrutture cloud dipendenti da Aws o Microsoft Azure. Cosa succede quando un’alluvione devasta l’Emilia Romagna, come nel 2023, e i modelli predittivi sottostimano il rischio perché addestrati su fiumi texani o bacini cinesi? Senza dati propri e modelli sovrani, rischiamo di essere non decisori ma esecutori del nostro futuro. The post La guerra invisibile delle ricostruzioni combattuta con l’IA first appeared on Lavoratrici e Lavoratori Aci Informatica.
Come barare durante una conversazione
(Fonte) Julie Beck – 18 novembre 2025 Un nuovo strumento di intelligenza artificiale promette di migliorare le interazioni sociali, ma invece le peggiora. Come si bara durante una conversazione? In tempi diversi, questo avrebbe potuto essere un koan Zen. Nei tempi sfortunati in cui viviamo, è la domanda che guida uno strumento di intelligenza artificiale chiamato Cluely. Il manifesto dell’azienda recita: “Vogliamo barare su tutto”. Al momento, Cluely è più adatto per barare su attività legate al computer: il programma appare come una sovrapposizione traslucida sulla parte superiore dello schermo e può leggere e rispondere a domande su qualsiasi testo che si stia guardando. Si può usare Cluely per barare sui compiti o su un esame, se questo si svolge su un computer portatile. Ma la cosa principale per cui Cluely sembra progettato è per “barare” sono le conversazioni in tempo reale. Può ascoltare videochiamate o chiamate audio, fornire un riepilogo in tempo reale di ciò che viene detto, offrire informazioni correlate dal web e, quando richiesto, suggerire domande di approfondimento o altre cose da dire. Se si rimane distratti per un po’, si può chiedere di riassumere gli ultimi minuti. Il co-fondatore e CEO di Cluely, Roy Lee, ha detto che per barare intende “essere così influenti” – ovvero avere così tanto potere dalla propria parte – “da poter ottenere qualcosa che altri considererebbero ingiusto”. Il manifesto dell’azienda paragona Cluely all’uso di una calcolatrice o di un correttore ortografico; Lee mi ha detto che è come guidare un’auto invece di una carrozza trainata da cavalli. In sostanza, l’azienda usa il termine “barare” perché è piccante, ma significa fare qualcosa in modo più semplice ed efficiente, producendo un risultato migliore di quello che si potrebbe ottenere da soli. Per valutare il successo di una conversazione, bisogna chiedersi: a cosa serve una conversazione ? Che senso ha parlare con qualcuno di qualsiasi cosa? Secondo Lee, una buona conversazione “è quella in cui entrambe le parti ne ricavano valore”, “che si tratti di un valore emotivo o di un valore capitalista più materiale”. Ciò che l’intelligenza artificiale può fare, ha affermato, è fornirti informazioni per aiutarti a estrarre quel valore in modo più efficiente. Secondo Enfield, una conversazione ha due scopi. Uno è la semplice comprensione: cogliere ciò che l’altro sta dicendo. L’altro è uno scopo sociale: creare o consolidare una relazione. La cosa strana nell’inventare una macchina per aiutare gli esseri umani a conversare è che, mi ha detto Enfield, gli esseri umani sono già macchine per conversare, per giunta finemente sintonizzate. Nel suo tentativo di migliorare le interazioni sociali, Cluely può effettivamente intralciare il funzionamento della macchina della conversazione umana. Innanzitutto, crea ritardi. Enfield mi ha detto che le persone hanno una “squisita sensibilità” alle interruzioni di tempo. Quindi il tempo impiegato per analizzare il suggerimento di un’IA potrebbe danneggiare una relazione, anche se il suggerimento è fantastico. Cluely è anche estremamente distraente. Mentre facevo Zoom con Tannen ed Enfield, era sempre lì, con la coda dell’occhio, a scorrere in tempo reale i suggerimenti su cui cliccare. La distrazione è un altro aspetto a cui gli esseri umani sono sensibili durante una conversazione, mi ha detto Enfield. Lo spot pubblicato quest’anno in occasione del lancio di Cluely mostra Lee a un appuntamento con una giovane donna. Uno schermo gigante visibile solo a Lee fluttua sul tavolo tra loro, insegnandogli a mentire sulla sua età e mostrando le immagini dei lavori artistici della donna in modo che lui possa consolarla con i complimenti quando lei scopre che sta mentendo e si arrabbia. Il punto è questo: essere intenzionalmente provocatori è una parte importante dei marchi di Lee e Cluely. Cluely è nata come un’app per barare durante i colloqui di lavoro, che ha messo Lee e il suo co-fondatore, Neel Shanmugam, nei guai alla Columbia University mentre erano studenti. Da allora hanno abbandonato gli studi e hanno raddoppiato la strategia degli imbrogli. E le provocazioni sembrano funzionare. L’azienda ha ottenuto 5,3 milioni di dollari nel suo round di raccolta fondi iniziale all’inizio di quest’anno, seguiti da 15 milioni di dollari dalla società di venture capital Andreessen Horowitz . Lee ha affermato che l’app ha circa 100.000 utenti. Il suo post sui social media che annunciava Cluely, che recitava: “Oggi è l’inizio di un mondo in cui non dovrai mai più pensare”. Ciò che rende l’uso dell’intelligenza artificiale per “barare” durante una conversazione più problematico che fare calcoli con una calcolatrice, mi ha detto Enfield, è che nelle relazioni, l’investimento “è da dove nasce l’autenticità. È ciò che ti rende una persona autentica”. Anche quando le conversazioni sono transazionali, o strettamente di lavoro, l’attenzione è importante. Quando ho parlato con Enfield, la sua opinione era che l’adozione diffusa di tecnologie come Cluely significherebbe che “chiunque incontriamo potrebbe essere una specie di deepfake” The post Come barare durante una conversazione first appeared on Lavoratrici e Lavoratori Aci Informatica.
I bot porranno fine all’ascolto sociale come lo conosciamo?
(Fonte)  Katie Hicks e Kristina Monllos – 13 novembre 2025 Al giorno d’oggi è difficile sapere cosa è reale. Per i professionisti del marketing, questo va oltre i titoli stravaganti o le sciocchezze dell’intelligenza artificiale. Quest’anno, le reazioni esagerate alle campagne pubblicitarie e ai rebranding dei brand negli spazi online hanno dominato i titoli dei giornali, spingendo i brand a preoccuparsi e a cambiare rotta, ma queste reazioni non sono sempre del tutto reali. La piattaforma di intelligence narrativa PeakMetrics ha monitorato gli attacchi bot che hanno preso di mira American Eagle, McDonald’s, Boeing e PGA quest’anno, scoprendo che gli account automatizzati spesso amplificano le critiche organiche in un apparente tentativo di plasmare l’opinione pubblica e, in alcuni casi, modificare le narrazioni geopolitiche su determinati marchi. Molly Dwyer, direttrice degli insight di PeakMetrics, ci ha detto che l’intelligenza artificiale generativa ha reso più facile che mai creare e gestire reti di bot, rendendo probabile un aumento delle attività non autentiche sui canali social, poiché alcuni malintenzionati cercano di creare caos, promuovere narrazioni specifiche o semplicemente monetizzare l’interazione. “La maggior parte dei contenuti che vediamo non sono necessariamente creati dai bot, ma vengono amplificati dai bot”, ha affermato. “Questo sta alterando il nostro senso della realtà e di ciò che conta davvero”. Poiché le informazioni reali sui consumatori diventano confuse online, i brand si rivolgono ad agenzie e piattaforme di intelligence per filtrare i post dei bot e analizzare ciò che i consumatori reali hanno da dire. Tuttavia, poiché l’attività dei bot non mostra segni di rallentamento, il solo social listening non è più sufficiente per i brand per comprendere le reazioni dei consumatori. “La migliore difesa è l’attacco”, ha affermato Nina Ruhe, Senior Digital Content Strategist e AI Implementation Architect presso EP+Co. “Che siate un’agenzia o un brand, qualunque cosa pubblichiate, assicuratevi di avere un team pronto a rispondere a qualsiasi cosa, letteralmente”. The post I bot porranno fine all’ascolto sociale come lo conosciamo? first appeared on Lavoratrici e Lavoratori Aci Informatica.