Tag - Ai&Privacy

L’intelligenza personale di Google Gemini si basa sulla cronologia delle tue ricerche e di YouTube
(Fonte) AJ Dellinger – 14 gennaio 2026 A questo punto, sembra chiaro che la prossima grande frontiera dell’intelligenza artificiale rivolta al consumatore sia la personalizzazione. OpenAI ha reso questo aspetto centrale in ChatGPT introducendo memorie che consentono al chatbot di attingere alle conversazioni passate, e ora Google sta facendo un ulteriore passo avanti. Mercoledì, ha annunciato una […] The post L’intelligenza personale di Google Gemini si basa sulla cronologia delle tue ricerche e di YouTube first appeared on Lavoratrici e Lavoratori Aci Informatica.
I deepfake basati sull’intelligenza artificiale si spacciano per pastori per truffare le loro congregazioni
(Fonte) Kat Tenbarge – 5 gennaio 2026 Padre Mike Schmitz,Un prete cattolico e podcaster, si è rivolto alla sua congregazione di oltre 1,2 milioni di iscritti a YouTube a novembre con un’omelia insolita. Non ci si poteva sempre fidare delle parole che uscivano dalla sua bocca, ha detto Schmitz, perché a volte non erano davvero le sue parole, o […] The post I deepfake basati sull’intelligenza artificiale si spacciano per pastori per truffare le loro congregazioni first appeared on Lavoratrici e Lavoratori Aci Informatica.
Come barare durante una conversazione
(Fonte) Julie Beck – 18 novembre 2025 Un nuovo strumento di intelligenza artificiale promette di migliorare le interazioni sociali, ma invece le peggiora. Come si bara durante una conversazione? In tempi diversi, questo avrebbe potuto essere un koan Zen. Nei tempi sfortunati in cui viviamo, è la domanda che guida uno strumento di intelligenza artificiale chiamato Cluely. Il manifesto dell’azienda recita: “Vogliamo barare su tutto”. Al momento, Cluely è più adatto per barare su attività legate al computer: il programma appare come una sovrapposizione traslucida sulla parte superiore dello schermo e può leggere e rispondere a domande su qualsiasi testo che si stia guardando. Si può usare Cluely per barare sui compiti o su un esame, se questo si svolge su un computer portatile. Ma la cosa principale per cui Cluely sembra progettato è per “barare” sono le conversazioni in tempo reale. Può ascoltare videochiamate o chiamate audio, fornire un riepilogo in tempo reale di ciò che viene detto, offrire informazioni correlate dal web e, quando richiesto, suggerire domande di approfondimento o altre cose da dire. Se si rimane distratti per un po’, si può chiedere di riassumere gli ultimi minuti. Il co-fondatore e CEO di Cluely, Roy Lee, ha detto che per barare intende “essere così influenti” – ovvero avere così tanto potere dalla propria parte – “da poter ottenere qualcosa che altri considererebbero ingiusto”. Il manifesto dell’azienda paragona Cluely all’uso di una calcolatrice o di un correttore ortografico; Lee mi ha detto che è come guidare un’auto invece di una carrozza trainata da cavalli. In sostanza, l’azienda usa il termine “barare” perché è piccante, ma significa fare qualcosa in modo più semplice ed efficiente, producendo un risultato migliore di quello che si potrebbe ottenere da soli. Per valutare il successo di una conversazione, bisogna chiedersi: a cosa serve una conversazione ? Che senso ha parlare con qualcuno di qualsiasi cosa? Secondo Lee, una buona conversazione “è quella in cui entrambe le parti ne ricavano valore”, “che si tratti di un valore emotivo o di un valore capitalista più materiale”. Ciò che l’intelligenza artificiale può fare, ha affermato, è fornirti informazioni per aiutarti a estrarre quel valore in modo più efficiente. Secondo Enfield, una conversazione ha due scopi. Uno è la semplice comprensione: cogliere ciò che l’altro sta dicendo. L’altro è uno scopo sociale: creare o consolidare una relazione. La cosa strana nell’inventare una macchina per aiutare gli esseri umani a conversare è che, mi ha detto Enfield, gli esseri umani sono già macchine per conversare, per giunta finemente sintonizzate. Nel suo tentativo di migliorare le interazioni sociali, Cluely può effettivamente intralciare il funzionamento della macchina della conversazione umana. Innanzitutto, crea ritardi. Enfield mi ha detto che le persone hanno una “squisita sensibilità” alle interruzioni di tempo. Quindi il tempo impiegato per analizzare il suggerimento di un’IA potrebbe danneggiare una relazione, anche se il suggerimento è fantastico. Cluely è anche estremamente distraente. Mentre facevo Zoom con Tannen ed Enfield, era sempre lì, con la coda dell’occhio, a scorrere in tempo reale i suggerimenti su cui cliccare. La distrazione è un altro aspetto a cui gli esseri umani sono sensibili durante una conversazione, mi ha detto Enfield. Lo spot pubblicato quest’anno in occasione del lancio di Cluely mostra Lee a un appuntamento con una giovane donna. Uno schermo gigante visibile solo a Lee fluttua sul tavolo tra loro, insegnandogli a mentire sulla sua età e mostrando le immagini dei lavori artistici della donna in modo che lui possa consolarla con i complimenti quando lei scopre che sta mentendo e si arrabbia. Il punto è questo: essere intenzionalmente provocatori è una parte importante dei marchi di Lee e Cluely. Cluely è nata come un’app per barare durante i colloqui di lavoro, che ha messo Lee e il suo co-fondatore, Neel Shanmugam, nei guai alla Columbia University mentre erano studenti. Da allora hanno abbandonato gli studi e hanno raddoppiato la strategia degli imbrogli. E le provocazioni sembrano funzionare. L’azienda ha ottenuto 5,3 milioni di dollari nel suo round di raccolta fondi iniziale all’inizio di quest’anno, seguiti da 15 milioni di dollari dalla società di venture capital Andreessen Horowitz . Lee ha affermato che l’app ha circa 100.000 utenti. Il suo post sui social media che annunciava Cluely, che recitava: “Oggi è l’inizio di un mondo in cui non dovrai mai più pensare”. Ciò che rende l’uso dell’intelligenza artificiale per “barare” durante una conversazione più problematico che fare calcoli con una calcolatrice, mi ha detto Enfield, è che nelle relazioni, l’investimento “è da dove nasce l’autenticità. È ciò che ti rende una persona autentica”. Anche quando le conversazioni sono transazionali, o strettamente di lavoro, l’attenzione è importante. Quando ho parlato con Enfield, la sua opinione era che l’adozione diffusa di tecnologie come Cluely significherebbe che “chiunque incontriamo potrebbe essere una specie di deepfake” The post Come barare durante una conversazione first appeared on Lavoratrici e Lavoratori Aci Informatica.
Incontra le persone che osano dire di no all’intelligenza artificiale
(Fonte)  Lisa Bonos – 23 ottobre 2025 Alcuni insegnanti delle superiori di Ellen Rugaber permettono agli studenti di usare l’intelligenza artificiale per i compiti scolastici, ma lei preferisce di no. “Fa parte della crescita imparare a fare il proprio lavoro”, ha detto la sedicenne, che frequenta la scuola ad Arlington, in Virginia. Non vuole scaricare il suo pensiero su una macchina e si preoccupa dei pregiudizi e delle imprecisioni che gli strumenti di intelligenza artificiale possono produrre, ha detto. Mentre l’industria tecnologica e le grandi aziende americane puntano tutto sull’intelligenza artificiale, alcune persone si tirano indietro. Alcuni lavoratori del settore tecnologico hanno dichiarato al Washington Post di cercare di utilizzare i chatbot basati sull’intelligenza artificiale il meno possibile durante la giornata lavorativa, citando preoccupazioni relative alla privacy dei dati, all’accuratezza e al mantenimento delle proprie competenze. Altri stanno mettendo in atto piccoli atti di resistenza, rinunciando agli strumenti di trascrizione automatica durante gli appuntamenti medici, disattivando i risultati di ricerca in stile chatbot di Google o disattivando le funzionalità di intelligenza artificiale sui propri iPhone. Per alcuni creativi e piccole imprese, evitare l’intelligenza artificiale è diventata una strategia aziendale. I grafici stanno applicando la dicitura “non AI” ai loro lavori per indicare che sono stati creati da esseri umani, mentre alcune piccole imprese si sono impegnate a non utilizzare chatbot o generatori di immagini basati sull’intelligenza artificiale. In tutti i settori e i casi d’uso, chi si astiene dall’IA ha affermato che sta diventando sempre più difficile, se non impossibile, rinunciare. Le aziende tecnologiche aggiungono costantemente funzionalità di intelligenza artificiale a smartphone, software per ufficio e altri prodotti. Alcune aziende richiedono o incoraggiano fortemente il personale a utilizzare strumenti di intelligenza artificiale per svolgere il proprio lavoro. Diversi lavoratori del settore tecnologico hanno parlato a condizione di mantenere l’anonimato, in parte perché criticare l’IA potrebbe danneggiare la loro reputazione sul lavoro. Secondo un sondaggio di giugno del Pew Research Center, il 50% degli adulti statunitensi è più preoccupato che entusiasta del crescente utilizzo dell’intelligenza artificiale nella vita quotidiana, rispetto al 37% del 2021. Molti contrari all’IA hanno citato il potenziale di errore della tecnologia . Un quarantenne impiegato statale in California, che analizza dati statistici per un’agenzia federale e ha parlato a condizione di anonimato per paura di perdere il lavoro, ha affermato che i top manager hanno spinto il personale a utilizzare ChatGPT. Ma ritiene che la posta in gioco sia troppo alta per sperimentare uno strumento che potrebbe commettere errori. Un altro dipendente federale, che gestisce informazioni sensibili e ha parlato a condizione di mantenere l’anonimato perché non autorizzato a parlare pubblicamente, ha affermato di preoccuparsi quando i colleghi più giovani si rivolgono a ChatGPT per comprendere le normative governative. “Dovrebbero leggere le normative per intero per comprenderne le sfumature”, ha affermato il dipendente. Nonostante le loro opinioni personali, molti hanno affermato di non poter fare a meno dell’intelligenza artificiale, poiché i loro uffici si affidano a strumenti di produttività basati su questa tecnologia. Un sondaggio Gallup del 2025 ha rilevato che il 27% degli impiegati ha dichiarato di utilizzare frequentemente l’intelligenza artificiale sul lavoro, in aumento rispetto al 15% del 2024. Ma alcuni ritengono che l’intelligenza artificiale possa danneggiare la produttività sul lavoro. Michael, l’ingegnere informatico di Chicago, ha affermato che il sistema Copilot di GitHub, basato sull’intelligenza artificiale, esamina tutte le modifiche al codice del suo datore di lavoro, ma di recente ha prodotto una revisione completamente errata. Ha dovuto correggere e documentare gli errori, ha detto Michael. “Questo ha effettivamente creato lavoro per me e i miei colleghi”, ha detto. “Non sono più convinto che ci faccia risparmiare tempo o che migliori il nostro codice”. Deve anche correggere gli errori commessi dagli ingegneri junior che sono incoraggiati a usare l’intelligenza artificiale per generare codice, ha detto Michael. Ma è difficile parlare di questi problemi. “È diventato più stigmatizzato dire di non usare affatto l’intelligenza artificiale sul posto di lavoro. Ti stai smascherando come un potenziale luddista”, ha detto Michael. I lavoratori di diversi settori hanno dichiarato al Post di essere preoccupati che i dipendenti junior che si affidavano molto all’intelligenza artificiale non avrebbero acquisito le competenze necessarie per svolgere il loro lavoro e non sarebbero diventati dipendenti più senior in grado di formare gli altri. Alcuni artisti e designer hanno adottato un logo per segnalare che i loro contenuti sono principalmente opera dell’uomo. Maciej Harabasz e il suo partner hanno recentemente pubblicato un libro da colorare per adulti con disegni di mandala e hanno inserito sul retro della copertina due distintivi con la scritta “non realizzato dall’intelligenza artificiale”. Harabasz, che ha 43 anni e vive in Gran Bretagna, spera che i badge spingano le persone a riflettere in modo più critico sui libri, le immagini e i video che consumano. I contenuti generati dall’intelligenza artificiale sono “belli all’esterno, ma vuoti all’interno”, ha detto Harabasz. “L’umanità non c’è”. Allen Hsu, un designer di 38 anni specializzato in user experience di Philadelphia, ha ideato due anni fa i badge “non creati dall’intelligenza artificiale” per “celebrare l’autenticità umana”. Chiunque può usarli, a patto che si impegni a garantire che almeno il 90% del proprio lavoro sia opera di un essere umano, ha affermato Hsu. The post Incontra le persone che osano dire di no all’intelligenza artificiale first appeared on Lavoratrici e Lavoratori Aci Informatica.
Intelligenza artificiale, la Ue rinvia e semplifica le norme
(Fonte) Beda Romano – 19 novembre 2025 L’Unione Europea sta accelerando su nuovi pacchetti legislativi pensati per semplificare le norme in vari settori. Nel digitale, la Commissione europea ha presentato modifiche che includono, per l’intelligenza artificiale, la proposta di rinviare fino a 16 mesi l’entrata in vigore delle norme dell’AI Act relative agli usi considerati ad alto rischio. Il regolamento europeo sull’intelligenza artificiale (AI Act), in vigore da agosto 2024 e pienamente applicabile da agosto 2026, stabilisce un sistema di classificazione degli usi dell’IA basato sul rischio. Sono vietati gli utilizzi considerati inaccettabili perché pericolosi per la sicurezza, la vita o i diritti delle persone. Gli altri impieghi sono suddivisi in tre livelli — rischio alto, limitato e minimo — con la categoria ad alto rischio che include, tra l’altro, l’erogazione dei servizi essenziali. In un comunicato diffuso ieri, la Commissione europea ha proposto di rinviare di massimo 16 mesi — quindi fino a dicembre 2027 — l’applicazione delle norme dell’AI Act relative agli usi ad alto rischio ovvero «una volta che l’esecutivo comunitario potrà toccare con mano la disponibilità degli standard e degli strumenti di sostegno necessari» e che le imprese potranno applicare pienamente le nuove regole europee. Da tempo a Bruxelles si discuteva di un possibile rinvio dell’AI Act, sostenuto da chi chiedeva regole meno stringenti per permettere alle aziende europee di competere con quelle statunitensi e cinesi. Il rinvio è ora stato deciso, anche se ufficialmente motivato dalla necessità di disporre di standard tecnici realmente applicabili. Oltre al posticipo, la Commissione europea ha inoltre proposto modifiche di carattere più sostanziale al regolamento. La Commissione propone, tra le varie modifiche, di ampliare le semplificazioni già previste per le piccole e medie imprese e per le small mid-cap, introducendo requisiti tecnici e documentali più leggeri che dovrebbero generare risparmi stimati in almeno 225 milioni di euro l’anno. Sono previste inoltre modifiche a diversi testi legislativi, tra cui il GDPR, il regolamento europeo sulla protezione dei dati personali online. La Commissione europea propone di modificare le regole sui cookie per ridurre l’eccesso di pop-up, consentendo ai siti di memorizzare stabilmente le preferenze degli utenti. Ha inoltre suggerito cambiamenti al Data Act, introducendo esenzioni mirate per agevolare la migrazione delle PMI e delle small mid-cap verso servizi cloud, per facilitare l’accesso ai dati generati tramite sistemi di intelligenza artificiale. The post Intelligenza artificiale, la Ue rinvia e semplifica le norme first appeared on Lavoratrici e Lavoratori Aci Informatica.
La FTC sta facendo sparire i post del blog sull’intelligenza artificiale pubblicati durante il mandato di Lina Khan
(Fonte) Lauren Goode & Makena Kelly – 20 ottobre 2025 A fine luglioNel 2024, Lina Khan , allora presidente della Federal Trade Commission degli Stati Uniti, tenne un discorso a un evento organizzato dall’acceleratore di startup di San Francisco Y Combinator, in cui si posizionò come sostenitrice dell’intelligenza artificiale open source. Nei giorni precedenti l’evento, lo staff di Khan ha pubblicato un blog sul sito web dell’agenzia, sottolineando punti di discussione simili. L’articolo sottolineava che il termine “open source” era stato utilizzato per descrivere modelli di intelligenza artificiale con una varietà di caratteristiche diverse. Gli autori hanno invece suggerito di adottare il termine “open-weight”, ovvero un modello i cui pesi di addestramento sono resi pubblici, consentendo a chiunque di ispezionarli, modificarli o riutilizzarli. Da allora, l’amministrazione Trump ha rimosso quel post dal blog, secondo quanto riferito a WIRED da due fonti a conoscenza della questione. La Wayback Machine dell’Internet Archive mostra che il blog della FTC del 10 luglio 2024 intitolato “On Open-Weights Foundation Models” è stato reindirizzato il 1° settembre di quest’anno a una landing page dell’Office of Technology della FTC. Un altro post dell’ottobre 2023 intitolato “I consumatori esprimono preoccupazione per l’intelligenza artificiale”, scritto da due esperti di tecnologia della FTC, ora reindirizza in modo simile alla landing page dell’Office of Technology dell’agenzia. Secondo Wayback Machine, il reindirizzamento è avvenuto a fine agosto di quest’anno. Un terzo post della FTC sull’intelligenza artificiale, scritto dallo staff di Khan e pubblicato il 3 gennaio 2025, intitolato “IA e il rischio di danni ai consumatori”, ora porta a una schermata di errore che dice “Pagina non trovata”. Nel post originale, lo staff di Khan aveva scritto che l’agenzia stava “prendendo sempre più atto del potenziale dell’IA per casi di danno nel mondo reale, dall’incentivare la sorveglianza commerciale al consentire frodi e impersonificazioni fino al perpetuare discriminazioni illegali”. Non è chiaro perché i post del blog siano stati rimossi da internet. Un portavoce della FTC non ha risposto alla richiesta di commento. Khan, tramite un portavoce, ha rifiutato di commentare. Il piano d’azione sull’intelligenza artificiale dell’amministrazione Trump di luglio sostiene che “dobbiamo garantire che l’America abbia modelli aperti all’avanguardia fondati sui valori americani” e che “il governo federale dovrebbe creare un ambiente favorevole ai modelli aperti”. (La FTC non ha risposto alle domande sul fatto che queste eliminazioni rappresentino un cambiamento di politica.) Da quando il presidente Trump è tornato alla Casa Bianca a gennaio, la FTC ha rimosso centinaia di blog e linee guida aziendali per il settore tecnologico pubblicati durante il mandato di Khan, come riportato in precedenza da WIRED . A marzo, la FTC ha rimosso circa 300 post relativi all’intelligenza artificiale, alla tutela dei consumatori e alle cause legali intentate dall’agenzia contro giganti della tecnologia come Amazon e Microsoft. Un post intitolato ” The Luring Test: AI and the engineering of consumer trust ” offriva indicazioni alle aziende tecnologiche su come evitare di sviluppare chatbot di intelligenza artificiale ingannevoli. Il post del blog aveva vinto un premio dall’Aspen Institute nel 2023 per le sue descrizioni accessibili dell’intelligenza artificiale. Una fonte della FTC ha dichiarato a WIRED a marzo che la rimozione di post di blog pubblici “solleva gravi problemi di conformità ai sensi del Federal Records Act e dell’Open Government Data Act”, che impongono alle agenzie governative di conservare i documenti che hanno valore amministrativo, legale o storico e di renderli accessibili al pubblico. The post La FTC sta facendo sparire i post del blog sull’intelligenza artificiale pubblicati durante il mandato di Lina Khan first appeared on Lavoratrici e Lavoratori Aci Informatica.
I browser AI sono qui, e così anche gli aggressori
(Fonte) Eoin Higgins – 9 ottobre 2025 Un browser basato sull’intelligenza artificiale agentica potrebbe occuparsi dell’acquisto di biglietti aerei, della fissazione di appuntamenti e aprire le porte agli autori delle minacce. Una nuova ricerca condotta da SquareX, azienda specializzata in rilevamento e risposta dei browser, mostra come gli agenti del browser AI Comet possano essere utilizzati dagli aggressori per accedere alle informazioni degli account e alle caselle di posta elettronica. Agli agenti vengono forniti comandi e autorizzazioni che possono consentire ai malintenzionati di trovare il modo di accedere alle tue informazioni private. Aspettativa/realtà. Audrey Adeline, membro dello SquareX Founder’s Office, ha dichiarato a IT Brew che, sebbene i browser basati sull’intelligenza artificiale siano molto promettenti, le scoperte dei ricercatori dovrebbero servire da monito. “Poiché si tratta di una tecnologia ancora nuova, ci sono ancora molte vulnerabilità architetturali che non sono state ancora risolte”, ha affermato Adeline. In un video dimostrativo condiviso da Adeline con IT Brew, i ricercatori di SquareX hanno mostrato come un agente potrebbe consentire agli aggressori di accedere ai propri account. Nello scenario, all’agente Comet viene chiesto di ricercare e compilare dati per un progetto. Nel farlo, incontra un’app di condivisione file che richiede l’autorizzazione per leggere e accedere all’account Google e all’email dell’utente. L’agente consente l’accesso perché sta seguendo altre istruzioni; gli aggressori potrebbero utilizzare questa e altre tattiche per infiltrarsi nei sistemi. The post I browser AI sono qui, e così anche gli aggressori first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’industria sta mettendo al lavoro l’intelligenza artificiale prima di costruire garanzie etiche
(Fonte) Caitlin Wolper Phillips – 9 ottobre 2025 Secondo un recente studio condotto da SAS, azienda specializzata in soluzioni di analisi, dati e intelligenza artificiale, circa il 78% delle organizzazioni afferma di fidarsi pienamente dell’intelligenza artificiale, ma solo il 40% di esse investe in misure di sicurezza etiche. Udo Sglavo, vicepresidente della ricerca e sviluppo sull’intelligenza artificiale applicata e sulla modellazione presso SAS, ha affermato che ci sono due motivi per cui le aziende non investono nell’intelligenza artificiale etica: * Sono ancora al “livello concettuale” dell’implementazione dell’intelligenza artificiale e non hanno considerato cosa fare e cosa non fare, né il potenziale impatto. * L’implementazione è complessa. Richiede notevole esperienza e intuizione, oltre agli strumenti giusti. Le organizzazioni che investono meno nella supervisione etica sono quelle che hanno più fiducia in GenAI, il 200% in più rispetto al machine learning tradizionale. La creazione di un quadro di controllo etico “deve avvenire ancora prima di scrivere la prima riga di codice”, ha affermato Sglavo. “La prima cosa da dire è: ‘Bene, parliamo delle questioni normative e del loro impatto etico, e rendiamolo parte del percorso'”, ha affermato Sglavo. Costruire questo framework fin dall’inizio garantisce che, quando le aziende dovranno adattarsi in seguito a nuovi framework o esigenze, siano preparate, invece di dover costruire al volo. The post L’industria sta mettendo al lavoro l’intelligenza artificiale prima di costruire garanzie etiche first appeared on Lavoratrici e Lavoratori Aci Informatica.
Perché la tua azienda dovrebbe prendere in considerazione l’intelligenza artificiale etica
(Fonte) Nat Rubio-Licht – 4 agosto 2025 Sebbene gran parte del dibattito sull’intelligenza artificiale verta su cosa possiamo farne, la domanda più importante potrebbe essere cosa non dovremmo fare. Con l’impeto dello sviluppo nel settore dell’intelligenza artificiale, le aziende si stanno interrogando su come considerare l’etica della tecnologia durante l’implementazione. E non dare priorità agli standard etici può portare a ben più di una semplice cattiva pubblicità, ha dichiarato a CIO Upside Walter Sun, SVP e responsabile globale dell’intelligenza artificiale di SAP. “In che modo questa intelligenza artificiale aiuta il cliente, l’utente, il dipendente della mia azienda, invece di sostituirla?”, ha detto Sun. “Non ci si può permettere di automatizzare tutto, perché le cose possono andare fuori controllo. È necessario che ci sia qualcuno responsabile.” Testare nuove tecnologie può essere un’impresa entusiasmante per un’azienda, ha affermato Sun. Ma con qualsiasi nuova implementazione, gli standard etici devono essere presi in considerazione fin dall’inizio. A volte, si comincia dalle basi. “Spero che la maggior parte delle aziende… abbia questa idea di bussola morale”, ha detto. “Che dica: ‘Ehi, abbiamo questi obiettivi non negoziabili. Non stiamo usando l’intelligenza artificiale per fare X, Y e Z’. Che si tratti di danneggiare l’ambiente o di fare cose negative per la società”. Come può un’impresa iniziare a pensare all’etica? Tutto inizia con le “Tre R”, ha detto Sun: “rilevante, affidabile e responsabile”. * L’intelligenza artificiale rilevante si basa sull’offrire un valore reale ai clienti, ha affermato Sun, ottimizzando i risultati aziendali “sulla base di dati reali”. L’intelligenza artificiale affidabile, invece, si basa sull’avere “i dati giusti per i modelli giusti”. Ciò significa garantire che i set di dati siano puliti, imparziali e conformi agli standard di sicurezza. * L’intelligenza artificiale responsabile consiste nel mettere in discussione tutto ciò che può andare storto in un’implementazione di intelligenza artificiale. Ciò include la valutazione di problemi di sicurezza dei dati, pregiudizi o casi d’uso che si rivelano dannosi per l’operatore. Oltre a questo, un buon punto di partenza sono le linee guida pubbliche emanate dalle organizzazioni non profit, ha affermato Sun. L’UNESCO , ad esempio, offre 10 principi guida per l’adozione etica dell’intelligenza artificiale, con cui SAP si allinea, ha osservato Sun. Anche le aziende possono aderire ai principi pubblici, combinandoli con la definizione di standard propri. Se si trascurano queste considerazioni in nome del progresso, le conseguenze possono essere pericolose. L’intelligenza artificiale tende a inciampare nei bias presenti nei suoi dati di addestramento e ad apprendere strada facendo. Senza il monitoraggio e la messa in discussione delle decisioni di un modello, questi bias possono passare inosservati, portando a discriminazioni nei risultati aziendali, ha affermato Sun. “Oltre all’intelligenza artificiale, c’è l’idea generale di spiegabilità e trasparenza”, ha affermato Sun. “Penso che siano aspetti importanti in tutti i settori aziendali”. The post Perché la tua azienda dovrebbe prendere in considerazione l’intelligenza artificiale etica first appeared on Lavoratrici e Lavoratori Aci Informatica.
Embeddare Meta AI su WhatsApp è stato un abuso da parte del gruppo di Zuckerberg? L’Antitrust italiano indaga sulla multinazionale
(Fonte) Riccardo Piccolo – 30 luglio 2025 L’Autorità ha avviato un procedimento contro Meta Platforms Inc., Meta Platforms Ireland Limited, WhatsApp Ireland Limited e Facebook Italy srl per aver abbinato, dal marzo 2025 il servizio di messaggistica WhatsApp con il proprio servizio di intelligenza artificiale Meta AI tramite pre-installazione, che gli utenti non possono eliminare. La società di Mark Zuckerberg è accusata di aver violato l’articolo 102 del Trattato dell’Ue in quanto avrebbe costretto gli utenti ad accettare entrambi i servizi senza una concorrenza basata sui meriti. L’indagine si svolge in stretta cooperazione con la Commissione europea. Questa pratica si chiama tying ed è considerata illegale quando attuata da un’impresa dominante. Il tying consiste nel legare due prodotti o servizi distinti, costringendo chi vuole acquistare il primo ad accettare anche il secondo. Tale pratica è particolarmente grave in quanto Meta controlla il 90% del mercato italiano della messaggistica attraverso WhatsApp, detenendo una posizione dominante che le consente di trasferire automaticamente milioni di utenti dal mercato delle comunicazioni a quello emergente dell’intelligenza artificiale. Inoltre c’è la questione della gestione dei dati degli utenti. Meta ammette di usare i dati per l’addestramento dei modelli, sfruttando le loro conversazioni per rafforzare ulteriormente il servizio. Un portavoce di Meta ha commentato: “Offrire accesso gratuito alle nostre funzionalità di intelligenza artificiale su WhatsApp dà a milioni di italiani la possibilità di scegliere di usare l’IA in un ambiente che già conoscono, di cui si fidano e che comprendono. Stiamo collaborando pienamente con l’Autorità italiana garante della concorrenza”. Il procedimento  si concluderà entro il 31 dicembre 2026 e potrebbe sfociare in sanzioni fino a 15 miliardi di euro. L’inchiesta si colloca in un quadro di crescente frizione tra la società e le autorità europee. Meta ha già deciso di non aderire al codice di condotta volontario promosso dall’Unione europea sull’intelligenza artificiale nell’alveo dell’AI Act. The post Embeddare Meta AI su WhatsApp è stato un abuso da parte del gruppo di Zuckerberg? L’Antitrust italiano indaga sulla multinazionale first appeared on Lavoratrici e Lavoratori Aci Informatica.