test per tag

Assalto al trono di Nvidia
Immagine in evidenza: logo di Nvidia, immagine rielaborata con AI A prima vista, le cose per Nvidia non potrebbero andare meglio. Il colosso statunitense delle GPU detiene oggi il 92% di questo specifico settore e una quota pari al 70-75% del più complessivo mercato dei chip impiegati nell’ambito AI. Nel 2025, la società fondata da Jensen Huang ha messo a segno ricavi per circa 200 miliardi di dollari (oltre il doppio di quanto fatturato nell’anno precedente), ha ottenuto guadagni per 32 miliardi nel corso di un unico trimestre e può vantare al momento la maggiore capitalizzazione di mercato al mondo (4.600 miliardi di dollari, contro i 3.900 della seconda classificata Apple). Un dominio quasi inevitabile, per l’azienda che con le sue GPU – processori nati per l’elaborazione grafica dei videogiochi, ma che si sono dimostrati estremamente efficienti per l’addestramento e l’utilizzo dei sistemi d’intelligenza artificiale – ha reso possibile la rivoluzione del deep learning ed è oggi praticamente l’unica azienda in grado di guadagnare dal complicato, dal punto di vista economico, settore dell’AI generativa. Il ruolo di Nvidia è talmente centrale che, lo scorso novembre, gli occhi di tutti gli operatori finanziari erano puntati proprio sui suoi risultati trimestrali, perché si temeva che una crescita anche solo leggermente inferiore alle attese avrebbe fatto scoppiare la bolla dell’intelligenza artificiale (pericolo per il momento scongiurato o almeno rinviato). In questa fase, Nvidia può addirittura farsi carico dell’espansione infrastrutturale del settore dell’AI generativa, essendo diventata il fulcro di un complicatissimo meccanismo di prestiti e finanziamenti che ha ovviamente l’obiettivo finale di vendere un numero sempre maggiore di GPU. Nonostante alcuni inciampi (com’è il caso del promesso investimento in OpenAI, recentemente ritirato), questo meccanismo può essere sintetizzato così: Nvidia presta o investe capitale in startup e grandi sviluppatori di modelli, che utilizzano quei fondi per acquistare infrastruttura di calcolo – spesso proprio GPU Nvidia – alimentando una domanda che in parte contribuisce essa stessa a creare. Se tutto ciò non bastasse, Jensen Huang ha ultimamente messo in atto la più classica pratica da monopolista della Silicon Valley, iniziando a inglobare le startup che potrebbero in futuro minacciarne la posizione dominante. È il caso del maxi-accordo da 20 miliardi di dollari con cui ha acquistato gli asset tecnologici e ha assunto parte del team di Groq, società che produce chip specializzati – in termini tecnici ASIC – nella fase di inferenza dell’intelligenza artificiale (vale a dire il carico di lavoro svolto durante l’utilizzo dei sistemi generativi). Basterà tutto ciò a mettere al riparo Nvidia da un numero crescente di concorrenti sempre più agguerriti, che puntano a ridurre la loro dipendenza dalle GPU di Jensen Huang, a produrre chip specializzati dalle prestazioni ancora più elevate (in termini computazionali o di efficienza energetica) e a consentire alla seconda superpotenza tecnologica – la Cina – di liberare tutte le proprie potenzialità? GPU, ASIC, Acceleratori GPU Le GPU (Graphics Processing Unit) sono processori nati originariamente per l’elaborazione grafica, in particolare per il rendering in tempo reale dei videogiochi. La loro caratteristica distintiva è la capacità di eseguire moltissime operazioni in parallelo, qualità che le rende particolarmente adatte a calcoli matematici ripetitivi e su larga scala. È proprio questa architettura parallela ad averle trasformate, negli ultimi dieci anni, nel motore principale dell’intelligenza artificiale moderna: le GPU sono infatti ideali per addestrare e far funzionare reti neurali profonde. Pur essendo oggi centrali nell’AI, restano chip general purpose, programmabili e utilizzabili anche per molti altri compiti. ASIC Gli ASIC (Application-Specific Integrated Circuit) sono chip progettati per svolgere un compito specifico. A differenza delle GPU, non sono pensati per essere versatili, ma per massimizzare efficienza e prestazioni in una determinata funzione. Nel campo dell’intelligenza artificiale, un ASIC può essere progettato esclusivamente per eseguire operazioni tipiche delle reti neurali, riducendo consumi energetici e costi rispetto a soluzioni più generiche. Proprio perché costruiti “su misura”, gli ASIC offrono spesso prestazioni superiori nel compito per cui sono stati progettati, ma sono meno flessibili rispetto a una GPU.   Acceleratori Il termine acceleratore non indica una specifica categoria tecnica di chip, ma una funzione: un acceleratore è un processore progettato per velocizzare un determinato carico di lavoro. Nel contesto dell’intelligenza artificiale, GPU, ASIC specializzati, TPU o altri chip custom rientrano tutti nella categoria degli acceleratori, perché servono ad accelerare i calcoli necessari per addestrare o utilizzare i modelli. In altre parole, “acceleratore” è il contenitore concettuale più ampio; GPU e ASIC sono alcune delle tecnologie che possono svolgere quel ruolo. LA MINACCIA DI GOOGLE “C’è la sensazione strategica, tra i clienti e nel mercato complessivo, che la dipendenza da Nvidia, e dai suoi prezzi elevati, debba essere interrotta”, ha spiegato, parlando con El País, l’analista Fernando Maldonado. “Tutti i principali fornitori di servizi cloud stanno progettando i loro specifici chip per compiti differenti. Più in là nel tempo, la quota di mercato di Nvidia potrebbe iniziare a ridursi” Dei vari concorrenti che stanno scaldando i motori nessuno è più minaccioso di Google: azienda storicamente leader nel campo dell’intelligenza artificiale, che ha reso possibile l’avvento dei large language model, sviluppando nel 2017 l’architettura Transformer, e che per il loro addestramento sfrutta da sempre una combinazione di GPU Nvidia e delle sue TPU (Tensor Processing Unit), ovvero acceleratori hardware progettati internamente, in collaborazione con Broadcom, e ottimizzati per il calcolo delle reti neurali. Questa coabitazione di GPU e TPU potrebbe presto giungere al termine: Gemini 3 – il più avanzato large language model di Google – è stato infatti addestrato utilizzando esclusivamente le TPU prodotte dal colosso di Mountain View, prefigurando quindi un futuro in cui Nvidia potrebbe perdere uno dei suoi più importanti clienti. Ma c’è altro: Google ha infatti iniziato a stringere accordi commerciali che consentono a varie società del settore di utilizzare le proprie TPU al posto delle GPU di Nvidia. Il più importante di questi accordi è stato stipulato a ottobre 2025 e prevede che Anthropic – una delle principali realtà dell’intelligenza artificiale e sviluppatrice di Claude – spenda “decine di miliardi di dollari” per accedere fino a un milione delle TPU di Google. Un accordo simile, ma su scala più ridotta, è stato siglato con la startup Safe Superintelligence (fondata dall’ex di OpenAI Ilya Sutskever). Fino a oggi, gli sviluppatori di intelligenza artificiale potevano accedere alle TPU soltanto attraverso i data center di proprietà di Google, rendendoli così dipendenti dal suo ecosistema cloud e consentendo una flessibilità molto inferiore rispetto alle GPU di Nvidia, che si acquistano invece fisicamente e poi si sfruttano a piacimento (al netto della lunghissima lista d’attesa). Adesso la situazione è cambiata: Google ha da pochissimo iniziato, secondo le ultime notizie, a vendere direttamente i propri acceleratori. Tra i clienti troviamo ancora una volta Anthropic (con un acquisto completato da dieci miliardi di dollari e un secondo ordine da 11 miliardi già concordato) e secondo le indiscrezioni anche Meta, che collocherebbe fisicamente le TPU nei propri data center, dove fino a oggi avevano trovato spazio soprattutto le GPU di Nvidia. È questa evoluzione di Google, che si sta quindi trasformando in un vero e proprio produttore di chip, ad aver fatto salire le sue azioni quasi del 50% negli ultimi sei mesi, mentre quelle di Nvidia hanno fatto registrare soltanto un +5%. “La capitalizzazione di mercato è cresciuta di quasi mille miliardi a partire dall’ottobre scorso, anche grazie alla decisione di Warren Buffett di acquistare 4,9 miliardi di azioni durante il terzo trimestre del 2025 e al più generale entusiasmo di Wall Street per le iniziative di Google nel campo dell’intelligenza artificiale”, si legge su Bloomberg. “Google è sempre stato il vero outsider nella corsa dell’intelligenza artificiale. Un gigante per qualche tempo dormiente, ma che adesso si è pienamente risvegliato”. AMAZON E NON SOLO Google è sicuramente il rivale più temibile per Nvidia, ma non è l’unico. Ormai da qualche tempo, Amazon (per la precisione AWS) ha iniziato a sviluppare acceleratori per l’intelligenza artificiale – chiamati Trainium – e dall’anno scorso li sta usando nei propri data center, vendendo l’accesso a svariate realtà del settore. Tra queste troviamo ancora una volta Anthropic, la società di “data intelligence” Databricks, l’azienda giapponese di servizi per l’assistenza clienti Karakuri e parecchie altre. Stando alle dichiarazioni del CEO di Amazon Andy Jassy, gli introiti garantiti dai chip Trainium e Graviton (classiche CPU usate internamente in ambito cloud) sono oggi di “circa 10 miliardi di dollari” e crescono “a tripla cifra” anno dopo anno. Come spiega il New York Times, “sebbene non siano potenti come quelli di Google o Nvidia, Amazon sta installando il doppio dei suoi chip all’interno di ciascun data center, nella speranza di offrire maggiore potere computazionale usando la stessa quantità di energia (grazie alla loro migliore efficienza energetica, ndA)”. Al momento, Anthropic è l’unico vero grande cliente dei Trainium di Amazon, ma in futuro le cose potrebbero cambiare: “Gli esperti ritengono che una partnership di questo calibro possa prefigurare cambiamenti ancor più importanti: quando Anthropic utilizza i chip di Amazon o di Google mostra al resto del mercato che le GPU di Nvidia non sono l’unica opzione”. Al contrario: le alternative continuano ad aumentare. La CEO di AMD, Lisa Su, aveva annunciato qualche mese fa l’intenzione di centrare la produzione aziendale sull’AI generativa, scommettendo che la “domanda insaziabile di capacità di calcolo” non si sarebbe esaurita nel giro di pochi trimestri. Finora i numeri sembrano darle ragione: la capitalizzazione di mercato di AMD è quasi quadruplicata, superando i 350 miliardi di dollari, e l’azienda ha firmato accordi rilevanti per fornire chip a OpenAI e Oracle. Anche Broadcom si sta ritagliando uno spazio crescente grazie alla produzione di chip – le cosiddette XPU – progettati per compiti di calcolo specifici, oltre a hardware di rete indispensabile per collegare tra loro i giganteschi rack di server che popolano i data center dell’AI. Intel, uno dei nomi storici della Silicon Valley, ha clamorosamente mancato la prima ondata dell’AI generativa, ma sta adesso investendo massicciamente sia nella progettazione sia nella produzione di processori avanzati per i data center, nel tentativo di recuperare terreno. E infine c’è Qualcomm, tradizionalmente associata ai chip per smartphone e automobili, ma che nell’ottobre scorso ha annunciato il lancio di due nuovi acceleratori per l’intelligenza artificiale, l’AI200 e l’AI250, caratterizzati da un’attenzione particolare all’efficienza energetica. L’ASCESA DELLE STARTUP La scommessa è quindi duplice: da una parte che la richiesta di processori da utilizzare nell’ambito dell’intelligenza artificiale continuerà ad aumentare; dall’altra che si aprano maggiori opportunità per chi produce hardware specializzato, laddove fino a oggi hanno dominato i processori programmabili e generalisti di Nvidia. “Se si osserva il tasso di crescita del settore, si vede [aumentare la domanda] di hardware specializzato”, ha spiegato Alex Davies, CTO della società finanziaria Jump. “È sempre stato così in tutta la storia dell’ingegneria: si inizia con qualcosa di più generico, poi si cresce a grandissima velocità e alla fine qualcuno capisce che non si può avere un unico prodotto per tutto”. Fino a questo momento, la versatilità delle GPU ha rappresentato il principale vantaggio di Nvidia, che attraverso la piattaforma software CUDA consente di programmare i suoi processori in base alle specifiche esigenze aziendali, fidelizzando inoltre una vastissima schiera di programmatori. I chip di uso generale hanno però i loro svantaggi: “C’è un costo energetico da pagare, perché ci sono parti del processore che non si utilizzano per ciò che serve ma consumano comunque energia”, ha spiegato ancora Maldonado a El País. Considerando quanto sta crescendo il mercato, c’è sicuramente spazio per tutte le soluzioni: dai processori generalisti e programmabili di Nvidia fino alle architetture ASIC più specifiche. Nel complesso, si stima che il giro di affari degli acceleratori per sistemi d’intelligenza artificiale dovrebbe crescere del 16% su base annua fino a raggiungere i 604 miliardi di dollari nel 2033: “Certo, Nvidia continuerà a controllare una parte significativa del mercato, ma anche una piccola percentuale può valere miliardi di dollari”, ha spiegato al New York Times l’analista Jordan Nanos. Mentre i colossi si riorganizzano per aumentare la loro presenza in questo ricchissimo mercato, una serie di startup ambisce a conquistare una fetta della torta, presentando nuove soluzioni: Cerebras è una startup californiana, guidata da Andrew Feldman, che progetta processori creati esclusivamente per l’intelligenza artificiale. Processori, tra l’altro, dalle dimensioni inusuali: “Il nostro chip è grande quanto un piatto da tavola, mentre quello di una GPU ha le dimensioni di un francobollo”, ha spiegato Feldman parlando con l’Economist. Potrebbe sembrare una mossa controintuitiva, visto che il progresso tecnologico è sempre stato anche una corsa alla miniaturizzazione. Eppure, Cerebras permette di usare un solo, enorme chip laddove con le GPU di Nvidia bisogna collegarne un gran numero. Questo permette alle connessioni tra i vari core presenti nel chip di operare migliaia di volte più rapidamente di quanto avviene con le connessioni tra GPU separate. Il suo Wafer-Scale Engine 3 (WSE-3) – il più grande chip per AI mai costruito, con circa 4mila miliardi di transistor e 900mila core – è attualmente impiegato da OpenAI (per Codex-Spark, un LLM ottimizzato per la generazione di codice), Mistral, Perplexity e anche dai laboratori scientifici statunitensi (che lo hanno impiegato, per esempio, nell’ambito della “simulazione molecolare dinamica”). Una lista di clienti impressionante, che ha convinto gli investitori a finanziare Cerebras con un miliardo di dollari per una valutazione da 23 miliardi. Cerebras non è però l’unica startup che partecipa alla grande corsa per ritagliarsi uno spazio nel mondo degli acceleratori per AI. Un’altra realtà californiana, fondata da ex ingegneri di Google, è MatX, che sta sviluppando processori che mirano a fare piazza pulita di tutti gli elementi delle GPU non necessari per l’addestramento degli LLM. In poche parole, MatX punta a creare processori che facciano meno cose, ma in maniera più efficiente. La startup nata nel 2022 ha appena raccolto oltre 500 milioni di dollari in un nuovo round di finanziamento e punta a completare il design del suo chip nel 2026, con spedizioni previste nel 2027. L’elenco delle startup include anche le statunitensi d-Matrix e SambaNova, l’israeliana Hailo, la britannica Graphcore (acquistata nel 2024 da SoftBank), la canadese-statunitense Tenstorrent e tantissime altre. LA CINA PUNTA ALL’AUTOSUFFICIENZA Le maggiori sorprese per Nvidia potrebbero però arrivare dall’altro lato del Pacifico. Non è un caso che Jensen Huang abbia pubblicamente espresso la sua contrarietà alle sanzioni che impediscono la vendita delle GPU più avanzate alla Cina (per quanto recentemente allentate), argomentando che questa politica rischia di accelerare la corsa della Repubblica Popolare per rendersi del tutto autonoma dai processori statunitensi (e quindi intaccando il fatturato di Nvidia, proveniente per il 13% dal mercato cinese). Che la Cina sia dietro agli Stati Uniti soltanto di “pochi nanosecondi” – come affermato dallo stesso Huang – è un’esagerazione, ma i progressi fatti dai produttori di chip del colosso asiatico sono molto significativi. Al momento, le prestazioni del modello H20 – il chip più potente che Nvidia può vendere in Cina, variante dell’H200 – sono già state ampiamente superate da numerosi processori cinesi, tra cui l’Ascend 910C di Huawei e il BW1000 di Hygon (per capacità di calcolo grezza e al netto di un maggiore consumo energetico). Probabilmente proprio allo scopo di aumentare l’adozione di chip autoctoni, Pechino sta adesso a sua volta ostacolando l’acquisto dei chip Nvidia da parte delle aziende cinesi, complicando ulteriormente una situazione già molto difficile. In sintesi: al momento gli Stati Uniti hanno riammesso la vendita dei processori H20, ma è ora la Cina che ne blocca l’acquisto da parte delle sue aziende, adducendo ragioni di sicurezza nazionale. La situazione è caotica e in continua evoluzione, ma l’impressione è che la Cina voglia approfittare della guerra commerciale per aumentare la quota dei suoi campioni nazionali (Huawei, Hygon, Cambricon, MetaX), che oggi detengono il 40% del mercato – per un valore di circa 38 miliardi di dollari – e che potrebbero crescere fino al 50% nel giro di un paio d’anni. Dal punto di vista tecnologico, un aiuto importante potrebbe giungere dai progressi fatti dalla Semiconductor Manufacturing International Corporation (SMIC): l’azienda cinese che si occupa di fabbricare concretamente i chip progettati da Huawei e dagli altri. SMIC è oggi il cuore della strategia industriale cinese nel campo dei processori. Secondo alcuni report, l’azienda sarebbe ormai in grado di produrre anche chip a 5 nanometri, seppur con costi più elevati e rese inferiori rispetto a quelli realizzati dal colosso taiwanese TSMC per i marchi occidentali, le cui dimensioni hanno da poco raggiunto la soglia dei 2 nanometri. Allo stesso tempo, Huawei starebbe investendo per dare vita a delle proprie strutture produttive, diventando quindi un concorrente di SMIC con l’obiettivo di far progredire ulteriormente la capacità cinese di produrre chip avanzati. Ci vorrà ancora parecchio tempo prima che le prestazioni dei chip cinesi possano effettivamente raggiungere quelle statunitensi, ma i timori di Jensen Huang sono fondati: SMIC, Huawei e gli altri campioni di Pechino o Shenzhen stanno facendo rapidi e importanti passi avanti. E un domani potrebbero contribuire ad allargare le crepe del dominio di Nvidia. L'articolo Assalto al trono di Nvidia proviene da Guerre di Rete.
February 26, 2026
Guerre di Rete
Manualetto di sicurezza digitale per giornalisti e attivisti
Immagine in evidenza: copertina del Manualetto – Ufficio Furore Un mese fa Guerre di Rete aveva presentato una sua nuova pubblicazione, un ebook, intitolato: Manualetto di sicurezza digitale per giornalisti e attivisti. Inizialmente l’ebook era stato spedito in anteprima ai partecipanti al nostro crowdfunding. Ora è disponibile per tutti, e potete scaricarlo qui:   Scarica in formato EPUB Scarica in formato MOBI Scarica in formato PDF Il manualetto è rivolto a due categorie essenziali per il funzionamento della democrazia e del dibattito pubblico, che troppe volte abbiamo visto essere target di attacchi informatici, sorveglianza, campagne d’odio e di molestie nel mondo, in Europa, in Italia. É scritto da giornalisti e attivisti in maniera semplice e discorsiva, ma fornisce anche indicazioni pratiche di base per iniziare a sistemare e a proteggere la propria vita digitale. Passa in rassegna questioni di cybersicurezza fondamentali (utili a tutti), ma si sofferma anche su aspetti specifici legati alle attività di queste due categorie. Come spiego ripetutamente nell’introduzione al volume, il nostro ebook è solo un manualetto. Non pretende di essere una panacea, non assicura di risolvere tutto o di schermarvi da qualsiasi cosa. Tuttavia, può essere un inizio importante. L’ebook è un lavoro collettivo, con tre curatori (Carola Frediani, Sonia Montegiove, Patrizio Tufarolo) e una serie di autori (i giornalisti Raffaele Angius, Carola Frediani, Sonia Montegiove, Rosita Rijtano, e gli attivisti CRP, Matteo Spinelli e Taylor), e con Federico Nejrotti di Ufficio Furore che ne ha curato la grafica. L'articolo Manualetto di sicurezza digitale per giornalisti e attivisti proviene da Guerre di Rete.
February 11, 2026
Guerre di Rete
[2026-02-12] Hackerare i dispositivi digitali per restituirli all’uso @ Vivero
HACKERARE I DISPOSITIVI DIGITALI PER RESTITUIRLI ALL’USO Vivero - via Antonio Raimondi 37 (giovedì, 12 febbraio 19:00) Giovedì 12 febbraio alle 19 - Dal Laboratorio Palestina alle strategie di sabotaggio e consapevolezza digitale Giovedì 12 febbraio, dalle 19:00 alle 21:30, nell’ambito dell’iniziativa 100x100gaza , per rispondere collettivamente alla catastrofe provocata dal genocidio, Rotta Genuina e Vivèro ospitano una serata di approfondimento su cybersicurezza, controllo digitale e tecnologie conviviali. Le tecnologie digitali non sono mai neutre: tracciano, profilano, monitorano e spesso replicano disuguaglianze che esistono offline. Sono strumenti di dominio con impatti sociali e politici molto concreti. Partendo dal “Laboratorio Palestina”, dove le tecnologie digitali vengono sperimentate come strumenti di controllo, sorveglianza e guerra, allargheremo lo sguardo alla dimensione geopolitica globale, fino ad arrivare all’Italia, per capire come le tecnologie controllano e attraversano i nostri territori. Proveremo a immaginare modelli tecnologici e pratiche alternative a quelli grandi piattaforme, costruendo insieme una nuova “cassetta degli strumenti”. Ne parleremo insieme a * Dario Guarascio - docente di economia a La Sapienza, autore del libro Imperialismo Digitale, Laterza * Graffio - del gruppo di ricerca C.I.R.C.E. * GazaWeb – Gli alberi della rete 📌 Di cosa discuteremo: 🔹 come i dispositivi digitali possono essere usati per controllare, sorvegliare e normalizzare forme di violenza 🔹 il “Laboratorio Palestina”: sperimentazione di strumenti digitali di controllo 🔹 il ruolo delle Big Tech e dei finanziamenti europei nel mantenimento di questi sistemi 🔹 pratiche di boicottaggio e alternative tecnologiche conviviali 🔹 strumenti concreti di consapevolezza digitale 🔹 come sostenere progetti di tecnologie solidali e di lotta 🍷Aperitivo, banchetti di GazaWeb e Women for Gaza + raccolta fondi per la settimana 100x100 Gaza. 📍 Vivero –via Antonio Raimondi 37 | 12 febbraio | 19:00–21:30 A seguire concerto benefit da zazienelmetro_bar
February 3, 2026
Gancio de Roma
Perché le aziende faticano a integrare l’intelligenza artificiale
Immagine in evidenza da Unsplash Se dovessimo riassumere le ragioni per cui l’intelligenza artificiale generativa rischia di rivelarsi una colossale bolla, potremmo sintetizzare la questione così: a fronte di investimenti miliardari da parte delle Big Tech, impegnate in una forsennata corsa allo sviluppo di strumenti sempre più potenti, non corrisponde ancora un ritorno economico che giustifichi l’impegno per vincere una gara in cui non è ancora chiaro il premio in palio.  Nel settore consumer nessuno è ancora stato in grado di trovare forme di monetizzazione credibili. OpenAI, che secondo i dati più recenti detiene il 64,5% del mercato delle AI conversazionali (in calo rispetto all’86,7% del 2024), ha più di 800 milioni di utenti, ma solo il 5% di questi (circa 40 milioni) è titolare di un abbonamento a pagamento. Un dato deludente, che ha contribuito a convincere OpenAI a introdurre gli annunci pubblicitari nel suo servizio.  Le cose non vanno meglio per Google, che sta integrando in tutti i suoi servizi Gemini, senza che però sia ancora chiaro quali risultati economici tutto ciò porterà. Fino a questo momento, il colosso di Mountain View ha ottenuto soprattutto il risultato di penalizzare il traffico web, cannibalizzato dalla modalità AI Overview del suo motore di ricerca.  Diversa ancora la situazione in casa Microsoft, che insiste a promuovere i suoi nuovi (e costosi) PC dotati di Neural Processing Unit facendo leva sull’idea che “chi non è pronto per l’AI rimarrà indietro”. Peccato che ben pochi utenti sentano il bisogno di avere nel proprio computer degli acceleratori hardware specializzati in machine learning. A salvare questa affannosa rincorsa ai ricavi potrebbe contribuire il settore business. Anche qui, però, ci sono una serie di problemi che stanno rallentando l’adozione di strumenti basati sull’intelligenza artificiale generativa. Problemi che non sembrano essere di facile soluzione. LA GEN AI IN AZIENDA, TRA HYPE E BASSA ADOZIONE Il mondo dell’impresa è quello che ha forse preso più sul serio il balzo evolutivo legato all’AI. Il fenomeno va però messo in prospettiva: l’impressione è che la maggior parte delle aziende investa in strumenti di intelligenza artificiale soltanto per non dare l’impressione di “restare indietro” rispetto alla concorrenza. Ma qual è il reale impatto dell’AI a livello di produttività? Orientarsi tra le numerose ricerche individuabili sul web è piuttosto difficile. Nella maggior parte dei casi, per esempio, si tratta di report pubblicati dalle stesse Big Tech che promuovono l’adozione dell’AI generativa, dipingendo un settore in crescita ed elevati aumenti di produttività.  Una ricerca IBM relativa all’area EMEA (Europa, Medio Oriente e Africa) riporta come il 66% delle aziende avrebbero riscontrato “significativi miglioramenti della produttività operativa grazie all’AI”. Altri dati che fanno immaginare un vero boom nell’uso dell’intelligenza artificiale generativa provengono da una ricerca di Boston Consulting Group, secondo la quale gli strumenti di AI verrebbero utilizzati regolarmente dal 72% dei lavoratori. Peccato che altri indicatori, provenienti da fonti istituzionali, siano di segno opposto. È il caso dei dati pubblicati settimanalmente dallo United States Census Bureau e raccolti nel Business Trends and Outlook Survey. Nel momento in cui scriviamo,  la percentuale di aziende ed enti pubblici negli Stati Uniti che utilizza l’AI “in una qualsiasi delle sue funzioni aziendali” sarebbe inferiore al 20%. Com’è possibile una differenza di questo tipo? DI QUALE AI STIAMO PARLANDO? Al di là della (siderale) distanza tra i dati dell’Ufficio del Censimento USA e le ricerche di società private, bisogna considerare quanto le statistiche non distinguano attentamente tra i vari strumenti di AI, facendovi rientrare, per esempio, strumenti di produttività  individuale come i vari chatbot commerciali (ChatGPT, Gemini, Claude, ecc.), il cui impatto trasformativo a livello aziendale è praticamente nullo.  In altre parole, l’uso di massa dell’AI generativa indicato da IBM e BCG non riguarda l’implementazione organica di questi sistemi da parte delle aziende, ma l’utilizzo “dal basso”, da parte dei singoli lavoratori che impiegano i sistemi consumer per velocizzare operazioni ripetitive o imboccare qualche scorciatoia per aumentare la produttività, sfruttando la traduzione automatica, la generazione assistita di documenti, l’uso di chatbot per l’assistenza clienti e simili. Non solo: spesso l’utilizzo degli strumenti di AI generativa non rappresenta soltanto una scelta autonoma del lavoratore, ma viene fatta in modo clandestino e impiegando servizi gratuiti o personali sul luogo di lavoro. Questa tendenza porta con sé anche conseguenze indesiderabili, come il fenomeno della cosiddetta shadow AI (l’uso non autorizzato di qualsiasi strumento o applicazione di intelligenza artificiale da parte di dipendenti). L’impiego di sistemi di AI generativa con queste modalità, o addirittura il loro uso “clandestino”, pone infatti rilevanti problemi di sicurezza e il rischio di condivisione involontaria di informazioni riservate. Per quanto riguarda strumenti più evoluti e pensati appositamente per l’integrazione aziendale – come Einstein GPT di Salesforce o le soluzioni AI enterprise di Oracle – le cose sono decisamente più complicate e ai toni entusiasti si sostituisce una diffusa timidezza. Le applicazioni professionali dell’AI a livello business passano dagli strumenti integrati all’interno di piattaforme software come ERP (Enterprise Resource Planning, la gestione dei processi interni), CRM (Customer Relationship Management, la gestione della relazione con il cliente) o strumenti di analisi; per arrivare alle soluzioni di personalizzazione aziendale dei large language model. In questi casi, l’adozione di strumenti di AI generativa prevede investimenti non indifferenti e la definizione di strategie di medio e lungo periodo. Ed è qui che arrivano i primi dolori, sintetizzati da un report pubblicato dal project NANDA, iniziativa avviata dal Massachusetts Institute of Technology. La ricerca ha sollevato un vero e proprio polverone nell’ambiente, in particolare per un dato: il 95% delle aziende che hanno investito in progetti basati sull’uso di AI generativa non avrebbe avuto alcun ritorno misurabile in termini di trasformazione. Secondo gli autori, la causa di questo fallimento sarebbe da individuare in un approccio sbagliato all’AI, basato su sperimentazioni superficiali che non incidono sull’organizzazione e non producono valore economico reale. Accanto alle incertezze legate all’effettivo ritorno dell’investimento in innovazione, a frenare le imprese sono però anche elementi più concreti. Uno di questi è legato al tema delle infrastrutture tecnologiche e degli investimenti che richiedono. LA ROULETTE RUSSA DEI DATA CENTER Qualsiasi progetto nel settore dell’information technology pone l’azienda di fronte a un bivio: investire per l’acquisto di server creando un proprio data center on premise o rivolgersi al cloud, noleggiando il potere di calcolo da un hyperscaler come Microsoft, Google o Amazon Web Services? Entrambe le opzioni comportano vantaggi e rischi. Creare un proprio data center permette di avere maggiore controllo sui costi a cui si andrà incontro, ma richiede un ingente investimento iniziale e pone il problema dell’aggiornamento delle macchine. La formula del cloud, che prevede una sorta di pagamento “a consumo” delle risorse utilizzate, permette di spalmare l’investimento e fare affidamento su sistemi aggiornati e servizi innovativi. Il rischio, però, è che in alcuni casi i costi vadano fuori controllo e finiscano per gravare troppo sull’azienda. Negli ultimi anni, le imprese hanno (faticosamente) preso le misure e, per quanto riguarda le applicazioni tradizionali, hanno individuato parametri affidabili per orientarsi nella scelta. I dati variano a seconda dei report, ma la tendenza sembra essere che una percentuale superiore alla metà si affida ai servizi delle grandi imprese, mentre la parte restante si divide tra data center locali e infrastrutture di private cloud. Quando si parla di AI generativa, però, i responsabili IT non hanno nessuno strumento che gli permetta di orientarsi chiaramente nella scelta. Si tratta, infatti, di una tecnologia in rapida evoluzione e per la quale non sono disponibili dati storici sull’impatto a livello infrastrutturale. Rivolgersi al cloud con la formula a consumo apre quindi al rischio di trovarsi a far fronte a spese esorbitanti. Chi volesse usare un data center proprio rischierebbe invece, per le stesse ragioni, di trovarsi a gestire consumi elettrici fuori controllo. A scoraggiare chi considera questa seconda scelta c’è anche il fatto che i costi per l’hardware negli ultimi mesi sono lievitati ai massimi storici, paradossalmente proprio per la corsa allo sviluppo dell’AI, che ha innescato un rialzo dei prezzi a causa dell’eccessiva domanda.  E le cose non sono destinate a migliorare: Nvidia e AMD avrebbero infatti pianificato un aumento dei prezzi delle GPU utilizzate per l’AI, mentre il costo della memoria RAM è aumentato del 500%, con ripercussioni anche sul prezzo dei prodotti destinati al consumo di massa. Insomma: chi volesse creare un data center dedicato ai servizi AI, oggi, dovrebbe spendere una fortuna. Un problema non da poco, soprattutto per le organizzazioni, come quelle che operano nel settore bancario, sottoposte a stringenti normative che le obbligano a utilizzare data center proprietari per ragioni di sicurezza e privacy. LA DIFFIDENZA VERSO I FORNITORI DI SERVIZI AI L’ultimo aspetto che frena il processo di adozione dell’AI generativa a livello strutturale è legato al fenomeno del cosiddetto lock-in, cioè il vincolo che si crea nel momento in cui si sceglie un fornitore di servizi. Nel mondo IT, “sposare” una tecnologia significa legarsi mani e piedi a chi la fornisce. E in una fase turbolenta come quella che si sta vivendo nel mondo dell’AI rischia di diventare un azzardo. Per il momento gli investitori stanno alimentando la corsa dell’intelligenza artificiale in vista dei potenziali ritorni futuri, ma se le cose dovessero cambiare le imprese temono che a farne le spese possano essere i clienti. Qualcosa di simile lo abbiamo visto con Microsoft. L’azienda di Redmond, dopo aver introdotto Copilot in Office 365, ha alzato il prezzo dell’abbonamento del 30% applicando l’aumento automaticamente a tutti i clienti, compresi quelli che non avevano nessun interesse a utilizzare il nuovo strumento.  Se un normale consumatore può decidere di abbandonare Office e passare ad altri software, in ambito aziendale le cose sono più complicate. Per migrare a un’altra tecnologia serve tempo e denaro. Il timore è che i fornitori ne siano consapevoli e sfruttino questa posizione di vantaggio per tirare la corda a livello di prezzi e rientrare dagli investimenti. E infatti diverse startup che avevano costruito i propri prodotti sull’accesso ai modelli di OpenAI e Anthropic si sono trovate improvvisamente costrette a rivedere i prezzi, introdurre limiti di utilizzo e ridimensionare i servizi offerti a causa dei cambiamenti nei listini e nelle condizioni di accesso alle API.  È il caso, per esempio, di Cursor e Replit, due piattaforme per lo sviluppo software basate su modelli generativi che hanno dovuto modificare i propri modelli di business per assorbire l’aumento dei costi computazionali, legati anche alla necessità di aumentare i ricavi di OpenAI e Anthropic. Una dinamica che mostra quanto, una volta costruita un’infrastruttura sopra uno specifico sistema proprietario, ci si esponga a rischi continui, soprattutto in un ambito dai ritorni ancora incerti come quello dell’AI generativa. E quindi: le società che sviluppano i sistemi di AI generativa hanno bisogno delle aziende per rientrare dai loro immensi investimenti. Le aziende sono però restie a esporsi sotto questo fronte proprio a causa delle incertezze economiche del settore. Il risultato di tutto questo è uno stallo alla messicana da cui nessuno sa come uscire. L'articolo Perché le aziende faticano a integrare l’intelligenza artificiale proviene da Guerre di Rete.
January 28, 2026
Guerre di Rete
[2025-11-21] Nascita, crescita e futuro di Palantir, l'azienda che vende potere @ Centro Riforma Stato - Fondazione Basso
NASCITA, CRESCITA E FUTURO DI PALANTIR, L'AZIENDA CHE VENDE POTERE Centro Riforma Stato - Fondazione Basso - Via della Dogana Vecchia, 5 Roma (venerdì, 21 novembre 17:30) Venerdì 21 novembre a Roma, in Via della Dogana Vecchia 5, alle ore 17:30, un incontro organizzato da Scuola critica del digitale del CRS e Forum Disuguaglianze e Diversità. ne parlerà Franco Padella ne discutono Stefano Bocconetti, Davide Lamanna, NINA, Michele Mezza, Giacomo Tesio coordina Giulio De Petra I conflitti contemporanei, dall’Ucraina al Medio Oriente, sono sempre più guerre digitali, dove le capacità di elaborazione dei dati e l’uso della AI diventano elementi decisivi sul campo di battaglia. Non si combatte più solo con armi fisiche: reti, dati e algoritmi sono ormai il sistema operativo della guerra moderna. In questo scenario, le Big Tech hanno rafforzato il loro ruolo di fornitori primari dell’apparato industriale-militare degli USA. Ma mentre i riflettori restano accesi sul ristretto gruppo FAMAG (Meta, Apple, Microsoft, Amazon, Google), è un’altra azienda, mediaticamente “minore”, a rappresentare l’esempio più completo e preoccupante della integrazione tra tecnologie digitali e regimi di guerra. Una azienda tanto silenziosa quanto potente: Palantir Technologies. Poco visibile rispetto alle altre, si è già profondamente integrata con gli apparati di sicurezza e di guerra americani, e si muove nella stessa direzione in tutti i paesi dell’Occidente. A differenza delle altre aziende, Palantir preferisce rimanere in penombra: non vende se stessa al pubblico, non fa pubblicità. Vende potere agli apparati dello Stato. Potere di prevedere, di controllare, di dominare. E facendo questo, in qualche modo, diventa essa stessa Stato. Prosegui la lettura
November 18, 2025
Gancio de Roma
Il bluff dell’ intelligenza artificiale
Perché la bolla speculativa è solo la punta dell’iceberg di un piano per consolidare il potere. In queste ultime settimane abbiamo sentito parlare sempre piu spesso dell’IA come una “bolla”. Con questo termine si descrive la crescita vertiginosa e insostenibile delle valutazioni di mercato delle aziende legate all’IA. In modo simile a quanto accaduto con la bolla dot-com alla fine degli anni ’90, un’enorme ondata di investimenti speculativi sta inondando il settore, alimentata più da aspettative euforiche e narrazioni mediatiche che da solidi fondamentali economici. La promessa di una rivoluzione produttiva senza precedenti spinge i capitali verso un numero ristretto di attori, le cui quotazioni azionarie sembrano ormai scollegate dalla loro reale capacità di generare profitti. Queste recenti analisi che paventano il rischio di una “bolla speculativa” però, colgono solo la superficie del fenomeno. La loro diagnosi, pur corretta in termini finanziari, rischia di oscurare la logica politica ed economica sottostante che muove questi imponenti flussi di capitale. La dinamica in atto è infatti più profonda di una semplice euforia di mercato. L’ingente allocazione di risorse nell’IA risponde a un imperativo strategico del capitale globale: rafforzare ed estendere il potere esercitato dai grandi conglomerati tecnologici. Invece di generare un valore economico diffuso e sostenibile, questa ondata di investimenti serve a erigere barriere, a privatizzare la conoscenza attraverso modelli proprietari e a garantire il controllo sulle infrastrutture tecnologiche del futuro. Nel sistema capitalista in cui viviamo, infatti, l’intelligenza artificiale diventa l’ennesima manifestazione della tendenza intrinseca del capitalismo a trasformare ogni innovazione in un’opportunità di accumulo, uno strumento per perpetuare ed esacerbare le asimmetrie di potere esistenti. Le aziende hanno speso trilioni per data‑center, GPU e infrastrutture di calcolo, non perché la società ne abbia realmente bisogno, ma perché il mercato richiede continui ritorni sui capitali investiti. Quando l’entusiasmo si esaurirà e tutti capiranno che gli investimenti nell’IA – come i piani da 500 miliardi di dollari di OpenAI o le centinaia di miliardi di Meta – non sono in grado di produrre flussi di reddito sufficienti a coprire i costi di costruzione e gestione, il valore di queste imprese crollerà, trascinando con sé una fetta significativa della crescita economica statunitense. IL PARADOSSO DELLA PRODUTTIVITÀ E I COSTI INSOSTENIBILI Il primo segnale che le cose non stanno andando come viene raccontato è l’assenza di un boom di produttività nei dati macroeconomici. Nonostante gli investimenti colossali, non stiamo assistendo a un’accelerazione dell’efficienza su larga scala. Al di là del costo iniziale delle infrastrutture (data center, GPU), i costi operativi per l’addestramento e l’esecuzione dei grandi modelli linguistici sono enormi. Il consumo di energia e acqua ha raggiunto livelli critici, rappresentando una diseconomia esterna scaricata sull’ambiente e sulla collettività. Inoltre i modelli di IA generativa eccellono in compiti isolati e standardizzati, ma si rivelano fragili e inaffidabili quando devono essere integrati in processi lavorativi complessi e ricchi di contesto. L’integrazione richiede costose personalizzazioni e, soprattutto, una costante supervisione umana per correggere errori, “allucinazioni” (informazioni false presentate come vere) e output privi di senso. Questo costo umano vanifica gran parte del guadagno di efficienza promesso. Infine gran parte delle applicazioni attuali non risolve problemi reali e complessi, ma si concentra su aree a basso impatto o addirittura futili, come la generazione di contenuti di marketing a basso costo, chatbot per il servizio clienti spesso inefficienti o la creazione di immagini sintetiche. Il valore generato è spesso marginale rispetto all’investimento richiesto. L’aspetto più significativo è che l’attuale traiettoria dell’IA non sta solo mancando di produrre valore positivo, ma sta attivamente generando danni tangibili in diversi ambiti. Per citarne un paio, Internet sta venendo inondata da contenuti di bassa qualità generati artificialmente (“slop”), che inquinano i risultati dei motori di ricerca, degradano piattaforme come Wikipedia e rendono sempre più difficile distinguere le informazioni affidabili dal rumore. Un vero e proprio attacco all’infrastruttura della conoscenza collettiva. Inoltre i sistemi di IA, addestrati su dati storici che riflettono i pregiudizi della società, vengono impiegati in settori critici come la selezione del personale, la concessione di prestiti o la valutazione del rischio di recidiva. Il risultato è una discriminazione su scala industriale, che automatizza e rafforza le disuguaglianze razziali e di genere con una patina di oggettività tecnologica. In conclusione, etichettare la frenesia per l’IA come una semplice “bolla” finanziaria è riduttivo. Sebbene i segnali di una speculazione insostenibile siano evidenti, il vero nocciolo della questione è altrove. Non siamo di fronte a un’innovazione tecnologica il cui valore è stato temporaneamente sovrastimato, ma a un progetto strategico di riconfigurazione del potere. Lo scoppio di questa bolla, quando avverrà, non sarà un semplice riassestamento di mercato. Lascerà dietro di sé un’infrastruttura tecnologica ancora più centralizzata nelle mani di pochi colossi, un ecosistema informativo inquinato da contenuti sintetici e cicatrici sociali profonde causate dalla discriminazione algoritmica e dalla svalutazione del lavoro. Il vero costo di questa operazione non sarà misurato in punti percentuali persi negli indici di borsa, ma nel consolidamento di un potere tecno-capitalista che, in nome di una promessa di efficienza mai mantenuta, ha reso le nostre società più fragili, diseguali e meno libere.
L’ottavo fronte: la Cupola di Ferro Digitale di Israele e la battaglia narrativa
Mentre i suoi militari bombardano Gaza, nonostante l’accordo per un cessate il fuoco, Tel Aviv lancia un’offensiva parallela su internet volta a mettere a tacere le narrazioni della Resistenza, manipolare le percezioni globali e riprogettare la memoria digitale dei suoi Crimini di Guerra. Fonte. English version Di Mohamad Hasan Sweidan – 10 ottobre 2025 Il Primo Ministro israeliano Benjamin Netanyahu ha descritto l’”Ottavo Fronte” della sua guerra come la battaglia per la verità. “Sette fronti contro l’Iran e i suoi alleati. L’ottavo: la battaglia per la verità”, ha dichiarato durante una cerimonia ospitata dall’emittente statunitense Newsmax presso l’Hotel Waldorf Astoria di Gerusalemme. Il suo obiettivo è confutare le accuse di Genocidio e Carestia deliberata legate alla guerra biennale di Israele nella Striscia, con i social media e i programmi di Intelligenza Artificiale che fungono da campi di battaglia più importanti su questo fronte. CUPOLA DI FERRO DIGITALE In seguito all’Operazione Onda di Al-Aqsa del 7 Ottobre 2023, la cosiddetta “Cupola di Ferro Digitale” di Israele è stata attivata per intercettare contenuti digitali, proprio come la sua Cupola di Ferro militare intercetta i missili. Ma invece dei missili, gli obiettivi sono idee, post, immagini, video, che denunciano le atrocità commesse da Israele nell’enclave assediata. Questa Cupola Digitale opera su due livelli principali. Il primo è il sistema di segnalazione gestito da volontari: una campagna nazionale in cui gli utenti inondano le piattaforme dei social media con denunce di massa contro contenuti ritenuti sfavorevoli a Israele. Un ibrido di Intelligenza Artificiale e revisori umani classifica rapidamente i post segnalati, quindi inoltra le richieste di rimozione a piattaforme come Meta, TikTok e X. L’obiettivo è la velocità: eliminare la narrazione prima che si diffonda. Solo TikTok ha cancellato 3,1 milioni di video e interrotto 140.000 dirette nei primi sei mesi del Genocidio israeliano a Gaza. L’Unità Informatica del Procuratore Generale israeliano ha presentato quasi 9.500 richieste di rimozione nello stesso periodo, con Meta che avrebbe soddisfatto il 94% delle richieste. Il secondo livello è la guerra algoritmica: i sistemi di Intelligenza Artificiale analizzano oltre 200.000 siti Web per identificare narrazioni dissidenti, quindi bombardano gli utenti esposti con contenuti pro-Israele a pagamento in tempo reale. Utilizzando campagne pubblicitarie che imitano l’aspetto e la tempistica dei post organici, Israele inonda la cronologia con una contro-narrativa artificiale. Questa duplice strategia mira a sopraffare e cancellare. La prima sopprime la diffusione delle voci di Resistenza. La seconda le sostituisce con invenzioni approvate dallo Stato. USARE I SOCIAL MEDIA COME ARMA “Siamo tutti i bersagli di queste guerre. Siamo noi i cui clic decidono quale parte vincerà”. – Peter Singer, coautore di LikeWar: La Militarizzazione dei Social Media Il 26 settembre 2025, Netanyahu ha incontrato 18 influencer dei social media residenti negli Stati Uniti. L’ordine era di inondare TikTok, X, YouTube e programmi radio Web con messaggi pro-Israele. Una settimana dopo, Tel Aviv ha stanziato 145 milioni di dollari (125 milioni di euro) per la sua più grande campagna di propaganda digitale di sempre, denominata “Progetto 545”. La campagna si rivolge all’opinione pubblica statunitense, in particolare alla Generazione Z (i nati tra il 1997 e il 2012), con contenuti assistiti dall’Intelligenza Artificiale su misura per TikTok e Instagram. I documenti della Legge sulla Registrazione degli Agenti Stranieri statunitense rivelano che il Ministero degli Esteri israeliano ha stipulato un contratto con Clock Tower, un’azienda guidata dall’ex responsabile della campagna elettorale del Presidente statunitense Donald Trump, Brad Parscale. L’obiettivo è influenzare sia il dibattito pubblico sia le risposte generate da piattaforme di Intelligenza Artificiale come ChatGPT, Grok e Gemini. Parallelamente, è stato lanciato il “Progetto Esther” per finanziare gli influencer statunitensi con contratti che, secondo quanto riferito, raggiungerebbero i 900.000 dollari (775.000 euro) a persona. Si prevede che questi influencer pubblicheranno 25-30 post al mese, creando un flusso costante di contenuti pro-Israele. Tra giugno e novembre 2024, almeno 900.000 dollari in pagamenti per la campagna sono stati distribuiti a 14-18 influencer, con una media di 6.100-7.300 dollari (5.250-6.300 euro) per post. Bridge Partners, una società con contratto con il Ministero degli Affari Esteri israeliano, ha inviato una serie di fatture per i costi della campagna degli “influencer” pro-Israele al gruppo mediatico internazionale “Havas Media Group” in Germania, che lavora per Israele. Show Faith by Works (Mostra la Fede Attraverso le Opere), una nuova società fondata nel luglio 2025, ha ricevuto 325.000 dollari (280.000 euro) in soli due mesi per promuovere la propaganda israeliana tra le comunità cristiane negli Stati Uniti e in Occidente. Con un bilancio previsto di 4,1 milioni di dollari (3,5 milioni di euro) per la campagna, è stata definita la “più grande campagna di geocircoscrizione di una chiesa cristiana nella storia degli Stati Uniti”. Nel frattempo, il Ministero degli Esteri israeliano ha investito altri 137 milioni di dollari (118 milioni di euro) in campagne globali per plasmare la percezione del Paese, oltre ai consueti programmi di promozione dell’immagine. Queste iniziative fanno parte di una strategia più ampia, spesso definita “Hasbara”, termine ebraico che indica la diplomazia pubblica e gli sforzi di propaganda di Israele. Nell’era digitale, l’Hasbara si è evoluta da narrazioni mediatiche convenzionali a sofisticate operazioni di influenza assistite dall’Intelligenza Artificiale, progettate per dominare e distorcere il dibattito sui social media. Un rapporto dell’emittente pubblica spagnola RTVE, citando un’indagine di Eurovision News Spotlight, ha rivelato che il governo israeliano ha stanziato circa 50 milioni di dollari (43 milioni di euro) in pubblicità su Google, X e sulle reti pubblicitarie franco-israeliane Outbrain e Teads. L’obiettivo, secondo l’indagine, era quello di contrastare l’informazione globale sulla Carestia a Gaza, presentando una facciata di normalità. Da gennaio a inizio settembre 2025, Tel Aviv ha pubblicato oltre 4.000 annunci digitali, metà dei quali rivolti a un pubblico internazionale. Questi annunci presentavano una Gaza ripulita, libera da macerie e fame. RICICLAGGIO DIGITALE DI CRIMINI DI GUERRA La guerra in internet non si ferma alle piattaforme pubbliche. Nel maggio 2024, OpenAI ha rivelato di aver smantellato cinque “operazioni di influenza” segrete che sfruttavano i suoi strumenti, una delle quali era gestita dalla società israeliana STOIC. L’azienda ha utilizzato modelli linguistici di grandi dimensioni per generare contenuti pro-Israele e messaggi anti-Hamas pensati appositamente per il pubblico statunitense, per poi distribuirli tramite profili falsi su Facebook, Twitter e Instagram. Il New York Times ha riportato un’operazione parallela del governo israeliano che ha utilizzato quasi 600 profili falsi per inondare i flussi di notizie di 128 parlamentari statunitensi con oltre 2.000 commenti selezionati a settimana. Questi messaggi difendevano le azioni israeliane e diffamavano le istituzioni palestinesi e il principale fornitore di aiuti umanitari a Gaza, l’Agenzia delle Nazioni Unite per il Soccorso e l’Impiego dei Rifugiati Palestinesi nel Vicino Oriente (UNRWA). L’anno scorso, la portavoce dell’UNRWA, Juliette Touma, ha dichiarato: “Queste pubblicità sono distruttive per le persone. Dovrebbero cessare e i responsabili di questo sabotaggio dovrebbero essere ritenuti responsabili. Bisognerebbe fare molti controlli con aziende come Google una volta finita la guerra. C’è molto a cui rispondere”. Attraverso questi metodi, Tel Aviv cerca di anticipare e sovrascrivere le narrazioni dell’opposizione nel momento stesso in cui compaiono. Il risultato è uno spazio digitale saturo di Propaganda di Stato, una cronologia progettata per dimenticare. ESPORTARE LA REPRESSIONE Il pericolo globale risiede nel modello stabilito da questo precedente. Quando una Potenza Militare Coloniale, di fronte a credibili accuse di Genocidio, può utilizzare strumenti digitali per riscrivere la cronaca in tempo reale, invia un chiaro segnale che chiunque abbia i soldi e la tecnologia può fare lo stesso. Il sistema israeliano è semplice ma devastantemente efficace: informazione di massa per mettere a tacere il dissenso, pubblicità mirate per manipolare la percezione, contratti con influencer per fabbricare il consenso e strumenti di Intelligenza Artificiale per distorcere la verità. Se questo modello si diffonde, le voci della Resistenza in tutto il mondo, dagli studenti ai giornalisti ai movimenti indigeni, troveranno le loro verità sepolte sotto una valanga di Propaganda di Stato a pagamento. Tel Aviv potrebbe essere stata pioniera di questa Occupazione Digitale della verità. Ma non sarà l’ultima a usarla contro coloro che lottano per la Giustizia. Mohamad Sweidan è un ricercatore di studi strategici, scrittore per diverse piattaforme mediatiche e autore di diversi studi nel campo delle relazioni internazionali. I suoi interessi principali sono gli affari russi, la politica turca e il rapporto tra sicurezza energetica e geopolitica. Traduzione a cura di Beniamino Rocchetto, da Invictapalestina.org
Boicotta Meta!
Meta collabora al genocidio * Fornisce dati al sistema di sterminio automatizzato "Lavender" * La sua dirigenza ha forti legami con l'esercito israeliano * Censura le voci contro il genocidio * Finanzia e supporta la propaganda e la disinformazione sioniste * Ha già collaborato al genocidio del popolo rohingya in Myanmar nel 2017 Se i nostri dati vengono trasformati in armi BOICOTTIAMO META Se usi Instagram o Facebook, probabilmente è perché tante altre persone sono lì. Rompiamo il circolo vizioso della massa critica! Disertiamo le piattaforme di Meta Leggi di più sui motivi per boicottare Meta Campagna BDS No tech for oppression apartheid or genocide Flyer per la stampa
La bolla dell’intelligenza artificiale sta per scoppiare
Immagine in evidenza generata con OpenAI “Siamo entrati in una fase in cui gli investitori, nel complesso, sono eccessivamente entusiasti nei confronti dell’intelligenza artificiale? Secondo me, assolutamente sì”, ha affermato il fondatore di OpenAI Sam Altman. Parole non dissimili sono arrivate da Mark Zuckerberg, secondo il quale “è certamente una possibilità” che si stia formando una grande bolla speculativa. Da ultimo, anche Jeff Bezos ha rilasciato dichiarazioni simili. Quando le stesse persone che, tramite le loro risorse, stanno favorendo lo sviluppo e la diffusione di una tecnologia si preoccupano della situazione finanziaria, significa che il rischio, come minimo, è concreto – anche perché le loro aziende risentirebbero più di ogni altra dei rovesci causati dallo scoppio di una bolla. D’altra parte, basta osservare i numeri: per il momento le immense quantità di denaro che sono state investite per l’addestramento e la gestione dei modelli linguistici di grandi dimensioni (LLM – Large Language Model) non stanno producendo risultati economici degni di nota. Peggio ancora: non è per niente chiaro quale possa essere un modello di business sostenibile per ChatGPT e i suoi compagni, e ci sono anche parecchi segnali che indicano come tutto l’hype (non solo finanziario) nei confronti dell’intelligenza artificiale potrebbe rivelarsi una colossale delusione (come indicano le ricerche secondo cui le aziende che hanno integrato l’intelligenza artificiale non hanno visto praticamente alcun effetto positivo).  Se le cose andassero così, all’orizzonte non ci sarebbe solo lo scoppio di una gigantesca bolla speculativa, ma la fine – o almeno il drastico ridimensionamento – di una grande promessa tecnologica, che fino a questo momento non sembra essere sul punto di lanciare una “nuova rivoluzione industriale”. I CONTI DI OPENAI Per iniziare gradualmente ad affrontare i problemi economici dell’intelligenza artificiale, gli immensi investimenti nel suo sviluppo (che rischiano di non essere ripagati) e la possibilità che le enormi aspettative riposte nei suoi confronti vengano disattese, la cosa più semplice è probabilmente guardare ai risultati e ai conti della più nota startup del settore: OpenAI. Partiamo dalle buone notizie: OpenAI ha da poco annunciato che nel 2025 dovrebbe raggiungere i dieci miliardi di dollari di ricavi e ha superato i 500 milioni di utenti di ChatGPT. Numeri che farebbero pensare a un futuro roseo se non fosse che, contestualmente, la società di Sam Altman continua a bruciare i soldi degli investitori a grandissima velocità: secondo le ultime stime, nel corso del 2025 OpenAI dovrebbe ammassare perdite pari a 27 miliardi di dollari (significa che incassa 10 miliardi ma ne spende 37).  Brutte notizie arrivano anche dal fronte “utenti paganti”, che sono solo 15,5 milioni: un numero molto basso, che suggerisce come pochi vedano in ChatGPT uno strumento così utile da giustificarne il costo. Le società che invece pagano OpenAI per fornire servizi terzi (“AI as a service”, come può essere il caso di Cursor, che si appoggia a OpenAI e Anthropic per offrire il suo assistente alla programmazione) stanno ottenendo risultati inferiori alle attese e molte di esse – come evidenziato in una recente newsletter dell’analista Ed Zitron – vivono una situazione economica traballante. OpenAI inevitabilmente sfoggia sicurezza, promettendo di raggiungere un fatturato pari a 125 miliardi di dollari entro il 2029. L’obiettivo, quindi, è decuplicare il fatturato nel giro di quattro anni: qualcosa che potrebbe succedere, ma che al momento non è chiaro come potrebbe avvenire, soprattutto se si considera che – dopo tre anni di incessante martellamento – ChatGPT ha pochissimi utenti paganti (che costano all’azienda più di quanto le permettano di guadagnare) e che le startup che pagano OpenAI per usare GPT-5 hanno a loro volta ricavi trascurabili. INVESTIMENTI TRILIARDARI Per il momento, far quadrare i conti è l’ultima delle preoccupazioni di Sam Altman, che prevede di accumulare perdite pari a 115 miliardi da qui al 2029 e ha recentemente dichiarato di voler spendere nel corso del tempo “migliaia di miliardi” per costruire l’immenso network di data center necessario ad alimentare i large language model e gli altri sistemi di intelligenza artificiale generativa. Ma c’è un problema: OpenAI questi soldi non li ha e deve anzi continuamente rivolgersi ai suoi finanziatori soltanto per mantenere in funzione le attuali operazioni. Alla fine di giugno, OpenAI aveva in cassaforte circa 17 miliardi, che al suo ritmo di spesa sono sufficienti solo per qualche mese. E infatti ad agosto c’è stato un altro – l’ultimo, fino a questo momento – round di finanziamenti, che ha permesso a Sam Altman di intascare altri 40 miliardi, per una valutazione di 300 miliardi di dollari. Valutazione che, in seguito ad altre operazioni finanziarie, è arrivata fino a 500 miliardi, la più alta mai registrata da una società non quotata in borsa. Se OpenAI ha continuamente bisogno di raccogliere denaro soltanto per far funzionare (in perdita) ChatGPT, come può spendere centinaia di miliardi di dollari in infrastrutture? La risposta è: non può. Per questa ragione, lo scorso settembre ha firmato un contratto da 300 miliardi di dollari, da versare in cinque anni, a Oracle: la società fondata e guidata da Larry Ellison, le cui azioni sono schizzate alle stelle in seguito a questo annuncio. In sintesi: OpenAI ha promesso a Oracle di pagare, con soldi che al momento non ha, la costruzione degli immensi data center necessari a soddisfare la sua infinita fame di GPU ed elettricità. E Oracle, invece, ce li ha i soldi? Anche in questo caso la risposta è (in parte) negativa: come spiega il Wall Street Journal, “Oracle è già fortemente indebitata: alla fine di agosto la società aveva un debito a lungo termine di circa 82 miliardi di dollari e un rapporto debito/capitale proprio di circa il 450%. Per fare un confronto, il rapporto del gruppo Google-Alphabet era dell’11,5% nell’ultimo trimestre, mentre quello di Microsoft era intorno al 33%”. Le azioni di Oracle saranno anche salite tantissimo in seguito alla notizia della partnership con OpenAI, ma le società di rating iniziano a sentire puzza di bruciato (o almeno di rischi fortissimi), tant’è che Moody’s ha dato una valutazione negativa del rating di Oracle pochi giorni dopo la firma del contratto. Riassumendo: Oracle, già fortemente indebitata, dovrà indebitarsi molto di più per poter costruire un’infrastruttura di data center, che le dovrebbe essere un domani pagata da OpenAI, sempre che quest’ultima riesca, entro la fine del decennio, ad aumentare il fatturato fino ai livelli promessi, che sono dieci volte superiori a quelli odierni. Tutto potrebbe andare come auspicato, ma al momento i conti non tornano. E se non tornano per OpenAI, la startup simbolo dell’intelligenza artificiale, figuriamoci le altre: sempre secondo le stime di Ed Zitron, Anthropic nel 2025 spenderà 7 miliardi di dollari e ricaverà al massimo 4 miliardi (bilancio in rosso di tre miliardi), mentre Perplexity punta a generare ricavi per 150 milioni di dollari nel 2025, ma spende anche lei molto più di quello che intasca (nel 2024 ha speso il 67% in più di quello che ha guadagnato). I numeri non migliorano se si osservano i conti relativi all’intelligenza artificiale dei principali colossi della Silicon Valley: Microsoft quest’anno investirà 80 miliardi in infrastrutture e ricaverà 13 miliardi. Amazon spenderà 105 miliardi e ne ricaverà 5. Google spenderà 75 miliardi e ne ricaverà al massimo 8. Meta spenderà 72 miliardi e ne ricaverà al massimo 3. Nel complesso, queste quattro società investiranno in un solo anno 332 miliardi di dollari e ne ricaveranno 29 (al massimo). Stime confermate dall’Economist, che scrive:  “Secondo le nostre analisi, i ricavi complessivi delle principali aziende occidentali derivanti dall’intelligenza artificiale ammontano oggi a 50 miliardi di dollari l’anno. Anche se tali ricavi stanno crescendo rapidamente, rappresentano ancora una frazione minima dei 2.900 miliardi di dollari di investimenti complessivi in nuovi data center previsti a livello globale da Morgan Stanley tra il 2025 e il 2028”. LA BOLLA DI NVIDIA In questo fosco scenario, c’è una sola azienda per la quale l’intelligenza artificiale si sta rivelando un affare d’oro: Nvidia. La società che progetta le più avanzate GPU – i processori indispensabili per l’addestramento e l’utilizzo dei sistemi di AI – ha dichiarato guadagni (non ricavi: guadagni) per 26 miliardi di dollari solo nell’ultimo trimestre. Nel complesso, si stima che Nvidia nel 2027 avrà “free cash flow” (flusso di cassa libero, ovvero i soldi rimasti in pancia all’azienda dopo aver coperto tutte le spese operative e gli investimenti) pari a 148 miliardi di dollari. Mentre tutti spendono (e perdono) nell’intelligenza artificiale, Nvidia fa un sacco di soldi. Non sorprende, visto che una gran parte delle spese di OpenAI, Microsoft e compagnia sono necessarie proprio ad acquistare le GPU di Nvidia. Ma c’è un problema: a differenza di Meta o Google (che continuano a guadagnare centinaia di miliardi da social network e motori di ricerca), gli enormi guadagni di Nvidia sono inestricabilmente legati al boom dell’intelligenza artificiale. Se le aziende che acquistano in massa le GPU di Nvidia decidessero che non è più il caso di spendere le cifre folli che stanno al momento spendendo, quanto precipiterebbe il valore di un’azienda che ha ottenuto il 40% dei suoi ricavi da due soli misteriosi clienti, che secondo TechCrunch potrebbero essere Microsoft e Google? Se l’intelligenza artificiale non mantenesse le promesse, in che scenario si troverebbe un’azienda che detiene il 90% della quota di mercato delle GPU, la cui vendita è sostenuta dal boom dell’intelligenza artificiale? È proprio per queste ragioni che Nvidia vuole evitare a tutti costi che qualcosa del genere si verifichi. Negli stessi giorni in cui Sam Altman e Larry Ellison stringevano il ricchissimo accordo di cui abbiamo parlato, Nvidia si impegnava a investire “fino a 100 miliardi di dollari” in OpenAI “nei prossimi anni”. In poche parole, Nvidia vuole prestare a OpenAI un terzo dei soldi che OpenAI deve dare a Oracle affinché compri le GPU di Nvidia che alimenteranno i suoi data center. OpenAI non è però l’unica azienda a beneficiare di questo schema: Perplexity, CoreWeave, Cohere, Together AI, Applied Digitals e molte altre startup che si occupano di vari aspetti dell’intelligenza artificiale (dall’infrastruttura allo sviluppo di chatbot) hanno potuto godere della generosità del CEO di Nvidia Jensen Huang, che continua a investire denaro in società che utilizzeranno questi soldi anche o soprattutto per acquistare GPU. Da una parte, ha senso che Nvidia utilizzi i faraonici guadagni per sostenere i suoi principali clienti. È un meccanismo che è stato paragonato da The Information ai programmi di stimolo delle banche centrali: si immette denaro nell’economia nella speranza che questo generi crescita economica e, indirettamente, produca i ritorni necessari a compensare l’investimento iniziale. Dall’altra, i soldi che Nvidia immette nel settore potrebbero artificialmente sostenere la domanda delle sue GPU, facendo apparire i suoi risultati più robusti di quanto altrimenti sarebbero, gonfiando quindi il valore delle azioni. Inoltre, il fatto che Nvidia sia al centro di un modello finanziario circolare (perché presta i soldi a chi deve comprare ciò che produce) non può che alimentare i sospetti che quella che si sta venendo a creare sia una colossale bolla finanziaria, che rischia di scoppiare alla prima trimestrale di Nvidia inferiore alle aspettative, trascinando con sé tutte le realtà più esposte e causando un crollo che – secondo alcune stime – potrebbe essere quattro volte superiore alla bolla immobiliare che nel 2008 ha mandato il mondo intero in recessione. Negli ultimi tre anni, il valore delle aziende tecnologiche quotate al Nasdaq è raddoppiato proprio sulla scia dell’entusiasmo generato da ChatGPT. Nel complesso, le prime sette aziende per valore di mercato (Nvidia, Apple, Amazon, Meta, Tesla, Microsoft e Alphabet/Google) oggi rappresentano il 34% del valore complessivo dell’indice S&P 500 e sono tutte, con la parziale eccezione di Apple, enormemente esposte sul fronte dell’intelligenza artificiale. Le azioni in borsa stanno salendo alle stelle, mentre i risultati economici reali sono trascurabili. Migliaia di miliardi di dollari stanno venendo investiti in una tecnologia che, per il momento, non sta mantenendo le colossali aspettative in essa riposte e che genera ricavi poco significativi, costringendo i principali colossi del settore a indebitarsi o a bruciare risorse nella speranza che questa “rivoluzione artificiale” infine si materializzi. Che la bolla dell’intelligenza artificiale esista è un dato di fatto: la vera incognita riguarda la violenza con cui esploderà. Molto dipenderà da quanto, nel frattempo, la tecnologia sarà riuscita a mantenere almeno in parte le sue promesse. Se i guadagni annunciati inizieranno davvero a concretizzarsi, la correzione potrebbe essere contenuta. Se invece la Silicon Valley continuerà a investire enormi quantità di denaro senza ottenere nulla in ritorno, l’esplosione potrebbe essere devastante. L'articolo La bolla dell’intelligenza artificiale sta per scoppiare proviene da Guerre di Rete.
October 8, 2025
Guerre di Rete
La Cina contro Nvidia
Il 17 settembre il governo cinese ha ordinato alle principali aziende tecnologiche del paese di interrompere l’acquisto e l’uso di chip Nvidia, inclusi l’RTX Pro 6000D e l’H20, due chip progettati appositamente per aggirare le restrizioni imposte dal governo americano all’export di hardware USA avanzato in Cina. Nei giorni immediatamente precedenti, la Cina aveva avviato un’indagine antitrust in merito all’acquisizione di Mellanox: un’azienda israelo-americana, specializzata nell’interconnessione di rete ad alte prestazioni, comprata da Nvidia nel 2020 per oltre 7 miliardi di dollari. L’indagine antitrust segna l’ingresso in una nuova fase della “guerra dei chip”, che ora si estende non solo ai singoli processori ma a tutti i componenti delle infrastrutture di calcolo critiche. La posizione cinese ha ovviamente fatto molto rumore, con il titolo di Nvidia che ha immediatamente subito una flessione e il CEO dell’azienda – Jensen Huang – che si è detto estremamente deluso (“disappointed”) dalla decisione di Pechino. Dal canto suo, come spesso accade, subito dopo aver acceso il fuoco il governo cinese ha indossato i panni del pompiere. Il giorno successivo all’annuncio del veto, il ministero degli Esteri ha assicurato che, in ogni caso, la Cina “intende mantenere il dialogo con tutte le parti”, e non intende “danneggiare le catene globali del valore della micro-elettronica”. Frasi che paiono messaggi in codice inviati ai centri di potere di Washington, in passato accusati proprio di provocare danni sistemici. UN ASSET GEOPOLITICO Da quando le sue GPU sono finite al centro dell’ecosistema hardware legato all’addestramento dell’AI, i ricavi e la capitalizzazione di Nvidia sono aumentati esponenzialmente. I dati dell’ultimo trimestre, comunicati a fine agosto, parlano di 46,7 miliardi di ricavi, per un utile ad azione pari a 1,05 dollari e un valore della singola azione che è decuplicato negli ultimi 5 anni.  In parallelo a questa crescita se ne è però verificata un’altra, di cui i vertici dell’azienda di Santa Clara avrebbero fatto volentieri a meno: un boom di esposizione (geo)politica. Data la centralità di Nvidia nell’ecosistema AI – e data la centralità di questo ecosistema nelle politiche di potenza degli Stati contemporanei – negli ultimi anni Nvidia è diventata uno dei più contesi asset tecnologici del pianeta.  È dal 2022 che l’azienda si trova sotto l’attenzione costante dei doganieri di Washington e che deve fare i conti con la necessità di trovare escamotage (tecnici o politici) ai loro divieti. In particolare durante gli anni di Biden, la Casa Bianca ha inasprito le restrizioni all’export di semiconduttori avanzati verso la Cina, vietando la vendita dei chip più potenti e imponendo licenze anche per le versioni “ridotte” progettate apposta per il mercato cinese. Per Nvidia questo ha significato rivedere continuamente il proprio catalogo: dal chip A100 si è passati a modelli “castrati” come l’A800 e l’H800, fino ad arrivare all’H20, le cui prestazioni rientrano nei limiti imposti dagli Stati Uniti ed è stato pensato appositamente per aggirare le restrizioni. La parabola dell’H20 è particolarmente emblematica. Nato come compromesso per mantenere aperto il mercato cinese pur rispettando i vincoli imposti da Washington, il chip è stato accusato dai media di Pechino di contenere un “kill-switch”, ovvero un meccanismo occulto di disattivazione remota che avrebbe reso vulnerabili le infrastrutture cinesi in caso di conflitto.  Nvidia ha smentito con forza queste insinuazioni, chiarendo che nessuna delle sue GPU include funzioni di spegnimento a distanza o backdoor segrete. Ma il sospetto ha contribuito a erodere ulteriormente la fiducia, offrendo alle autorità cinesi un nuovo appiglio per giustificare le sue misure restrittive. Il caso dell’H20 mostra come, in un’industria estremamente complessa dal punto di vista tecnico (e dunque, per natura, opaco), la percezione conti quanto la realtà: persino in assenza di prove concrete, il timore di vulnerabilità latenti è sufficiente per spostare interi equilibri di mercato. Il dubbio diventa un’arma politica. Nel frattempo, la politica americana ha oscillato tra rigore e pragmatismo. Dopo la stagione Biden, fortemente orientata al contenimento tecnologico di Pechino, l’amministrazione Trump ha riaperto degli spiragli negoziali, concedendo le licenze che hanno effettivamente consentito la vendita proprio di chip come l’H20. Secondo alcune ricostruzioni giornalistiche, il cambio di orientamento sarebbe stato il risultato di un efficace e paziente lavoro di “diplomazia” di Jensen Huang, che ha saputo costruire una relazione personale privilegiata con il presidente degli Stati Uniti.  La realtà – come vi avevamo raccontato anche qui – è che, nonostante gli embarghi e i compromessi, i chip Nvidia hanno continuato a circolare in Cina persino all’apice dei veti bideniani, in alcuni casi attraverso intermediari o triangolazioni con Paesi terzi, aggirando così i divieti formali e confermando quanto sia difficile bloccare del tutto il flusso tecnologico in un mondo di catene di fornitura globalizzate. PERCHÉ IL VETO CINESE E PERCHÉ PROPRIO ORA? Lungi dall’essere puramente ritorsiva, la decisione cinese di colpire Nvidia va letta come parte di un disegno più ampio. Apparentemente drastica, essa risponde a una logica “strutturalista” che mira a riequilibrare il rapporto di dipendenza con i fornitori stranieri. Pechino non intende più accontentarsi di avere accesso a versioni “attenuate” dei chip americani: l’obiettivo adesso è la conquista di un’autonomia tecnologica che abbracci l’intera filiera del calcolo, dai semiconduttori all’infrastruttura, riducendo al minimo i punti di vulnerabilità. È del resto lì che si gioca la sfida della “sovranità tecnologica”, che la leadership cinese ha ormai posto tra le proprie priorità politiche. Ma perché tutto questo avviene proprio ora?  Un indizio si trova nello “strano” tempismo con cui – due giorni dopo l’annuncio del blocco a Nvidia – Huawei ha svelato una roadmap di sviluppo di chip che copre i prossimi tre anni e che, se realizzata nei tempi e nelle modalità annunciate, potrebbe ridisegnare l’intero equilibrio competitivo del settore. La punta di diamante della strategia dell’azienda di Shenzhen è lo sviluppo della linea di chip Ascend, una serie lanciata nel primo trimestre del 2025 con l’Ascend 910 C e che, attraverso una progressione esponenziale dei nodi e delle interconnessioni, punta a quadruplicare la capacità di calcolo da qui al 2027. Sebbene, a oggi, le GPU Nvidia siano ancora considerate superiori per prestazioni e affidabilità, l’uscita allo scoperto di Huawei riflette la consapevolezza, da parte cinese, che la capacità manifatturiera domestica di chip costituisce sempre meno un collo di bottiglia sensibile alla volubilità di Washington. La roadmap di Huawei non è solo un piano industriale, ma un atto politico: un manifesto che intende rassicurare gli alleati interni e spaventare i concorrenti esterni. In questo senso, il veto contro Nvidia diventa una leva utile a concentrare investimenti pubblici e privati sul fronte della produzione nazionale, rafforzando l’idea che la “dipendenza dall’Occidente” non sia più insuperabile.  In altre parole: il veto cinese a Nvidia e l’annuncio di Huawei non vanno letti come episodi isolati, ma come due mosse coordinate di una identica strategia. Un messaggio al mondo – e in particolare, ovviamente, all’inquilino della Casa Bianca – che la Cina non intende più limitarsi a comprare e inseguire, ma vuole innovare e guidare. L'articolo La Cina contro Nvidia proviene da Guerre di Rete.
September 25, 2025
Guerre di Rete