Sunday Jumper - BUSINESS ISSUE
(un numero speciale, da settimana prossima torniamo alla normale “programmazione”)
Questo è uno spin-off del SundayJumper che vuole, una volta al mese, affrontare le tematiche legate al business del mondo che ruota attorno a noi. È frutto di una consapevolezza: se non parliamo di quello che il mondo della finanza, dell’economia, della politica sta costruendo e che rappresenterà (e già rappresenta) il nostro mondo, il nostro futuro, quello dei nostri figli, allora potremo solo subire queste scelte, senza avere voce in capitolo, senza comprendere, dando per scontato che sia tutto inevitabile.
Per tantissimi anni, abbiamo parlato solo ad un settore di persone, legate alla professione dell’immagine (fotografi, ma non solo). Questo spin-off vuole andare oltre, e quindi ci auguriamo di trovare tanti altri lettori, che si occupano di altri campi, di altri interessi, e al tempo stesso non perdere i nostri lettori “storici”, perché la nostra cultura ed esperienza ci porterà sempre a fare riferimento al mondo della comunicazione visiva, e - per di più - la comunicazione visiva spesso è anche l’arma migliore per affrontare, con metafore, con schemi, con visual, le tematiche complesse.
Il desiderio è quello di aprire un nuovo capitolo, che può svilupparsi in tante iniziative ed opportunità di essere utili, in un panorama che è quello dell’informazione, dell’aggiornamento professionale, del dibattito pubblico che si è sempre più impoverito e che ha bisogno di cambiare marcia e prospettiva. Ormai, già il 52% dei contenuti che sono presenti online sono creati dall’AI, e questo valore sta crescendo (quantitativamente, non qualitativamente), e presto saremo così sotterrati dal liquame di un’informazione che non è di bassa qualità perchè generata dall’AI, ma perché creata per essere priva di personalità, di vere opinioni, permeata di un perbenismo che suona stucchevole. Noi siamo convinti che l’AI sia utile, anzi: sempre più fondamentale, ma serve una regia umana, serve separare il lavoro che l’intelligenza artificiale può fare da quello che invece richiede uno sforzo umano, e specialmente un’intelligenza reale, umana ed emotiva.
Per questo, questa newsletter vuole affrontare e proporre un approccio trasparente: quando scriviamo, siamo noi a scrivere, quando vogliamo allargare una visione del nostro pensiero, con una analisi più dettagliata e strutturata, inseriamo al piede della pagina degli interventi (chiamiamoli box) che sono stati analizzati con il supporto dell’AI. Non valgono meno, anzi: sono curati con attenzione, l’AI è stata istruita per rispondere con correttezza giornalistica, tono di voce che corrisponde a quello che noi apprezziamo dal punto di vista editoriale, e tutto quello che è stato scritto è stato controllato con un sistema di Fact Checking accurato. Quindi è qualcosa che approviamo, e lo dichiariamo noi (accettando le nostre regole e anche i nostri limiti, se ci sono errori sono nostri). Potete decidere se ampliare la vostra conoscenza sui temi che trattiamo grazie a questi AI Box, oppure se volete rimanete nel contesto del nostro lavoro “totalmente umano”.
Il grande girotondo del denaro nell’intelligenza artificiale
Ne ha parlato Bloomberg in un articolo che ha fatto molto rumore. In pratica, ha messo in evidenza qualcosa che è molto chiaro a molti, speriamo a tutti coloro che guardano alle azioni della finanza delle aziende “big” dell’AI e della tecnologia; per citare le primarie:
Microsoft → OpenAI → Nvidia → Amazon → Anthropic → Meta → Oracle
Si parla di un “girotondo” dove i soldi sembrano non esistere nella realtà, ma solo sulla carta, e vengono passati da una mano all’altra nello specifico momento in cui servono (stesura bilanci, presentazione dei dati del trimestre agli azionisti), per poi volare al successivo partner. Un bellissimo video lo spiega in modo chiaro, ve lo proponiamo qui sotto:
E se non avete tempo, oppure il vostro inglese non è abbastanza fluente, vi lasciamo alla sintesi che abbiamo fatto per voi nel primo AI BOX (QUI1 - il link/ancora funziona solo dal web, se siete sulla newsletter andate in fondo a questo articolo). Noi proseguiamo l’articolo invece qui sotto.
A fronte di questo “gioco” ha senso domandarsi: dove andremo a finire? Gli economisti più attenti e quelli meno “coinvolti” in questo girotondo, avvisano che il rischio è che basta un anello debole a poter far crollare tutto il castello, e forse questo rischio è dietro l’angolo, e potrebbe arrivare dalle scelte sempre più derivate dagli interessi commerciali che non da una visione granitica delle aziende. Un esempio? Dopo tutto l’investimento che Microsoft ha fatto su OpenAI (ottenendo in cambio che tutta l’infrastruttura cloud di ChatGPT si appoggia su Azure di Microsoft: i soldi escono, e come abbiamo detto e come ha spiegato il video, tornano indietro), di recente la stessa Microsoft ha fatto un accordo con “l’acerrimo nemico” di OpenAI, ovvero Anthropic con il suo modello Claude, che non si appoggia su Azure, ma su AWS che è la concorrente di Azure ed è di proprietà di Amazon che è, a sua volta, il maggiore investitore di Anthropic. Qui le fonti principali:
→ Comunicato ufficiale di Microsoft
→ Comunicato ufficiale Anthropic
I riflettori degli analisti guardano a questa grande “confusione” ma poi a quelli più piccoli, che sono gli anelli che potrebbero rompersi più facilmente perché più fragili. È il caso di CoreWeave, che settimana scorsa ha avuto un bel po’ di sofferenza in borsa. E probabilmente, nessuno di voi ha mai sentito parlare di questa società… eppure è uno di quei protagonisti di questo “girotondo” di miliardi, e se volete potete accedere a maggiori informazioni nel secondo nostro AI BOX (Qui2 - il link/ancora funziona solo dal web, se siete sulla newsletter andate in fondo a questo articolo).
Cosa potrebbe succedere, se si spezza la giostra? Se il punto debole si dovesse spezzare (e non è detto che sarà CoreWeave, che come spiegato nel box pur avendo subìto una perdita la scorsa settimana, ha ancora un andamento positivo), succederebbe che ci saranno scossoni, che molte aziende semplicemente scompariranno, che alcune molto grandi diventeranno ancora più grandi (il mondo di Internet ci ha già mostrato questo percorso, dove alla fine sono state poche le “startup” che sono diventate giganti profittevoli: Amazon, Google, eccetera…). Per noi esseri umani, che non è detto che investiamo in borsa (noi di sicuro no, se siete abbastanza coraggiosi da affrontare questa situazione, auguri), che conseguenze potremmo subire? Per esempio potremmo investire sforzi, lavorare su progetti e credere in un disegno del futuro che potrebbe non rispondere nella realtà a quello che possiamo anche immaginare. Ha quindi senso rimanerne al di fuori? Anche qui, la strada non è quella giusta, secondo noi, anzi: come dicevamo all’inizio, quando spiegavamo la nascita di questa rubrica, serve avere coscienza di quello che succede, di come si muovono le situazioni e quindi capire come affrontarle.
C’è per esempio un’interessante evoluzione che si è affacciata proprio in questi giorni e che fa immaginare/ipotizzare che forse le storie che abbiamo sentito in questo periodo potrebbero avere una evoluzione diversa dal “sentito dire”. Parliamo di Apple che per due anni è stata accusata di non avere calcolato bene le evoluzioni dell’AI, di essere rimasta spiazzata dall’uscita di ChatGPT e dagli altri LLM, di essere l’unica grande del business della tecnologia che non ha investito cifre folli (che, appunto, sono folli come abbiamo visto) in infrastrutture AI e che per aggiornare la sua SIRI (ormai evidentemente una presenza decisamente inadeguata e stupida all’interno dei nostri iPhone e Mac): Apple ha dovuto andare dal suo concorrente più grande, Google, quello di Android, per potenziarla con Gemini. Eppure, pochi giorni fa, Apple ha annunciato un nuovo programma per sviluppatori che si chiama Mini Apps Partner Program. Ne parliamo nell’AI BOX che trovate (Qui3 - il link/ancora funziona solo dal web, se siete sulla newsletter andate in fondo a questo articolo), ma la cosa importante da capire, parlandone qui tra di noi, è che è un passo che consideriamo importantissimo perché si avvicina a quello che, siamo sicuri, sarà il futuro dell’AI, che non sarà più circoscritta in mille applicazioni e software e servizi che ci portano a dover pagare “la stessa benzina” (o la stessa “acqua”, o “elettricità”, usate la metafora che preferite). Pensate bene, magari non oggi (perché forse usate delle AI che ancora vi regalano degli accessi gratuiti, ma non sarà così in futuro, a causa proprio di quel peso economico di cui vi abbiamo parlato), ma in futuro pagherete e pagheremo per:
→ l’AI per Photoshop
→ l’AI per tradurre e fare sommari
→ l’AI per gestire Excel
→ l’AI per il 3D
→ l’AI per cercare i contenuti sul web
E così via. Ma nella realtà, la “benzina” (l’acqua, la corrente elettrica) è sempre la stessa, semplicemente confezionata per offrire servizi che in parte vendono la loro tecnologia, ma anche il consumo della benzina, e su questa operazione di “rivendita” ci sono margini che peseranno e che non avranno senso. Nell’ottica del futuro, si può immaginare che ci sarà un sistema operativo che si collegherà direttamente alla “benzina” (eccetera, eccetera…) che sarà una bolletta che pagheremo a parte e poi sceglieremo i servizi per noi utili, che andranno a richiamare le gocce di AI che serviranno per alimentarle/supportarle, e queste “gocce” saranno sempre più gestite in locale, sia per ottimizzare i costi dell’AI all’utente finale, sia per rispettare la privacy. La soluzione di Apple con questa idea delle mini app rende possibile questa visione di un layar di funzionalità che si “aggancia” ad uno strato sottostante, facendoci ipotizzare che la piattaforma hardware di Apple potrebbe diventare più rilevante per questa evoluzione rispetto ad altre; non è un caso che Apple abbia investito tantissimo per risultare sempre più efficiente proprio nel gestire calcoli AI in locale (e non sul cloud); pensate che in 5 anni, i processori Apple della serie M sono diventati 6 volte più potenti in questa specifica azione di calcolo, ma solo in quest’ultimo anno (dall’M4 all’M5) questa potenza è cresciuta di 4 volte (Qui approfondimento 4 -il link/ancora funziona solo dal web, se siete sulla newsletter andate in fondo a questo articolo ).
Non stiamo facendo promozione ad Apple, e non vogliamo che la sintesi di tutto questo discorso sia quello “comprati un Mac”, davvero non è questo il concetto. Stiamo dicendo che le cose sono più complesse di quello che si legge in giro (ieri abbiamo sentito un podcast di “esperti” di AI che parlavano di Photoshop dicendo che “è un software che ha ben 10 anni di vita”... peccato che sono 35 gli anni di Photoshop). E proprio perché è complesso, addirittura per le grandi aziende che vedono il futuro prima di noi (molto prima) e che addirittura lo costruiscono, questo futuro, ad immagine e somiglianza loro, eppure sbagliano, o sembrano sbagliare, vogliamo accompagnarvi in territori che sembrano distanti, inutili, superflui, ma che invece vi aiuteranno a capire che il futuro degli strumenti del nostro lavoro (qualunque sia il nostro lavoro) dovremo sceglierli, selezionarli, comprenderli sulla base di una visione più ampia, che ha a che fare con i soldi, con le evoluzioni della società, con le scelte della politica, che spesso non riusciamo a capire (o che, peggio ancora, pensiamo di capire). Abbiamo letto un articolo interessante su Linkiesta che dice che Ci vuole un leader così intelligente da sembrare fesso, e non viceversa. Il senso, secondo noi interessante (al netto delle opinioni politiche, oguno ha le sue, per fortuna), dice che ultimamente tendiamo a credere meno alle persone più posate, che sembrano “riflettere prima di rispondere” perché interpretiamo questa lentezza come “falsità”, mentre accettiamo molto più facilmente delle sonore ed evidenti bugie da parte di quei politici che reagendo istintivamente (pur dicendo bugie fragorose) sembrano più sinceri, perché i loro pensieri non sono filtrati dalla “ragione”.
Bene, quello che vogliamo fare (e che facciamo da sempre in questo spazio) anche in un ambito dove siamo meno a casa nostra, è provare a riflettere e a farvi riflettere. Mettere nero su bianco questi fatti, queste visioni, fare ricerca con un obiettivo (parlarvene, informarvi), separare il pensiero e le opinioni dai contenuti pur seri generati dall’AI è un nostro piccolo contributo per provare a trovare spazi, voci, attenzione da parte di quel pubblico di persone serie, curiose, preziose che da sempre ricerchiamo.
E se trovate interessante questo approccio, sappiate che è quello che adottiamo nei nostri altri progetti, di informazione, di formazione, di consulenza che rientrano nel progetto Aiway Magazine. Scoprite, chiedete, seguite ;-)
AIBOX - Nota di approfondimento redatta con il supporto dell’AI e controllata con sistema di fact checking
Il grande girotondo del denaro nell’intelligenza artificiale
Centinaia di miliardi di dollari si muovono ogni settimana tra i giganti dell’intelligenza artificiale. OpenAI annuncia accordi da 200 miliardi con Nvidia, Oracle firma contratti da 300 miliardi, AMD cede il 10% delle proprie azioni per garantirsi ordini futuri. Ma se si traccia il percorso effettivo di questo denaro, emerge un pattern curioso: il capitale sembra muoversi in cerchio, tornando sempre al punto di partenza.
Il meccanismo è semplice. Microsoft versa miliardi a OpenAI, che li restituisce a Microsoft per i data center Azure. Microsoft gira questi ricavi a Nvidia per acquistare GPU da mettere in quei data center, che OpenAI utilizzerà per addestrare i modelli. Lo stesso schema si replica con Amazon e Anthropic: investimento iniziale, pagamento per AWS, acquisto di hardware. Il denaro fluisce in cerchio, generando fatturato per tutti anche se si tratta dello stesso capitale che cambia ripetutamente mano.
Gli accordi recenti hanno portato questo modello a un livello estremo. Nvidia dichiara di investire 100 miliardi in OpenAI, che annuncia l’acquisto di chip Nvidia per 200 miliardi usando proprio quei fondi. Oracle riceve 300 miliardi da OpenAI e li gira a Nvidia per comprare GPU. AMD offre a OpenAI il 10% delle proprie azioni - circa 30 miliardi - per assicurarsi un ordine da 100 miliardi, beneficiando dell’impennata del titolo generata dall’annuncio. Oltre alla circolazione circolare emerge un uso massiccio di leva finanziaria: XAI ha strutturato il proprio round con 7,5 miliardi in equity e 12,5 miliardi in debito, affittando i chip agli investitori per cinque anni e mantenendo le spese fuori bilancio.
Dietro gli annunci miliardari, i numeri operativi raccontano una storia diversa. OpenAI registra 10 miliardi di ricavi annuali, Anthropic 5 miliardi. Insieme fanno 15 miliardi, con crescita in rallentamento. Ma nessuna è profittevole: al contrario, più fatturato generano più perdono, con margini stimati al -130%. OpenAI brucia oltre un miliardo al mese solo in costi operativi, tanto da aver dovuto raccogliere 6,6 miliardi in un nuovo round di finanziamento.
Il problema è strutturale: produrre le risposte costa più di quanto gli utenti paghino, e questo divario sta aumentando. I modelli diventano più complessi e costosi, mentre le aspettative degli utenti crescono. L’ipotesi di introdurre pubblicità nei chatbot presenta problemi etici: come garantire raccomandazioni imparziali quando l’azienda guadagna dagli inserzionisti? Il rischio è compromettere la fiducia, che è il principale valore di questi strumenti.
Nonostante le perdite, le valutazioni salgono. OpenAI vale 50 volte il proprio fatturato, Nvidia è cresciuta del 1.600% dall’arrivo di ChatGPT. Il roundtripping - passaggio circolare di denaro per gonfiare le valutazioni - è illegale quando manipola il mercato, ma la situazione attuale ha caratteristiche peculiari: accordi pubblici, cifre trasparenti, aziende visibili. Resta da vedere se le autorità considereranno questi flussi come strategia legittima o manipolazione.
Gli scenari sono due. Nel primo, queste aziende moltiplicano i ricavi per 20 e trasformano margini negativi in positivi del 20-30%, trovando modelli di monetizzazione sostenibili. Nel secondo, il meccanismo raggiunge il punto di saturazione: gli investitori chiedono prove concrete, il capitale rallenta, le valutazioni crollano. Per ora il mercato scommette sulle promesse. Il tempo dirà se era giustificato.
CoreWeave: il punto debole del circuito AI
CoreWeave è un nodo critico nel flusso circolare denunciato dal video:
Nvidia investe in CoreWeave (7% partecipazione, valore attuale ~$3 miliardi)
CoreWeave compra GPU Nvidia (~$7,5 miliardi per 250.000 GPU)
Nvidia “compra” servizi cloud da CoreWeave ($6,3 miliardi fino al 2032)
CoreWeave serve OpenAI ($12-16 miliardi in contratti), che è finanziata da... Nvidia
Risultato: Nvidia recupera tutto investendo in un cliente che le compra GPU.
La crisi finanziaria (novembre 2025)
Numeri insostenibili:
$14 miliardi di debito totale (tassi 11-15%)
$20-23 miliardi di capex nel 2025
Solo $5 miliardi di ricavi effettivi
Margini operativi: 1,6-4% (quasi zero)
Free cash flow: -$8 miliardi/anno
71% dei ricavi da un solo cliente (Microsoft)
Crollo del titolo:
IPO marzo 2025: $40
Picco luglio 2025: $187 (+367%)
Attuale novembre 2025: $77 (-57% dal picco, ma ancora +94% da IPO)
Ultima settimana: -25%
Ultime due settimane: -40%
Trend: Rapido deterioramento nonostante crescita ricavi del +134% YoY
Perché è importante
CoreWeave è il “canarino nella miniera” che dimostra in tempo reale che il modello del roundtripping non funziona:
Ha clienti solidi (Microsoft 71%, OpenAI, Meta)
Ha tecnologia validata (250.000 GPU)
Ha contratti futuri per $55,6 miliardi
Ma perde soldi su ogni dollaro di ricavo (margini 1,6-4%)
Il debito cresce più veloce dei ricavi
Apple Mini Apps: la rivoluzione silenziosa della distribuzione
Apple ha appena lanciato qualcosa che sembra un dettaglio tecnico ma è in realtà un terremoto silenzioso: il “Mini Apps Partner Program”. In pratica, Apple sta dicendo agli sviluppatori che possono creare piccole applicazioni HTML/JavaScript che vivono dentro app native più grandi, mantenendo l’85% dei ricavi invece del solito 70%.
Può sembrare poco, ma è Apple che porta in Occidente il modello delle “superapp” che già domina in Asia. In Cina WeChat non è solo una chat: è un ecosistema dove vivi, paghi, prenoti, ordini cibo, tutto attraverso mini-programmi integrati. In India c’è PhonePe Switch che fa qualcosa di simile. In Occidente, fino a ieri, non c’era niente del genere. Ora Apple ha aperto la porta.
Il problema della distribuzione è finito
Per anni il grande ostacolo per qualsiasi sviluppatore è stato convincere le persone a scaricare un’altra app. L’App Store è saturo, gli utenti hanno già troppe app, la soglia psicologica del download è altissima. Con le mini-app questo problema sparisce: non devi più convincere nessuno a installare nulla. Inserisci la tua mini-app dentro un’app che ha già traffico e accedi istantaneamente ai suoi utenti. È come se ogni app popolare diventasse potenzialmente una vetrina per centinaia di altri servizi.
Immagina un’app di fitness che ospita mini-app per diete personalizzate, tracker del sonno, prenotazione personal trainer. Oppure un marketplace che integra calcolatori di spedizione, tool di comparazione prezzi, assistenti AI per lo shopping. Gli utenti sono già lì, già autenticati, già con la carta di credito salvata. Tu come sviluppatore entri in questo ecosistema senza dover ripartire da zero.
Perché Apple fa questo
La cosa più interessante è il revenue share: 85% agli sviluppatori, solo 15% ad Apple. Questo è anomalo. Apple normalmente prende il 30%, e scende al 15% solo dopo il primo anno di abbonamento. Qui parte direttamente dall’85/15. Quando Apple rinuncia volontariamente a una fetta così grossa di ricavi, significa che vede arrivare qualcosa di grosso e vuole accelerarlo piuttosto che rallentarlo per massimizzare i profitti di breve termine.
Apple sta creando un nuovo strato economico che potremmo chiamare “software embedded”: non più applicazioni standalone che devono conquistare utenti una per una, ma micro-servizi che si innestano dove gli utenti già sono. Un CRM che vive dentro un tool verticale per dentisti. Una calcolatrice matematica AI dentro un’app per studenti. Un sistema di prenotazioni dentro un’app di eventi. Tutti questi non hanno bisogno di esistere come app separate, e forse è meglio così.
L’intelligenza artificiale cambia tutto
Questo discorso diventa dieci volte più rilevante se pensi all’AI. Gli strumenti basati su modelli linguistici sono per natura piccoli, specifici, verticali: un assistente che ti aiuta a scrivere email, un planner che organizza la tua settimana, un coach che ti dà consigli finanziari. Sono perfetti come mini-app. Apple ha appena costruito l’infrastruttura perfetta perché queste micro-utility AI native possano vivere dentro app più grandi, con il commercio già integrato, senza che l’utente debba fare nulla di speciale.
Chi ci guadagna davvero
Il bello è che il beneficio è doppio. Se sei uno sviluppatore indie, ora hai accesso a distribuzione che prima era impossibile: invece di combattere nell’oceano dell’App Store, puoi fare partnership con app che hanno già milioni di utenti. Se invece sei chi possiede un’app con traffico, improvvisamente diventi una piattaforma: puoi ospitare decine di mini-app, prendere una percentuale su ognuna, costruire un ecosistema di sviluppatori intorno al tuo prodotto. È un nuovo modo di monetizzare ciò che hai già costruito.
Attorno a questo nascerà un intero settore: agenzie specializzate nel trasformare app esistenti in host per mini-app, team di sviluppo dedicati solo a mini-app, toolkit stile Shopify per chi vuole creare mini-app senza partire da zero, marketplace dove scoprire quali mini-app integrare, sistemi di analytics per capire quali performano meglio. È l’inizio di un ecosistema completamente nuovo.
Il futuro che si intravede
Apple sta fondamentalmente dicendo che l’App Store del futuro non sarà più un catalogo piatto di applicazioni isolate, ma un sistema stratificato dove le app sono componibili, modulari, interconnesse. Il software dei prossimi dieci anni assomiglierà meno a prodotti standalone e più a ecosistemi cuciti insieme da decine di micro-servizi specializzati.
Per chi vuole costruire qualcosa oggi, la domanda cambia forma: non è più “come convinco le persone a scaricare la mia app?” ma “quale app esistente potrebbe ospitare il mio servizio per dare accesso immediato ai suoi utenti?”. È un modo completamente diverso di pensare alla distribuzione, e probabilmente è il cambiamento più importante in questo ambito da quando è nato l’App Store stesso.
Apple l’ha annunciato sottovoce, quasi come un dettaglio tecnico per sviluppatori. Ma è molto più grande di così.
Apple M5: la potenza AI moltiplicata per sei in cinque anni (di cui quattro volte solo nell’ultimo)
Apple ha presentato il chip M5 il 15 ottobre 2025, e i numeri sulla capacità di calcolo AI raccontano una storia precisa: in cinque anni, dal primo M1 del 2020 all’M5, Apple ha moltiplicato per sei la potenza di elaborazione AI dei suoi processori. La cosa sorprendente è che quattro di queste sei volte sono arrivate soltanto nell’ultimo anno, tra M4 e M5.
Il dato chiave riguarda le performance GPU dedicate all’intelligenza artificiale. L’M5 elabora task AI sei volte più velocemente del chip M1 originale, e quattro volte più velocemente dell’M4 lanciato appena un anno fa. Questa accelerazione è il risultato di una scelta architettuale radicale: Apple ha smesso di concentrare l’AI in un singolo componente dedicato (il Neural Engine) e ha distribuito acceleratori AI in ogni singolo core della GPU.
In pratica significa che l’M5 integra dieci “Neural Accelerators” - uno per ogni core grafico - che lavorano in parallelo al Neural Engine tradizionale da 16 core. Il risultato concreto si vede nei benchmark reali: video enhancement con AI è 7.7 volte più veloce rispetto all’M1, la generazione di immagini da testo è 3.5 volte più rapida dell’M4, i modelli linguistici locali elaborano il 45% di token in più al secondo.
Apple ha anche più che raddoppiato la banda di memoria rispetto all’M1, passando da 68.25 GB/s a 153.6 GB/s. Questo significa che i dati possono fluire più velocemente tra i vari componenti del chip, elemento cruciale quando si eseguono modelli AI di grandi dimensioni direttamente sul dispositivo senza appoggiarsi al cloud.











