Sunday Jumper
Sunday Jumper Podcast
Spacetime Slices: a Milano-Cortina 2026 l’AI ferma il tempo
0:00
-8:21

Spacetime Slices: a Milano-Cortina 2026 l’AI ferma il tempo

Alle Olimpiadi di Milano-Cortina 2026, l’AI dimostra che non è manipolazione ma valore aggiunto. Cosa possiamo imparare noi fotografi dalla tecnologia Spacetime Slices di Alibaba

Mentre guardiamo le immagini spettacolari che arrivano dalle Olimpiadi Invernali Milano-Cortina 2026, c’è una rivoluzione in atto che probabilmente sfugge alla maggior parte degli spettatori, ma che noi fotografi professionisti non possiamo permetterci di ignorare. Alibaba Cloud, in partnership con Olympic Broadcasting Services (OBS) e il Comitato Olimpico Internazionale, sta dimostrando al mondo che l’intelligenza artificiale applicata alla documentazione visuale non significa creare finzione o manipolare la realtà, ma aggiungere strati di comprensione, emozione e valore informativo che sarebbero impossibili da ottenere con la sola tecnologia fotografica tradizionale.

La tecnologia al centro di questa rivoluzione si chiama Spacetime Slices, ed è esattamente quello che il nome suggerisce: un sistema che crea immagini composite mostrando multiple fasi del movimento di un atleta in una singola visualizzazione. Non è il solito rallentatore che conosciamo tutti, non è nemmeno il classico effetto bullet-time che abbiamo visto nei film come Matrix (e che pure era stato introdotto alle Olimpiadi di Beijing 2022). Spacetime Slices va oltre, creando una prospettiva simultanea di diversi istanti temporali che permette agli spettatori di comprendere meglio la tecnica, la biomeccanica, la perfezione o l’imperfezione di un gesto atletico. È informazione visuale pura, non è trucco, non è finzione.

(frames del video che abbiamo pubblicato, che mettono in evidenza la tecnica adottata per visualizzare il “replay a 360° gradi” realizzato con tecnologia AI di Alibaba)

E qui arriviamo al punto che dovrebbe farci riflettere come fotografi professionisti: questa tecnologia viene generata in 15-20 secondi. Pensateci: dal momento in cui un atleta compie un salto con gli sci o una piroetta sul ghiaccio, a quando il sistema di intelligenza artificiale consegna una ricostruzione tridimensionale completa, passano meno di venti secondi. Questo è sufficientemente rapido per l’inserimento diretto nelle trasmissioni live, per alimentare i social media in tempo quasi reale, per trasformare un momento olimpico in contenuto didattico, emozionale e virale mentre l’evento è ancora in corso.

Ma facciamo un passo indietro per capire come funziona davvero. Il cuore del sistema è un algoritmo di intelligenza artificiale che esegue un’operazione tecnicamente complessa: separare l’atleta dallo sfondo. E non stiamo parlando di ritagliare una persona da un muro bianco in studio: stiamo parlando di isolare un corpo in movimento rapido su neve che riflette la luce in modo imprevedibile, su ghiaccio che è trasparente e riflettente, in condizioni di illuminazione che cambiano continuamente tra interni ed esterni. Questa è la sfida che l’AI di Alibaba risolve fotogramma per fotogramma, creando poi ricostruzioni tridimensionali fluide che permettono di visualizzare l’azione da angoli che nessuna telecamera fisica ha mai ripreso.

(qui sopra immagini scattate nell’area stampa delle Olimpiadi Milano-Cortina 26, sede di Milano, durante l’allestimento, con grande enfasi per gli spazi dedicati all’infrastruttura Alibaba Cloud)

Ora, la domanda che dovremmo farci è: perché tutto questo dovrebbe interessarci come fotografi professionisti? La risposta è semplice e allo stesso tempo profonda: perché dimostra che la tecnologia non è più solo quella fotografica. Per decenni abbiamo pensato che l’evoluzione del nostro lavoro passasse attraverso sensori più grandi, obiettivi più nitidi, corpi macchina più veloci e ovviamente quello che possiamo definire come “machine learning” che opera nei processori delle fotocamere più potenti ed evolute, e certamente, questi elementi continuano ad essere importanti, anche se l’innovazione in questo campo è più lenta perché trova un bacino di sviluppo economico molto circoscritto. Quello che sta succedendo a Milano-Cortina ci mostra che il vero salto qualitativo, quello che fa la differenza tra un’immagine ottima che “mostra” l’istante di una prestazione fisica e umana e un’immagine che spiega, permette di immergersi, di capire e di confrontare. Due ruoli, due missioni, due approcci al “sapere visuale.

Parallelamente alla tecnologia Spacetime Slices, c’è un altro elemento rivoluzionario in atto a queste Olimpiadi che merita la nostra attenzione: per la prima volta nella storia olimpica, viene utilizzato un sistema basato su modelli di linguaggio di grandi dimensioni (LLM), alimentato da Qwen, il modello AI di Alibaba che fa qualcosa di straordinario: permette ai broadcaster e ai creatori di contenuti di cercare negli archivi olimpici usando semplicemente il linguaggio naturale. “Trova la performance di pattinaggio artistico della medaglia d’oro”, “Mostra tutti i salti di sci sopra i 130 metri”, oppure “Cerca le cadute nell’hockey su ghiaccio del 7 febbraio”. Il sistema recupera queste informazioni quasi istantaneamente, attingendo a oltre 8 petabyte di contenuti storici che vengono automaticamente taggati dall’intelligenza artificiale entro pochi secondi dalla loro produzione.

Schemi esplicativi della tecnologia Alibaba Cloud usata durante le Olimpiadi Milano-Cortina 26 spiegate in questo articolo (dalla pagina di Alibaba Cloud)

E qui c’è un altro collegamento diretto con il nostro lavoro quotidiano: quanti di noi si trovano ad avere migliaia, decine di migliaia di immagini archiviate che sono sostanzialmente inutilizzabili perché il tempo necessario per trovarle e catalogarle supera il valore commerciale che potrebbero generare? L’AI sta risolvendo questo problema per gli archivi olimpici, e le stesse tecnologie stanno già arrivando (o sono già disponibili) anche per noi. Ma soprattutto, quello che questa applicazione olimpica ci insegna è che l’AI può trasformare contenuti che sarebbero rimasti inutilizzati in una biblioteca vivente e ricercabile, democratizzando l’accesso a decenni di lavoro professionale e moltiplicandone il valore nel tempo.

Ma c’è di più. Uno degli aspetti più interessanti della tecnologia olimpica è come stia ridefinendo non solo la produzione, ma anche la distribuzione e la fruizione delle immagini. OBS Content+, la piattaforma cloud alimentata da Alibaba, distribuisce oltre 5.000 pezzi digitali short-form per queste Olimpiadi: contenuti dietro le quinte, highlights, reazioni emozionali, clip ottimizzate per social media. Il volume più grande di asset digitali ready-to-use nella storia olimpica, e tutto gestito attraverso sistemi cloud che permettono ai team di tutto il mondo di trovare, editare e pubblicare contenuti in tempo reale.

Questo dovrebbe farci riflettere su come stiamo strutturando il nostro lavoro. Quanti di noi consegnano ancora ai clienti un set di file JPEG su una chiavetta USB (speriamo che non si faccia più) o tramite WeTransfer, e poi il rapporto finisce lì? Le Olimpiadi ci mostrano un modello diverso: contenuti che continuano a generare valore nel tempo, che vengono riscoperti e riutilizzati, che alimentano narrazioni multiple su piattaforme diverse. E tutto questo è possibile perché l’AI fa il lavoro pesante di catalogazione, tagging, ottimizzazione per i diversi formati e piattaforme.

L’AI alle Olimpiadi di Milano-Cortina non sta sostituendo i fotografi e i cameraman. Sta permettendo loro di fare cose che prima erano impossibili, di raccontare storie più ricche, di offrire ai broadcaster e agli spettatori livelli di analisi e coinvolgimento che solo pochi anni fa erano pura fantascienza. E questo è esattamente quello che l’AI può fare per noi fotografi professionisti: non sostituirci, ma moltiplicare esponenzialmente il valore che possiamo offrire ai nostri clienti.

In definitiva, quello che sta succedendo a Milano-Cortina è molto più di una semplice dimostrazione dell’innovazione tecnologica nel broadcasting sportivo. È una dimostrazione concreta, visibile a milioni di persone in tutto il mondo, di come l’intelligenza artificiale possa integrarsi nel lavoro di documentazione visuale senza tradire la realtà, anzi arricchendola. È la prova che la tecnologia non è più solo quella fotografica, ma comprende tutto l’ecosistema di strumenti che usiamo per ideare, catturare, elaborare e distribuire le nostre immagini. Ed è un invito, rivolto a tutti noi professionisti dell’immagine, a smettere di guardare all’AI con sospetto o come a una minaccia, e iniziare a vederla per quello che realmente è: il compagno di viaggio che ci permetterà di raggiungere livelli di professionalità e di impatto che da soli non potremmo mai ottenere.

La domanda quindi non è se l’AI farà parte del nostro futuro professionale (la risposta è: sì, inevitabilmente), ma come sceglieremo di integrarla nel nostro lavoro. Possiamo usarla in modo pigro, limitandoci ai trucchi facili che impressionano per cinque secondi, ma non aggiungono valore reale. Oppure possiamo usarla come stanno facendo alle Olimpiadi: con intelligenza, rigore e l’obiettivo di offrire qualcosa che prima era impossibile. La scelta, come sempre, è nostra.


Vi segnaliamo che abbiamo aggiornato il tool Aiway Image Analyzer che vi abbiamo presentato settimana scorsa e che ora è molto più funzionale.
Scopritelo e provatelo qui!


Condividi

Assolutamente, procediamo.