Sunday Jumper
Sunday Jumper Podcast
Stiamo guardando dalla parte sbagliata
0:00
-13:22

Stiamo guardando dalla parte sbagliata

Il vero furto non sono le nostre immagini nei dataset AI. È la perdita del nostro sguardo, del nostro tempo, della nostra capacità di scegliere.

Negli ultimi mesi abbiamo visto esplodere ovunque la discussione sul copyright e l’intelligenza artificiale. Fotografi, illustratori, grafici che si arrabbiano perché le loro immagini sono finite in qualche dataset per addestrare modelli generativi. È una battaglia che ha senso, per carità, almeno sul piano etico e morale, ma dovremmo domandarci se - pur su una diversa scala - non sia quello che facciamo anche noi esseri umani, perché è proprio così: facciamo esattamente la stessa cosa e allora perché le macchine hanno colpe e gli umani no? Ma comunque e andando oltre, mentre ci concentriamo su questo – controllando se una nostra foto è stata forse usata per far funzionare un algoritmo – c’è qualcosa di molto più grande e molto più silenzioso che sta succedendo. E quasi nessuno se ne sta accorgendo.

Perché il punto non è solo chi usa le nostre immagini per addestrare un’AI. Il punto è cosa succede a noi mentre guardiamo le immagini degli altri. O meglio: cosa succede alla nostra capacità di interpretare la realtà mentre scorriamo feed infiniti pensando di vedere “il mondo”, quando in realtà stiamo vedendo solo ciò che un algoritmo ha deciso che dovremmo vedere.

La sentenza che non chiude nulla (ma apre domande)

Partiamo dai fatti. Una corte britannica ha stabilito che usare immagini protette da copyright per addestrare modelli di intelligenza artificiale non costituisce violazione del diritto d’autore. Stability AI ha vinto, almeno in parte, contro Getty Images. La motivazione tecnica è che l’uso delle immagini per il training non equivale a una riproduzione o comunicazione al pubblico delle opere. Quindi, formalmente, non infrange la legge sul copyright.

Ovviamente questa è solo una sentenza. Ce ne saranno altre. Altre legislazioni dovranno pronunciarsi. Ci vorranno anni prima di avere un quadro chiaro a livello globale. Ma intanto, mentre la discussione legale va avanti – e ci mancherebbe, è giusto che vada avanti – stiamo perdendo di vista un’altra questione. Una questione che non riguarda le opere che creiamo, ma il modo in cui guardiamo il mondo.

Il vero prodotto siamo noi

Perché se c’è una cosa che le piattaforme social hanno capito perfettamente è che il vero valore non sono i contenuti che pubblichi. Il vero valore sei tu che li consumi. Ogni like, ogni pausa su un’immagine, ogni scroll veloce, ogni commento. Ogni volta che ti fermi su un post, che clicchi su un link, che condividi qualcosa. Tutto questo racconta chi sei. Cosa ti interessa. Cosa ti emoziona. Cosa ti fa arrabbiare. Cosa ti convince a comprare qualcosa. Cosa ti fa cambiare idea.

E questo – questo sì – è oro puro per chiunque voglia costruire modelli predittivi del comportamento umano.

Prendiamo Meta, per esempio. Dal 16 dicembre 2025, le conversazioni che hai con Meta AI – su Facebook, Instagram, WhatsApp, Messenger, perfino sui tuoi Ray-Ban smart glasses – vengono ufficialmente utilizzate per personalizzare gli annunci pubblicitari. Non puoi scegliere di bloccare solo la profilazione: o disattivi completamente Meta AI, o accetti che tutto ciò che dici, chiedi, mostri venga usato per venderti qualcosa.

La nuova policy si applica globalmente, con alcune eccezioni iniziali per Europa, Regno Unito e Corea del Sud, dove le leggi sulla privacy sono più stringenti. Ma Meta ha già chiarito: “speriamo di offrire queste esperienze personalizzate ovunque presto”.

Ma c’è un altro aspetto, forse ancora più preoccupante, che riguarda direttamente gli utenti europei. Dal 27 maggio 2025, Meta ha iniziato a usare i post pubblici, le foto, i commenti degli utenti EU per addestrare i suoi modelli di intelligenza artificiale – Llama, Meta AI e altri. Non per mostrarti pubblicità, ma per insegnare alle sue AI come funziona il linguaggio umano, come interpretiamo le immagini, come comunichiamo.

Gli utenti europei avevano tempo fino al 27 maggio 2025 per opporsi a questa raccolta. Se l’hai fatto in tempo, i tuoi dati pubblici non dovrebbero essere usati per il training. Se non l’hai fatto – e la maggior parte delle persone non lo sapeva nemmeno – Meta ha iniziato a usare tutto ciò che hai pubblicato pubblicamente negli ultimi anni per addestrare le sue AI.

E qui viene il punto critico: i dati già usati per addestrare un modello AI non possono essere rimossi. Non è questione di volontà, è tecnicamente impossibile. Come spiega Max Schrems, fondatore di NOYB (l’organizzazione europea per i diritti digitali), una volta che un’AI è stata addestrata sui tuoi dati, non può “disimpararli” selettivamente. Puoi opporti ora per il futuro – e i tuoi nuovi post pubblici non verranno usati – ma quello che è già stato acquisito resta dentro il sistema. Per sempre. Meta stessa lo ammette: non può garantire i diritti GDPR di cancellazione e rettifica per i dati già integrati nei modelli AI.

Quindi ricapitoliamo. Mentre ci preoccupiamo perché qualcuno ha usato una nostra foto per addestrare i modelli di generazione di immagini, stiamo regalando volontariamente – probabilmente senza nemmeno saperlo – anni di post pubblici, comportamenti, conversazioni a Meta. Che li usa per addestrare le sue AI. E poi userà le nostre chat con quelle stesse AI per profilarci ancora meglio e venderci pubblicità ancora più mirata.

Non le nostre opere. Noi stessi. Il nostro modo di comunicare. Il nostro modo di pensare. Le nostre preferenze, le nostre paure, i nostri desideri. Tutto mappato, analizzato, trasformato in modelli predittivi. E una volta dentro, non esce più.

Il feed è diventato una simulazione

E c’è un altro livello del problema, ancora più sottile. La maggior parte dei contenuti che vediamo sui social ormai non sono più creati da persone reali, ma da algoritmi. O da persone che si comportano esattamente come algoritmi. Guardiamo un feed e pensiamo di vedere “la realtà”. In realtà stiamo vedendo una ricostruzione parziale, ottimizzata, manipolata di ciò che qualcuno – o qualcosa – ha deciso che dovremmo vedere.

James O’Sullivan, in un articolo pubblicato su Noema Magazine intitolato “The Last Days Of Social Media”, descrive con precisione e concretezza cosa è diventato lo scroll infinito. I feed sono ormai invasi da contenuti generati dall’AI, bot che si spacciano per persone, account duplicati, spam ottimizzato per l’engagement. Non conta più se quello che vedi è reale o sintetico. Conta solo se genera interazione.

E mentre i contenuti si moltiplicano all’infinito, l’engagement crolla. Gli utenti non interagiscono più come prima. Scrollano, passivi, in uno stato che O’Sullivan definisce “dissociazione ambientale”. Il feed non è più un luogo sociale. È un dispositivo di regolazione dell’umore, che si rigenera all’infinito con contenuti abbastanza nuovi da tenerti lì, ma abbastanza vuoti da non chiederti nulla in cambio.

E la cosa più inquietante? Le persone sanno che il feed è falso. Eppure, continuano a scrollare lo stesso. Non per scelta, ma perché ormai la partecipazione ai social non è più opzionale. Se sei un professionista, non puoi permetterti di uscire da LinkedIn. Se hai un’attività, non puoi abbandonare Instagram. Se lavori nella creatività, devi esserci, devi postare, devi alimentare la macchina. Anche se sai che la macchina non ti restituisce nulla in cambio se non ansia, confronto tossico e la sensazione costante di non essere mai abbastanza.

Ma c’è un dettaglio importante che O’Sullivan nota: mentre tutto questo succede, le persone non stanno semplicemente guardando contenuti neutri. Stanno formando le loro opinioni, le loro convinzioni, il loro modo di interpretare la realtà basandosi su ciò che vedono nei feed. E se ciò che vedono è sempre più manipolato, ottimizzato, sintetico, allora anche il loro modo di guardare il mondo lo diventa.

Avere pochi follower sta diventando un lusso

Eppure qualcosa sta cambiando. Non per bontà delle piattaforme, ma per stanchezza degli utenti. Kyle Chayka, in un articolo per The New Yorker, segnala un fenomeno interessante: essere “piccoli” sui social sta diventando un segno di distinzione. Avere pochi follower. Non ottimizzare i contenuti. Pubblicare quando ti pare senza rincorrere l’algoritmo. È un modo per dire: “Io non gioco a questo gioco”. E sta diventando una forma di status.

Emily Sundberg, nella sua newsletter Feed Me, ha elogiato Julia Vitale, nuova caporedattrice della rivista Air Mail, per avere meno di 500 follower sul suo Instagram privato. Jonah Weiner, su Blackbird Spyplane, ha lodato la stylist Lotta Volkova – che ha mezzo milione di follower – per postare immagini completamente banali (un paesaggio fluviale, una fila di armadietti) che ricevono solo qualche centinaio di like. E per il fatto che non sembrarle importare minimamente.

Il messaggio è chiaro: chi può permettersi di non inseguire i numeri, lo fa. E questo, oggi, è un lusso. Significa che il tuo valore non dipende dall’algoritmo. Che il tuo lavoro si regge su altro: relazioni reali, competenze concrete, reputazione costruita offline.

Mentre chi è costretto a performare sui social – per vendere, per farsi notare, per non sparire – è intrappolato in una ruota che gira sempre più veloce. Dove devi sempre produrre di più, ottimizzare di più, inseguire trend che cambiano ogni settimana.

E c’è un altro aspetto che Chayka nota: i numeri alti non significano più nulla. Follower comprati, bot, account morti, hater che ti seguono solo per commentare male. L’engagement è crollato ovunque: su Facebook e X siamo allo 0,15% medio, su Instagram è sceso del 24% anno su anno. I grandi account sono spesso eredità del passato, profili che hanno accumulato numeri in un’epoca diversa e ora vivacchiano di rendita.

I progetti nuovi, quelli davvero interessanti, hanno spesso comunità piccole ma attive. Perché l’attenzione vera è scarsa. E la scarsa attenzione non si moltiplica, si concentra.

Forse serve rallentare

Non stiamo dicendo che la battaglia sul copyright sia inutile (ma che andrebbero riscritte e ripensate le regole). Stiamo dicendo che forse non basta. Forse serve anche una battaglia culturale. Una battaglia per riprendere il controllo non solo delle nostre opere, ma del nostro sguardo. Del nostro tempo. Della nostra attenzione. Del nostro modo di interpretare ciò che ci circonda.

Serve rallentare. Serve chiedersi: quanto tempo passo sui social? Perché ci sto? Cosa ci guadagno davvero? E soprattutto: quanto di ciò che vedo è reale? Quanto è manipolato? E come questo sta influenzando il mio modo di vedere il mondo?

Serve iniziare a scegliere. Scegliere a chi dare attenzione. Scegliere quali piattaforme usare e perché. Scegliere se valga davvero la pena regalare il nostro profilo cognitivo in cambio di un servizio gratuito. Scegliere se i numeri contano davvero o se invece conta costruire relazioni vere, piccole, profonde.

Serve uscire dalla bolla. Non solo dalla bolla algoritmica – quella che ci mostra solo contenuti simili a quelli che abbiamo già visto – ma anche dalla bolla culturale. Quella che ci fa credere che il valore di un lavoro si misuri in follower, in like, in visualizzazioni.

Ma per farlo, serve conoscenza. Serve studio. Serve curiosità. Serve smettere di testare l’AI con il primo tool gratuito che troviamo e poi concludere che “non funziona”. Serve capire che esistono livelli diversi di qualità, che esistono workflow professionali., che serve investire tempo, anche se non denaro.

Perché alla fine, il vero furto non è quello che fanno alle nostre opere. Il vero furto è quello che succede quando perdiamo la capacità di scegliere. Quando la nostra attenzione, il nostro tempo, il nostro modo di vedere il mondo non appartengono più a noi, ma agli algoritmi che ci guidano.

E forse è arrivato il momento di riprenderceli