Gelato al limone e intelligenza artificiale: aroma, artificio, autenticità
Ora che l’AI può imitare i nostri gusti visivi, parlare come noi, creare al posto nostro, lo stile non può più essere solo un filtro o un preset. È tempo di chiedersi cosa si intende per autenticità.
(Se volete ascoltare la versione audio, qui il podcast)
C’è una differenza sottile ma cruciale tra “avere stile” e “usare uno stile”. Il primo è come un odore che ci portiamo addosso senza accorgercene — impregnato nei nostri abiti, nei gesti, nei silenzi. Il secondo è come una giacca alla moda che indossiamo per un’occasione, ma che resta appesa fuori da noi. Un creativo che ha uno stile non si preoccupa di dimostrarlo: lo si riconosce nel modo in cui guarda, più che nei filtri che applica. È il modo in cui sceglie il momento, la distanza, il rischio. È un’attitudine più che una firma. Chi invece “usa uno stile” seleziona, compone, rifà. Ma spesso lo fa su tracce già viste, già approvate, già virali.
Eppure, oggi che i software e piattaforme di AI permettono di creare, in una frazione di secondo ed in infinite varianti, cloni di noi stessi o delle nostre “opere di ingegno” sparsi in reti neurali e cominciano a "riconoscere" chi siamo, a rispondere come noi, a parlare con il nostro tono di voce, a visualizzare come immaginiamo… siamo sicuri di sapere e di comprendere dove finisce l’umano e inizia la macchina? Oppure la domanda è sbagliata?
Il diaframma spalancato di un obiettivo diventava spesso non solo una necessità tecnica, ma una cifra poetica. Quando le pellicole restituivano colori e grana unici, li chiamavamo "mood" e li inseguivamo come si fa con i sogni. Poi è arrivato Lightroom con i suoi preset, e in tanti hanno creduto che bastasse applicarne uno per possedere uno stile. Ma oggi l’AI ha superato ogni scorciatoia e ogni limite: è un laboratorio instancabile di alchimie visive ed espressive, capace di declinare ogni variazione possibile. Se prima lo stile nasceva nel vincolo — l'errore, il caso, l'inadeguatezza dei mezzi — ora si dissolve nell'eccesso di opzioni. E questa abbondanza, paradossalmente, ci mette a disagio.
Andando oltre alla fotografia, Delphi.ai per esempio - un tool che abbiamo appena scoperto e che sembra molto interessante per una serie di progetti ai quali stiamo lavorando per alcuni clienti - può creare un avatar che parla come noi, pensa come noi, si sostituisce a noi nelle mail, nei meeting, persino nei brainstorming: idealmente lo fa usando tante informazioni su di noi, che cattura da testi, da nostri post, da nostri dialoghi, e li traduce in risposte e interazioni naturali tramite parola scritta (abbiamo avuto uno scambio di opinioni con Arnold Schwarzenegger sul tema delle motivazioni, è stato simpatico). Midjourney rileva ciò che ci piace, lo registra, lo reinterpreta, lo salva come un profilo personalizzato che ci permette di creare immagini nel “nostro stile”, non perché analizza le “nostre immagini”, ma perché lo capisce dalle nostre scelte. Un algoritmo che parla con la macchina indicando cosa ci piace, cosa reputiamo bello, cosa vogliamo come “sapore” nelle nostre immagini, con una analisi che spesso è superiore alla nostra coscienza: a volte nemmeno lo sappiamo che ci piacciono delle cose o delle atmosfere, ma l’AI di Midjourney lo capisce e lo applica, ce lo spiega, ci fa crescere. In questo scenario, la creatività non può più basarsi su un effetto speciale o un filtro ben calibrato e poi deve emergere come necessità, non come opzione.
Il paradosso? Più l’AI ci permette di moltiplicarci — rendendoci onnipresenti, super efficienti, produttori inarrestabili — più ci costringe a chiederci chi siamo davvero. Perché se tutto può essere simulato, copiato, riprodotto… cosa rimane? Cosa sta copiando di noi, cosa vogliamo davvero essere?
Forse la risposta sta nella complessità, nell’incoerenza, nel dubbio — cose che l’AI, per ora, fatica a interpretare come valore. Come racconta Brian Christian nel suo libro The Alignment Problem, molti algoritmi faticano a gestire situazioni in cui la logica non basta, dove il contesto e l’ambiguità richiedono intuizione, empatia, esperienza umana. Gli equivoci sottili, i silenzi carichi, le metafore dense — tutto ciò che nei dialoghi ci rende umani — sono ancora terra incognita per la macchina. Ci viene in mente il dubbio che ci assilla da anni quando ordiniamo nelle gelaterie che si definiscono “artigianali” un gelato o una granita al limone, e troviamo qualche semino di limone… il dubbio è questo: lo troviamo perché il gelato o sorbetto è stato fatto con del limone vero, oppure hanno inserito volutamente i semini su un preparato chimico solo per farlo apparire vero?
La sfida non è proteggere la creatività umana come fosse un panda da tutelare — è invece allenarla a diventare adulta. Riconoscere che non basta più dire “sono stato io a scattarla”, perché l’AI presto scatterà meglio. Non basta dire “l’ho scritto di mio pugno”, se l’AI scriverà con più precisione, più ironia, più pathos. Allora bisogna ripartire dalla sorgente: capire davvero cosa intendiamo per "bello", per "nostro", per "unico".
E non basta più nascondersi dietro l’imperfezione come atto di autenticità. Anche le bugie — come i semini nel gelato che sembrano volerci dire "guarda, qui c'è qualcosa di vero" — possono essere artefatte, e illuderci o illudere qualcuno. Quello che conta, forse, è il desiderio che muove il gesto. L’urgenza di dire qualcosa che non esisteva prima. Ecco, quella non la simuli.
Usiamo allora l’AI per capirci meglio, per mappare ciò che amiamo, per visualizzare le emozioni che ci attraversano — non per dimostrare che sappiamo usare uno strumento, ma per rispondere a quella domanda antica: chi voglio essere quando creo? Non per essere diversi dagli altri, ma per essere finalmente simili a noi stessi. O quantomeno, per provare a capire chi siamo.