Dal fare al far fare: la svolta che cambia il flusso di lavoro dei creativi
Claude può dirigere Photoshop in linguaggio naturale. Non è fantascienza: è già disponibile, e apre una strada che ogni fotografo professionale dovrebbe conoscere.
Da qualche giorno qualcosa è cambiato, e vale la pena raccontarlo con la precisione che merita. Anthropic ha aggiornato i connettori di Claude rendendo possibile l’interazione diretta con una serie di strumenti creativi che fino a poco tempo fa restavano fuori dalla portata di qualsiasi sistema AI: Blender per la modellazione 3D, Canva per la grafica destinata ai social e al web, e l’intera Creative Cloud di Adobe. Questo aggiornamento è il primo passo concreto verso qualcosa che da tempo viene descritto come possibile e che ora ha una forma operativa.
Ma partiamo da dove siamo davvero, adesso. L’integrazione più profonda e più matura riguarda Photoshop e Lightroom. Il motivo è tecnico, ma capirlo è utile per capire anche come si svilupperà tutto il resto: questi due software sono quelli più avanzati nel loro percorso verso una versione web. Ed è proprio questa versione web che rende possibile il dialogo con l’AI, perché per un sistema intelligente è molto meno complesso interagire con una piattaforma che funziona attraverso un browser (richiedendo autenticazione e richiamando funzioni via Internet) che non lavorare direttamente con un’applicazione installata su una macchina locale. Non è un limite permanente: le cose sono destinate a cambiare e migliorare esponenzialmente, questa è solo la fotografia dell’ecosistema in questo momento.
Nella pratica, cosa significa tutto questo? Significa che oggi è possibile utilizzare Claude come interfaccia per impartire comandi a Photoshop attraverso una semplice chat in linguaggio naturale. Descrivere un’operazione, dare un’istruzione, chiedere una modifica: il software la esegue. Non è necessario sapere dove si trova quel pannello, quel sottomenu, quella funzione specifica che magari avete usato tre volte nella vita e ogni volta avete dovuto ritrovare. Il linguaggio naturale diventa il punto di accesso all’intera potenza dello strumento.
Cosa possiamo fare, nella pratica?
Editing selettivo con maschere AI: può isolare il soggetto principale o un elemento descritto a parole (”la macchina rossa a sinistra”, “il cielo”, “la maglia del bambino”) e applicare un’aggiustamento solo lì;
Soggetto + sfondo sfocato (effetto ritratto): seleziona il soggetto, inverte la maschera, e applica bokeh realistico o sfocatura solo allo sfondo;
Color grading professionale a più livelli: può impilare correzione esposizione, bilanciamento luci/ombre, regolazione HSL per famiglia di colori (es. solo i blu del cielo, solo i verdi della vegetazione), preset Lightroom finale, vignettatura, grana;
Recolor mirato di oggetti: cambia il colore di un capo d’abbigliamento, di un’auto, di un muro, mantenendo texture e pieghe;
Espansione generativa del canvas (outpainting): allarga la foto oltre i bordi originali, generando con AI il contenuto coerente intorno;
Vettorializzazione foto → SVG: converte un’immagine raster in vettoriale scalabile e modificabile;
Smart crop con riconoscimento soggetto: può ritagliare in qualsiasi rapporto (1:1, 4:5, 9:16) tenendo automaticamente il soggetto al centro o nei terzi, anche su un gruppo di foto eterogenee;
Effetti stilizzati con maschera: halftone, glitch, grana pesante, virature monocromatiche o duotone applicabili a tutta l’immagine o solo a una zona;pure halftone solo sullo sfondo per un look editoriale.
Auto-correzione + verifica iterativa: può eseguire varie attività richieste, controllare il risultato, e iterare con regolazioni manuali finché il risultato è quello desiderato.
È chiaro che siamo agli esordi. Ma siamo anche di fronte a un cambiamento strutturale nel modo in cui si lavora con i software creativi. Per anni il valore professionale di un fotografo era legato in parte significativa alla padronanza tecnica degli strumenti: conoscere i menu, i flussi di lavoro, le scorciatoie che fanno risparmiare tempo. Quella conoscenza richiedeva anni di pratica, aggiornamento costante, investimento. Era, in un certo senso, una barriera d’ingresso che proteggeva chi l’aveva costruita.
Questo non sparisce dall’oggi al domani, ma il suo peso relativo si riduce: quando l’accesso alle funzioni di uno strumento passa attraverso il linguaggio naturale, la competenza che conta non è più “so dove cliccare”, ma “so cosa voglio ottenere e come descriverlo con precisione”. Spostamento sottile in apparenza, radicale nella sostanza: l’attenzione si sposta dalla capacità tecnica verso il lavoro concettuale, creativo, narrativo. Verso quello che nessun sistema automatico può sostituire, perché richiede giudizio, visione, sensibilità.
Pensiamo a un fotografo di matrimoni. C’è un lavoro progettuale e narrativo che è profondamente umano: la costruzione dello storytelling, la selezione delle immagini che raccontano una storia, le scelte estetiche che danno carattere a un lavoro. Poi c’è un’operatività che spesso diventa il collo di bottiglia: preparare le immagini per la stampa dell’album, creare versioni per i social del cliente, costruire slideshow, produrre varianti verticali per i reel, confezionare formati diversi per piattaforme diverse. Lavoro necessario, ripetitivo, che non è detto venga pagato adeguatamente, e che in ogni caso riduce il margine orario del professionista in modo sostanziale.
Se una parte di quell’operatività può essere guidata attraverso linguaggio naturale, descrivendo al sistema cosa fare e in quale formato consegnarlo, il tempo liberato non è solo risparmio, è anche spazio per fare di più, proporre di più, costruire nuove aree di business che prima erano precluse semplicemente per mancanza di ore. Oppure, più semplicemente, per fare meglio quello che si fa già: con più attenzione, più energia, più presenza nelle parti del lavoro che davvero richiedono di esserci.
Parallelamente, c’è una cornice più grande che vale la pena citare. Jensen Huang, il CEO di Nvidia (l’azienda che produce i chip su cui gira la maggior parte dell’AI mondiale) ha dichiarato di recente che le aziende che assumono nuove persone devono aspettarsi che ciascuna di esse lavori con fino a cento agenti AI come se fossero il proprio team. Può sembrare un’estremizzazione, e forse lo è. Ma non lo dice solo lui: lo dicono anche le grandi aziende che in questo momento stanno riorganizzando i propri processi attorno all’intelligenza artificiale.
Ora guardiamo questa prospettiva dal punto di vista di un piccolo studio fotografico, che spesso è una persona sola, o quasi, con nella dimensione ridotta una qualità, non solo un limite. Non potrebbe quella persona sfruttare la stessa logica? Non per diventare un’azienda, non per rinunciare alla parte relazionale e creativa del proprio lavoro, ma per fare di più, meglio, e guadagnare di più, sapendo che c’è una parte del processo che può essere governata, poi delegata e automatizzata.
La distinzione che ci sembra più utile è quella tra fare e far fare. “Fare” è l’operatività diretta, il click, il drag, il workflow eseguito personalmente. “Far fare” è la governance: descrivere cosa deve succedere, verificare il risultato, decidere dove intervenire. La seconda non è meno impegnativa della prima, ma è più vicina a dove il valore professionale si costruisce davvero. E un agente AI, una volta configurato e istruito correttamente, può eseguire quel “fare” ogni volta che serve, senza stanchezza, senza distrazioni, senza il vincolo del tempo personale. Non solo: se incontra un ostacolo trova un’altra strada, o propone un’alternativa, o avvisa. Non si ferma semplicemente perché qualcosa non è andato come previsto.
Volete continuare a investire il vostro tempo nell’eseguire tutto quello che oggi un agente di intelligenza artificiale può fare per voi, lasciandovi il tempo per progettare, per immaginare, per costruire relazioni con i clienti… oppure no? Lo sappiamo, sono argomenti che possono creare difficoltà di visione, soprattutto quando si è soli, quando si lavora con le urgenze quotidiane, quando il nuovo sembra sempre qualcosa che richiede tempo che non si ha. Ma questa è esattamente l’evoluzione che abbiamo di fronte, e si sta muovendo velocemente.
All’interno di Aiway LAB stiamo lavorando su percorsi concreti per iniziare a integrare questi strumenti nei flussi di lavoro già esistenti, partendo dalle basi, mostrando come costruire i primi agenti, come configurarli, come renderli funzionali nel proprio contesto reale.
Un primo contenuto è già disponibile: abbonati ad Aiway LAB per almeno tre mesi e il video (2h) sarà tuo. E potrai partecipare alle prossime live e ricevere i video delle lezioni successive.


