Tra vetro e silicio: ripensare la fotografia per trovare ruoli e specializzazioni
Non solo megapixel: dentro le fotocamere del futuro, tra sensori mobili, chip neurali, upscaling AI e filosofia della specializzazione. Un viaggio tecnico (e visionario) tra pixel e intenzioni.
(Stiamo sperimentando la versione audio del SundayJumper. Se volete, potete ascoltare invece che leggere, fateci sapere che ne pensate e se questa soluzione potrebbe esservi utile!
Premessa:
questo Sunday Jumper affronta tematiche molto tecniche, dedicate al futuro del come si stanno progettando e realizzando le fotocamere di alta fascia del futuro. Molti di voi che ci leggono possono forse apprezzare il livello di approfondimento che proponiamo in questo caso; altri, si sentiranno un po' persi perché di sicuro l'approccio è un po' "nerd", ma proprio per questo vi consigliamo di provare a seguire il filo del discorso per capire che la banalità che spesso esce dalla bocca della maggior parte delle persone è volta a semplificare, giudicare il futuro senza davvero comprenderlo, credere che tutto sia "una scelta semplice". Oggi, il mercato delle fotocamere offre una buona panoramica per capire che mentre il mercato di massa corre verso soluzioni generiche, pronte all'uso, semplici da usare, accessibili a tutti, economiche (gratuite), la specializzazione rimane un campo e una nicchia dove si può trovare grande soddisfazione. Se tutti possono fare un’eccellente fotografia generica, chi di mestiere fa fotografie può fare quello che... gli strumenti di massa non possono raggiungere, non certo perché non sono in grado tecnologicamente di farlo (anzi), ma solo perché non rispondono a delle esigenze così ampie da poter valere dal punto di vista del ritorno dell'investimento, calcolato in centinaia di milioni di persone/utenti/clienti.
Mostrare come si muovono, con la tecnologia ma prima ancora con la testa, coloro che stanno ritagliandosi un settore e una nicchia nel campo della creazione di strumenti per fare immagini e comprendere la complessità delle scelte, che sono sempre e comunque dei compromessi, aiuterà forse (speriamo) anche coloro che devono proporre il proprio mestiere all'interno del mercato, con un approccio che non parla con enfasi di "qualità" senza alcun parametro concreto, solo per fare "scena", ma mostrando e proponendo quello che "di diverso realmente e concretamente" possono fare di meglio, rispondendo a delle domande specifiche, a delle esigenze molto mirate.
Di fatto, è un Sunday Jumper ad approccio "verticale", che quando sentiremo l'esigenza tireremo fuori per dare un contributo forse a pochi, ma che potranno trarne - speriamo - grande vantaggio. Per gli altri, magari provate a leggere tra le righe di temi non così vicini a voi, ma che potreste usare come metodo per trovare la VOSTRA nicchia. Quella della specializzazione.
Fine della premessa.
Fino a poco tempo fa la fotocamera era semplicemente vetro e silicio, ma un passaggio generazionale sta trasformando quell’idea ormai obsoleta: oggi il sensore, l’ottica, l’ASIC e la NPU — cioè la potenza di calcolo low‑level — dialogano tra loro in tempo reale, generando immagini che sfidano i limiti del pixel nativo. Canon, per esempio, ha fatto un passo audace in questa direzione annunciando, già nell’estate-autunno 2024 sulla R5 Mark II e R1, un sistema di upscaling in‑camera che porta file JPEG o HEIF da 45 MP fino a circa 180 MP, in pochi secondi, usando una rete neurale addestrata su dati di obiettivo, sensore, ISO e WB .
Ma a queste espressioni entusiastiche si contrappone la critica di chi ha accusato questa funzione di essere una “fake AI” rispetto al controllo reale dei pixel offerto da soluzioni che catturano "a step la realtà" come l’IBIS pixel‑shift RAW, rimasto solo sulla generazione precedente, rimosso a favore dell’upscaling computazionale. La tecnologia pixel-shift (adottata proprio da Canon, ma con altri nomi e altri approcci tecnici anche da Sony, da Pentax, da Panasonic) è una tecnica avanzata che sfrutta il sistema di stabilizzazione del sensore (IBIS, In-Body Image Stabilization) per ottenere immagini ad altissima risoluzione reali, non interpolate. Il meccanismo prevede che il sensore venga spostato con precisione micrometrica in una griglia predefinita (tipicamente 4, 8 o 16 posizioni), tra uno scatto e l’altro, per catturare ogni pixel da una posizione leggermente diversa. Ogni esposizione cattura così informazioni cromatiche e di dettaglio leggermente disallineate che, quando ricombinate via software, permettono di superare le limitazioni del filtro Bayer — ottenendo una risoluzione superiore, con minor rumore, maggiore gamma dinamica e dettagli più fini, soprattutto in aree statiche.
A differenza dell’upscaling AI (che genera nuovi pixel “verosimili”), qui ogni pixel supplementare è reale, catturato dal sensore. Il limite è che la scena deve rimanere perfettamente ferma, così come la fotocamera, ed è necessaria un’elaborazione post‑scatto che può essere eseguita in-camera o via software esterno, a seconda del sistema. È considerato il metodo “ideale” per la fotografia paesaggistica o di still life in studio, ma non adatto a scene dinamiche o reportage.
Questa questione tra "aumento risoluzione/qualità catturata realmente dalla scena” e quella AI va proprio al cuore del dibattito: la nuova frontiera è aggiungere dettagli fino a 4×, ma non è detto che un algoritmo possa sostituire l’informazione reale ottenuta da più catture fisiche.
In parallelo, OM System - come è difficile chiamarla così e non "Olympus", nome che ha perso per tristi beghe legali e commerciali - si muove su un crinale più delicato: ha già consolidato, negli ultimi modelli usciti, un arsenale computazionale notevole alimentato dal processore TruePic X, che ha reso reali modalità un tempo riservate alla post-produzione: Live Composite, Live ND, Live GND, focus stacking e High‑Res, che non sono “effetti da app”, ma procedure integrate che combinano più esposizioni per ottenere risultati all’avanguardia, direttamente in-camera. Quando si attiva la Live Composite, il sistema acquisisce un dark frame iniziale per la riduzione del rumore, poi continua a scattare esposizioni multiple, aggiungendo solo le differenze luminose visibili e le fonde in tempo reale. Live ND funziona invece come un filtro ND variabile: il sensore scatta una sequenza continua, poi il processore fonde le esposizioni controllando fino a ND64 (e su OM‑1 II fino a ND128) anche su RAW. Live GND replica un filtro graduale ND, con transizione regolabile tra soft, medium e hard, calibrabile in real-time — un unicum per una fotocamera mirrorless. Il focus stacking è anch’esso interno alla fotocamera: con un semplice tap si avvia una serie di scatti (fino a 15 fotogrammi), spostando il punto di fuoco in modo crescente; poi il TruePic X ricombina le aree nitide per restituire un’immagine con profondità estesa — senza necessità di post su PC.
Tutte queste modalità rispondono al cuore stesso della fotografia computazionale: acquisire più dati – esposizioni, fuoco, luce – e combinarli algoritmicamente prima che arrivino al file finale. Non sono solo filtri statici, ma veri workflow integrati. OM System ha condensato questo bagaglio in una suite di modalità attivabili con un solo bottone.
Qual è il problema?
È che molti utenti vorrebbero abbinare tutto questo ad una maggiore risoluzione, perché le fotocamere OM System dispongono tutte di un "risicato" sensore da "soli" 20,4 milioni di pixel, ma se dal punto di vista del sensore questo aumento sarebbe possibile e comunque lo è già adesso grazie alla modalità High‑Res (su stativo 80 MP, a mano 50 MP) che sfrutta proprio lo sensor-shift pixel-shift di cui abbiamo parlato sopra, sarebbe necessario un processore molto più veloce e potente (al quale gli ingegneri di OM System sembrano stiano lavorando), oppure si rischierebbe di compromettere proprio l'adozione di queste funzioni avanzate che oggi ne costituiscono il cuore e anche il consenso da parte del suo pubblico. Per questo, come confermano Eiji Shirota, General Manager della Business Unit OM System, e Kazuhiro Togashi, Vicepresidente della Strategic Brand and Product Planning Division di OM System, ovvero le due figure chiave nella strategia e nello sviluppo prodotto, l’azienda sta quindi valutando con attenzione la strada alternativa dello sfruttare l’upscaling basato su AI per ottenere immagini ad altissima risoluzione partendo dai suoi sensori "meno densi", evitando così di rallentare la reattività, cruciale in settori come il birdwatching — target dichiarato come primario di OM‑1 — dove la capacità di catturare soggetti in movimento prevale su ogni altro parametro, e dove tecniche come il pixel shift risultano impraticabili.
Di fatto, la rivoluzione della fotografia computazionale ci viene dagli smartphone, un ecosistema dove ogni anno chip NPU sempre più potenti imparano a modulare pixel, HDR, colorimetria dinamica, per generare immagini “bellissime”.
Per chiarirci i NPU (Neural Processing Unit) sono chip specializzati progettati per eseguire calcoli legati all’intelligenza artificiale, in particolare reti neurali e modelli di deep learning. Sono ottimizzati per elaborare in parallelo grandi quantità di dati con consumi ridotti, eseguendo in tempo reale operazioni come riconoscimento facciale, segmentazione dell’immagine, stima della profondità, tracciamento del soggetto e miglioramento visivo — tutte funzioni chiave nella fotografia computazionale. Se ve lo state chiedendo, la risposta è SÍ: sono concettualmente simili, ma profondamente diverse nella pratica ai chip creati da Nvidia. Entrambe alimentano l’AI moderna: una sul campo (on device, rendendo l’AI un’estensione naturale del processo creativo), l’altra nel cloud (come per Nvidia, ChatGPT ed altri).
Nel contesto fotografico, le NPU permettono:
Autofocus predittivo intelligente
Upscaling AI real-time
Analisi della scena e regolazione automatica avanzata (HDR, bilanciamento del bianco, esposizione selettiva)
Soggettivazione del fuoco e della profondità (bokeh computazionale)
I chip di ultima generazione, come il TruePic X usato da OM System, integrano elementi di NPU per supportare funzioni AI avanzate. Nel mondo mobile, esempi più noti sono i Neural Engine di Apple (A17 Pro), il Tensor Processing Unit (TPU) di Google, o le AI Engine di Qualcomm (Snapdragon serie 8 Gen 3). Sono chip che le aziende principali (come Apple, Google e appunto OM System) sviluppano internamente, quindi sono un patrimonio immenso ma anche un investimento davvero complesso da portare avanti. Quello che era guerra dei megapixel viene ormai surclassato da una logica di calcolo: un mattoncino software – un algoritmo – vale più di un milione di pixel.
In questo orizzonte i prossimi cinque anni potrebbero consegnarci mirrorless ad alta potenza computazionale, capaci di scattare con una modalità conversazionale (“crea un effetto di luce low‑lights" oppure "rendi sfocato il fondo”), dotate di interfacce vocali gestuali, NPU integrate, moduli 5G/6G per upload diretto di file ad altissima risoluzione, bypassando smartphone e PC. E comandati forse da dispositivi indossabili — caricati con AI e connessi alla rete — che lavorano in tandem con nodi cloud, sbloccando modalità di scatto che pensavamo impossibili fuori dal laboratorio.
A questo percorso tecnologico si sovrappone una rivoluzione culturale ma anche legale: la possibile integrazione della certificazione di provenienza basata su blockchain, per tracciare le modifiche apportate a ogni immagine e garantire trasparenza nell’era dell’AI. È un’esigenza crescente in ambiti come fotogiornalismo o fotografia naturalistica, dove la credibilità dell’immagine è valore cruciale. Una foto diventa non solo un’immagine, ma un documento con timbro “auditabile”. Ma... una volta che queste fotocamere avranno una componente molto più presente di calcolo computazionale, che cosa davvero potremo definire "reale"? (sì, è una domanda complessa...).
Infine, l’aspetto estetico: l’AI non deve solo “migliorare la qualità”, ma imparare — e proporre — ciò che l’occhio umano interpreta come “bello”. Un controllo non fisico, ma algoritmico, dello stile visivo: modulazione di palette, composizione, texture, visione — che rende l’immagine evocativa, meno fotografica, più sensoriale. Non si tratta di sostituire il fotografo, ma di anticiparne l’intento, diventare un co‑autore — e consegnare foto che piacciano non solo per la fedeltà tecnica, ma per la loro risonanza estetica. Ansel Adams, con il suo sistema di pre-visualizzazione, forse sarebbe entusiasta di questa possibilità (oppure no, chissà...).
La convergenza tra vetro e silicio, ottica e software, sensore e AI è già iniziata. Le fotocamere di prossima generazione saranno organismi visivi dotati di intenti, in grado di pensare, plasmare, certificare — e, forse, anticipare i nostri sogni estetici più profondi. Non scatti; creazioni, pronte per essere disseminate in una rete globale dove ogni pixel parla di tecnologia, etica, bellezza.
Seguiremo questo futuro delle fotocamere e del mestiere del creare immagini in diretta in questo spazio, condiviso da sempre con chi vuole andare oltre al presente ed intuire le evoluzioni prima che queste diventino la “normalità”. Buona domenica!