di Dario De Marco

Il futuro della fotografia è computazionale. Veramente, lo è anche il presente: solo che non ce ne accorgiamo. Ma nei prossimi anni vedremo altre, grandi novità.

Che cos'è però, la fotografia computazionale? Facciamo un passo indietro. A noi tutti sembra che la incredibile rivoluzione nel mondo della fotografia sia stata il passaggio dall'analogico al digitale. Ed è vero, per carità: ma è stata una rivoluzione, come dire, esteriore. Il fatto di non essere legati al rullino, a un numero limitato di scatti, al tempo di attesa dello sviluppo e così via, sono tutte cose che hanno modificato radicalmente il nostro rapporto di utenti attivi con il mondo delle immagini. Smartphone e social hanno messo poi la ciliegina sulla torta: tra un “guarda che bel tramonto” e l'inevitabile “l'ho postato su Instagram” passano pochi secondi. Ma la sostanza, nel passaggio analogico-digitale, non è cambiata: si tratta sempre di catturare un'immagine su un supporto più o meno fisico, attraverso un sistema di lenti, messa a fuoco ed esposizione, con strumenti prima meccanici e ora elettronici. Tutto qui.

Il vero mutamento sostanziale non è arrivato che qualche anno fa: nella nostra vita ormai abbiamo già visto (e probabilmente scattato) migliaia di fotografie con una resa che per qualsiasi macchina, analogica o digitale di tipo tradizionale, sarebbe semplicemente impossibile. Foto che sono il risultato di più immagini, riprese da una o più obiettivi, i cui dati sono combinati con un algoritmo per produrre un risultato altamente definito e messo a fuoco in tutti i suoi punti, anche quando ad esempio ci sono zone molto scure e zone molto illuminate. Alla fine quella che vediamo è un'immagine più reale della realtà stessa: questa è la fotografia computazionale.

Anche in questo caso una ulteriore svolta si è avuta quando queste tecnologie multi-lenti e multi-camera sono passate dall'essere appannaggio delle fotocamere digitali, all'essere 'montate' sugli smartphone: il primo HDR – high dynamic range – lo ha avuto l'iPhone4 nel 2010. Da allora ne sono stati fatti di passi, ma quelli più lunghi sono ancora da farsi. Prendiamo ad esempio la tecnica della combinazione di due camere, che porta una vista quasi tridimensionale. Che succede, si sono chiesti i creativi, se le aumentiamo? È così nato il sistema Stanford Multi-Camera, 128 punti di vista separati; per ovvie ragioni un prototipo poco adatto al commercio. Ma una via di mezzo si è trovata: L16, della società Light, combina 16 camere in un sistema di tre lunghezze focali; per quel che promette, 1700 dollari non sono neanche tanti, ma non affrettatevi a ordinarlo, ché il primo giro di produzione è andato già sold out.

Un'altra idea disruptive è quella della Lytro: una camera, una lente, ma con un super-sensore che cattura l'immagine e la passa a un software in grado di 'capire' i campi luminosi presenti. Risultato, è possibile fare una messa a fuoco dopo aver scattato l'immagine, che sarà una magnifica foto 3D.

Ma il futuro è oltre: il sistema Tango di Google amplia l'approccio che Microsoft aveva utilizzato per l'Xbox, adattandolo a tutte le situazioni e non solo a quella di gioco. Si tratta in pratica di un sensore, e di un emittente, di raggi infrarossi: i quali andando e tornando esplorano lo spazio e restituiscono una immagine con un senso di profondità estremamente realistico. Il sistema è già in uso sul Phab 2 pro della Lenovo.

Insomma se le foto che scattiamo ci sembrano, senza neanche sapere il perché, più belle delle immagini che abbiamo davanti agli occhi, un motivo c'è. E ci sarà sempre di più.