Una delle dimostrazioni più interessanti che abbiamo avuto modo di osservare nel corso del GTC di San Josè, è stato il progetto di Adobe denominato Plenotical Rendering. Il concetto, di per sè, non è innovativo ed è già stato mostrato al pubblico in diverse occasioni.
La dimostrazione di cui andremo a parlare si basa sull'utilizzo di una lente conosciuta con il nome di plenoptic lens: si tratta di una lente fotografica formata però da più lenti, come mostra l'immagine sopra proposta. Scattando una foto, ovviamente con un obbiettivo adatto, l'utente con una solo foto avrà a disposizione uno scatto caratterizzato non solo da diverse angolazioni, ma anche diversi punti di messa a fuoco. Stiamo ovviamente parlando di una soluzione ancora in stadio prototipale, mancano quindi al momento dettagli precisi circa il funzionamento di tale tecnologia. Si tratta di una fotocamera sperimentale, sviluppata 5 anni fa all'università di Stanford. A seguire il principio di funzionamento cui questa fotocamera si basa:
La possibilità di avere una quantità simile di dati con un solo scatto consente importanti possibilità di lavoro sull'immagine stessa. La prima riguarda il re-focus dell'immagine. Spieghiamo meglio: in una normale foto il punto di messa a fuoco, per quanto variabile, è sempre uno. Nel caso della plenoptic camera, invece, grazie all'impiego di questa particolare lente e di questo particolare sensore, lo scatto offre diversi punti di messa a fuoco. In fase di post-produzione, quindi, l'utente avrà la possibilità di impostare e modificare la messa a fuoco, soprattutto qualora questa fosse sbagliata nelllo scatto originale.
I diversi angoli di ripresa, inoltre, consentono di poter andare a creare un'immagine stereoscopica e che ricrei quell'effetto di tridimensionalità riproducibile attraverso l'ausilio degli appositi occhialini o di pannelli in grado di supportare la gestione di tali contenuti.
Queste due funzioni sono inoltre utilizzabili contemporaneamente, ciò singnifca che, durante la ripresa di contenuti in stereoscopia è possibile lavorare in post-produzione al punto di messa a fuoco: si tratta di una capacità al momento non presente su alcun dispositivo di ripresa 3D.
La possibilità di rendere questa tecnologia una applicazione reale sarà dettata, in futuro da due elementi fondamentali: la risoluzione sempre maggiore dei sensori fotografici e la potenza di calcolo messa a disposizione dalle GPU.
Per poter elaborare i dati forniti dall'immagine in formato raw dalla fotocamera è necessaria una elevata potenza di calcolo. Il file raw è infatti formato da microimmagini con diverse visualizzazioni o angolazioni dello stesso particolare che, vengono successivamente elaborate attraverso appositi algoritmi di rendering. L'impiego di una normale CPU comporterebbe diverse ore di elaborazione dati per ottenere gli effetti sopra descritti: l'architettura estremamente parallelizzata delle GPU consente invece di poter ridurre sensibilmente i tempi di rendering.
La tecnologia mostrata, grazie all'impiego di particolari lenti modificate, consente inoltre di poter eseguire operazioni avanzate di HDR, impostando diverse esposizioni per ogni microlente con cui la lente è formata. Rimandiamo tutti gli interessati ad un documento pubblicato a riguardo, disponibile a questo indirizzo.