Nel momento in cui si preme il pulsante di scatto, le informazioni luminose trasdotte dai fotodiodi viaggiano alle unità di elaborazione delle fotocamere alle quali spetta uno dei compiti più importanti. Stiamo parlando infatti del generare l’immagine combinando tra loro le informazioni di intensità luminosa e colore, operazione che si vorrebbe venisse fatta con il maggior dettaglio possibile ed il minimo rumore. Migliore è l’algoritmo adottato dalla fotocamera, migliori saranno i risultati a parità di elettronica, anche se in fin dei conti la qualità informativa iniziale è uno sbarramento che fa la differenza.
I sensori bayer sono quelli in cui l’algoritmo di elaborazione gioca un ruolo fondamentale, prima ragione fra tutte è il fatto che le informazioni trasdotte sono povere, nel senso che ogni fotodiodo porta una sola componente colore che non rappresenta il colore reale di quella porzioncina di immagine. L’intensità luminosa del colore primario ricevuto viene interpolata con almeno quella di altri due fotodiodi adiacenti. Cosa succederebbe se proprio in quella porzione di fotogramma venisse rappresentato uno sfondo monocromatico attraversato da una sottile linea di colore differente? Se sfortunatamente le informazioni colore della linea non venissero lette da alcun fotodiodo che codifica si avrebbe per quel colore? Si otterrebbe solamente lo sfondo monocromatico perdendo informazioni immagine.
Per evitare questo problema una ipotesi fondamentale dell’algoritmo di elaborazione è che l’informazione spaziale non sia povera. Questo non può essere sempre assicurato e di conseguenza si pone un filtro antialiasing di fronte al sensore che spalma le informazioni colore parzialmente anche sui fotodiodi adiacenti in maniera da ottenere una ridondanza di informazioni; questa operazione sfuoca l’immagine, come quando una goccia d’acqua bagna l’inchiostro trasformando un punto definito in una macchiolina. Così facendo ci si assicura di non perdere informazioni ma fatto questo, riaffiora l’obiettivo nitidezza; l’algoritmo di elaborazione, nel suo complesso detto di demosaicing, deve essere in grado di ricostruire l’immagine con il maggior numero di dettagli e a valle di quanto detto precedentemente questa operazione diventa molto complessa. Migliore l’algoritmo, migliore il risultato finale. Se l’algoritmo non risulta così efficiente quello che si ottiene è l’odiato effetto Moiré, la desaturazione dei colori o l’aliasing dei colori con la comparsa di verdi, rossi o blu fantasma, i cosiddetti artefatti jpeg. Sotto questo punto di vista i sensori Foveon hanno una vita più facile poiché la necessità di interpolare le informazioni colore è minore.
Abbiamo parlato di artefatti jpeg, ma molte fotocamere non possono anche registrare in formato Raw? Sì, ed effettivamente le cose possono migliorare nettamente: il formato jpeg Joint Photographic Experts Group è un formato immagine standard compresso che non usa tutte le informazioni che la fotocamera può registrare; il formato Raw al contrario è assimilabile ad un negativo digitale, un file immagine così come viene letto dal sensore ed al quale non è stato applicato il demosaicing. Il file Raw sfrutta tutti i 10, 12 o 14 bit che permette la fotocamera al contrario del formato jpeg, che viene compresso ad 8 bit. L’operazione di demosaicing può essere fatta a posteriori attraverso software specifici come Adobe Camera Raw®, LightRoom®, Aperture®, AppleOne®, FreeRaw, ecc. e le informazioni riguardanti il bilanciamento del bianco e di conseguenza colori e saturazione, livello di contrasto, luminosità sono disponibili alla conversione sempre attraverso l’algoritmo migliore. Da una parte perché questi software vengono continuamente aggiornati, dall’altra perché un computer può permettersi una potenza di elaborazione nettamente superiore al convertitore Raw presente all’interno di una fotocamera. Per assurdo, la stessa foto potrebbe migliorare col tempo!! Per concludere, basti riflettere sul fatto che apportare modifiche ad un’immagine a 12 bit è certamente meno degradante che farlo su una a 8 bit.