Il filtro a matrice colorata Bayer è stato uno dei capisaldi in questi anni di fotografia digitale: praticamente tutti i sensori di larga diffusione sono basati su questa disposizione che vede un mosaico a base 2x2 con due pixel verdi, uno rosso e uno blu, ripetuto per tutta la superficie del sensore.
La matrice colorata serve a rendere sensibile alle diverse componenti della luce il sensore CCD o CMOS che per costruzione 'vede' in modo monocromatico. Applicazioni particolari come i sensori X3 Foveon sono invece nativamente sensibili alle diverse componenti della luce, basandosi sulla diversa penetrazione nel silicio delle diverse lunghezze d'onda, ma trovano applicazioni più limitate.
In questi ultimi tempi il filtro Bayer è però profondamente in discussione, essendo alla base di alcuni difetti tipici della fotografia digitale. Attraverso l'operazione di demosaicing il processore d'immagine, basandosi sui dati di un pixel e su quelli dei pixel adiacenti con colore diverso, riesce a determinare (qualcuno oserebbe dire 'indovinare') l'entità delle tre diverse lunghezze d'onda fondamentali in ogni pixel.
Questo calcolo è raffinato e preciso, ma porta con sé degli svantaggi. Uno di questi è l'effetto Moiré, che in particolare nel mondo del digitale si evidenzia quando l'obiettivo inquadra un reticolo con periodicità simile a quella del mosaico colorato sul sensore. Inoltre il demosaicing può portare alla comparsa di fastidiosi artefatti. Fujifilm ad esempio ha puntanto su una nuova matrice a pixel verdi, rossi e blu, ma con base 6x6 e minore periodicità per il suo sensore CMOS X-Trans per eliminare il Moiré senza l'utilizzo di un filtro antialiasing.
Un altro difetto della matrice colorata Bayer è lo 'spreco' di fotoni: ogni pixel colorato non sfrutta le preziose informazioni provenienti dalle componenti luminose degli altri colori filtrate dalla matrice: un approccio che sta trovando diversi sostenitori per ovviare a questo problema è l'inclusione di un pixel bianco all'interno della base 2x2. Questo pixel senza filtro è più sensibile alla luce, anche se risulta sensibile solo alla quantità di radiazione luminosa, senza saperne discriminare la composizione in lunghezze d'onda.
Si tratta di un approccio (già utilizzato nel verso opposto, per la creazione di display LCD) che molti produttori stanno studiando: ora anche Panasonic entra nella lista, con un brevetto molto particolare. A giudicare dallo schema che accompagna il brevetto non solo il produttore nipponico ha aggiunto un pixel bianco accanto a quelli verde, blu e rosso, ma pare voler accoppiare anche questi ultimi al pixel bianco, facendo lavorare il sistema in modo diverso.
Il filtro colorato andrebbe a riflettere tre componenti della luce e il processore dovrebbe calcolare le stesse sottraendo la parte riflessa al dato del pixel 'trasparente'. Lo scopo è quello di raggiungere una maggiore gamma dinamica e migliori prestazioni in condizioni di scarsa illuminazione. Inoltre per ottimizzare il sensore allo scopo, l'altro passo sarebbe quello di eliminare il filtro infrarosso, sempre nell'ottica di massimizzare il numero di fotoni incidenti sul sensore.
In particolare questa è la spiegazione del brevetto: "The imaging device according to claim 1,
wherein the three or more types of pixels for specific color are a W-R pixel, a W-G pixel, and a W-B pixel, the filter is configured such that a portion corresponding to the W-R pixel reflects a red wavelength band, a portion corresponding to the W-G pixel reflects a green wavelength band, and a portion corresponding to the W-B pixel reflects a blue wavelength band, and
the reflection amount calculating unit calculates a signal value of a red component by subtracting a value of an image reading signal of the W-R pixel from the value of the image reading signal of the pixel for entire wavelength band, a signal value of a green component by subtracting a value of an image reading signal of the W-G pixel from the value of the image reading signal of the pixel for entire wavelength band, and a signal value of a blue component by subtracting a value of an image reading signal of the W-B pixel from the value of the image reading signal of the pixel for entire wavelength band."