Una direzione intrapresa dai produttori di sensori, ormai da anni, è quella di massimizzare la superficie sensibile alla luce, per ottimizzarne la cattura. In questo senso, avevano portato grandi innovazioni i sensori retroilluminati prima e quelli 'stacked' poi.
Sony è tra i leader in questo campo e ha presentato un'ulteriore innovazione, che promette di alzare nuovamente l'asticella delle prestazioni. Sony Semiconductor Solutions Corporation è riuscita, infatti, a sviluppare il primo sensore d’immagine CMOS stacked con tecnologia 2-Layer Transistor Pixel. A differenza dei normali sensori d’immagine CMOS, in cui i fotodiodi e i transistor dei pixel occupano il medesimo substrato, la nuova tecnologia di Sony separa i fotodiodi dai transistor dei pixel collocandoli su layer differenti, massimizzando così l'area deputata alla cattura dei fotoni.
L'area dei transistor oggi occupa ancora parecchio spazio, nonostante la circuiteria sia già stata spostata 'al piano di sotto' nei sensori di tipo stacked. Un sensore d’immagine CMOS di tipo stacked adotta una struttura a strati: il chip dei pixel, composto da pixel retroilluminati, è sovrapposto a uno strato logico, che ospita i circuiti di elaborazione dei segnali. All’interno del chip dei pixel, i fotodiodi, che servono a convertire la luce in segnali elettrici, e i transistor dei pixel, che controllano i segnali, sono collocati gli uni accanto agli altri sullo stesso strato.
La nuova architettura di Sony rappresenta un’evoluzione rispetto agli attuali sensori d’immagine CMOS di tipo stacked. Sempre sfruttando la propria esclusiva tecnologia stacked, Sony è riuscita a disporre i fotodiodi e i transistor dei pixel su substrati separati, posizionati uno sopra l’altro, aggiungendo di fatto un layer al sandwich di silicio. Inoltre, poiché tutti i transistor, eccetto i TRG (Transfer Gate), ossia quelli di reset (RST), di selezione (SEL) e di amplificazione (AMP), non devono più condividere lo strato con i fotodiodi, diventa possibile aumentare le dimensioni dei transistor di amplificazione, potendo lavorare al meglio sulla riduzione del rumore.
La nuova architettura porta grandi vantaggi, riuscendo praticamente a raddoppiare l'area sensibile: in questo modo raddoppia di conseguenza anche il livello del segnale di saturazione rispetto ai sensori d’immagine convenzionali, si amplia il range dinamico e grazie al maggiore spazio per i transistor di amplificaizone si riduce il rumore, il tutto nell'ottica di un complessivo miglioramento delle caratteristiche di ripresa del sensore e della qualità finale delle immagini.
Con la nuova tecnologia, i pixel hanno una struttura che consente loro di mantenere o migliorare le attuali proprietà, non solo a parità di dimensioni, ma anche in caso di pixel più piccoli, e quindi anche in caso di aumento della risoluzione e del numero di pixel stipati sul sensore.
Stando al comunicato stampa probabilmente inizialmente la tecnologia verrà applicata ai sensori degli smartphone, ma come già accaduto nel caso dei sensori BSI Exmor R e stacked Exmor RS potrebbe sbarcare anche sulle fotocamere con sensori di grandi dimensioni.
Idee regalo,
perché perdere tempo e rischiare di sbagliare?
REGALA
UN BUONO AMAZON!