Nokia 808 Pure View, dal vivo il cellulare da 41 megapixel: una sfida alle medio formato?
di Roberto Colombo, pubblicata il 27 Febbraio 2012, alle 17:20
Non lasciatevi ingannare dai numeri e dal nome: ha 41 megapixel, ma un sensore ben più grosso della media e non sfida le medio formato, ma inaugura un nuovo approccio nella tecnologia dei sensori
Commenti (52)
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - Info
Per contattare l'autore del pezzo, così da avere una risposta rapida, si prega di utilizzare l'email personale (vedere in alto sotto il titolo). Non è detto che una domanda diretta inserita nei commenti venga verificata in tempi rapidi. In alternativa contattare la redazione a questo indirizzo email.
Per contattare l'autore del pezzo, così da avere una risposta rapida, si prega di utilizzare l'email personale (vedere in alto sotto il titolo). Non è detto che una domanda diretta inserita nei commenti venga verificata in tempi rapidi. In alternativa contattare la redazione a questo indirizzo email.
Commento # 41
di: leddlazarus
pubblicato il 28 Febbraio 2012, 22:25
su ogni sensore digitale i pixel sono divisi in gruppi di 2x2 di cui 2 verdi uno rosso e uno blu.
quindi a rigor di logica per fare 1 pixel "reale", per cosi' dire ne servirebbero 4,
e già qui abbiamo un po' di perdita in quanto il pixel è comunque finto e calcolato matematicamente
quindi se un sensore fosse di 2000x2000(4mpx) diventerebbe 1000x1000(1mpx) 4 volte di meno
ma con accorti algoritmi e qualche pixel in + sul sensore (in genere i pixel reali sul sensore sono leggermente maggiori di quelli resi sulla foto) si riesce a dare ad ogni pixel la profondità di colore desiderata e fornire foto con la densità molto vicina a quella effettiva.
Ma sono cmq tutti calcolati matematicamente e per quanto accurati che siano gli algoritmi, i pixel sono un po' "finti". i risultati sono universalmente accettati, ma rimangono secondo me "virtuali"
possiamo paragonare cio alla differenza tra un CD e un vinile.
qui abbiamo un sensore da 41Mpx che fa foto da 5 mpx cioè ben 1/8 inferiore alla risoluzione effettiva. capite che tutte le informazioni catturate dai pixel vengono sfruttate meglio e grazie al fatto che possono contare su una quantità di informazione ben superiore, si riesce ad ottenere una accuratezza su ogni pixel + alta rispetto ai normali algoritmi.
secondo me tale tecnica potrebbe diventare ben presto appetibile anche sulle compattine con un sensore da 1" con 55-60mpix ridotti a 10.
anche perchè sul cell non esiste obiettivo. anche se di zeiss un singolo vetrino non puo' eliminare un vero obiettivo.
quindi a rigor di logica per fare 1 pixel "reale", per cosi' dire ne servirebbero 4,
e già qui abbiamo un po' di perdita in quanto il pixel è comunque finto e calcolato matematicamente
quindi se un sensore fosse di 2000x2000(4mpx) diventerebbe 1000x1000(1mpx) 4 volte di meno
ma con accorti algoritmi e qualche pixel in + sul sensore (in genere i pixel reali sul sensore sono leggermente maggiori di quelli resi sulla foto) si riesce a dare ad ogni pixel la profondità di colore desiderata e fornire foto con la densità molto vicina a quella effettiva.
Ma sono cmq tutti calcolati matematicamente e per quanto accurati che siano gli algoritmi, i pixel sono un po' "finti". i risultati sono universalmente accettati, ma rimangono secondo me "virtuali"
possiamo paragonare cio alla differenza tra un CD e un vinile.
qui abbiamo un sensore da 41Mpx che fa foto da 5 mpx cioè ben 1/8 inferiore alla risoluzione effettiva. capite che tutte le informazioni catturate dai pixel vengono sfruttate meglio e grazie al fatto che possono contare su una quantità di informazione ben superiore, si riesce ad ottenere una accuratezza su ogni pixel + alta rispetto ai normali algoritmi.
secondo me tale tecnica potrebbe diventare ben presto appetibile anche sulle compattine con un sensore da 1" con 55-60mpix ridotti a 10.
anche perchè sul cell non esiste obiettivo. anche se di zeiss un singolo vetrino non puo' eliminare un vero obiettivo.
Commento # 42
di: yossarian
pubblicato il 28 Febbraio 2012, 23:49
Originariamente inviato da: leddlazarus
su ogni sensore digitale i pixel sono divisi in gruppi di 2x2 di cui 2 verdi uno rosso e uno blu.
quindi a rigor di logica per fare 1 pixel "reale", per cosi' dire ne servirebbero 4,
e già qui abbiamo un po' di perdita in quanto il pixel è comunque finto e calcolato matematicamente
quindi se un sensore fosse di 2000x2000(4mpx) diventerebbe 1000x1000(1mpx) 4 volte di meno
ma con accorti algoritmi e qualche pixel in + sul sensore (in genere i pixel reali sul sensore sono leggermente maggiori di quelli resi sulla foto) si riesce a dare ad ogni pixel la profondità di colore desiderata e fornire foto con la densità molto vicina a quella effettiva.
Ma sono cmq tutti calcolati matematicamente e per quanto accurati che siano gli algoritmi, i pixel sono un po' "finti". i risultati sono universalmente accettati, ma rimangono secondo me "virtuali"
possiamo paragonare cio alla differenza tra un CD e un vinile.
qui abbiamo un sensore da 41Mpx che fa foto da 5 mpx cioè ben 1/8 inferiore alla risoluzione effettiva. capite che tutte le informazioni catturate dai pixel vengono sfruttate meglio e grazie al fatto che possono contare su una quantità di informazione ben superiore, si riesce ad ottenere una accuratezza su ogni pixel + alta rispetto ai normali algoritmi.
secondo me tale tecnica potrebbe diventare ben presto appetibile anche sulle compattine con un sensore da 1" con 55-60mpix ridotti a 10.
anche perchè sul cell non esiste obiettivo. anche se di zeiss un singolo vetrino non puo' eliminare un vero obiettivo.
quindi a rigor di logica per fare 1 pixel "reale", per cosi' dire ne servirebbero 4,
e già qui abbiamo un po' di perdita in quanto il pixel è comunque finto e calcolato matematicamente
quindi se un sensore fosse di 2000x2000(4mpx) diventerebbe 1000x1000(1mpx) 4 volte di meno
ma con accorti algoritmi e qualche pixel in + sul sensore (in genere i pixel reali sul sensore sono leggermente maggiori di quelli resi sulla foto) si riesce a dare ad ogni pixel la profondità di colore desiderata e fornire foto con la densità molto vicina a quella effettiva.
Ma sono cmq tutti calcolati matematicamente e per quanto accurati che siano gli algoritmi, i pixel sono un po' "finti". i risultati sono universalmente accettati, ma rimangono secondo me "virtuali"
possiamo paragonare cio alla differenza tra un CD e un vinile.
qui abbiamo un sensore da 41Mpx che fa foto da 5 mpx cioè ben 1/8 inferiore alla risoluzione effettiva. capite che tutte le informazioni catturate dai pixel vengono sfruttate meglio e grazie al fatto che possono contare su una quantità di informazione ben superiore, si riesce ad ottenere una accuratezza su ogni pixel + alta rispetto ai normali algoritmi.
secondo me tale tecnica potrebbe diventare ben presto appetibile anche sulle compattine con un sensore da 1" con 55-60mpix ridotti a 10.
anche perchè sul cell non esiste obiettivo. anche se di zeiss un singolo vetrino non puo' eliminare un vero obiettivo.
non è esattamente così. Su ogni sensore di tipo bayer i pixel sono raggruppati a 4 per volta ma la risoluzione dell'immagine corrisponde a quella nominale perchè con l'interpolazione per ogni subpixel si ricavano i valori dei colori "mancanti". Così, ad esempio, sul subpixel G1 del primo gruppo, il filtro "ricostruttore" esegue l'interpolazione dei subpixel R e B circostanti e ricava il valore di R e B di G1 e così via. E' corretto, invece, quello che dici e cioè che si tratta di colori "finti" perchè non calcolati direttamente ma calcolati in base ai valori dei pixel vicini e, di conseguenza, è evidente che la qualità della ricostruzione dipende da diversi fattori, ad iniziare dalla qualità dell'algoritmo di ricostruzione passando per la qualità dei segnali catturati dai suddetti pixel contigui, ecc. Non è un caso che, nelle applicazioni video, dove, dovendo mantenere elevato il frame rate, non c'è possibilità di usare algoritmi di ricostruzione particolarmente sofisticati e dispendiosi in termini di tempo, si ricorre allo stesso stratagemma utilizzato da nokia, ovvero il sensore ha una risoluzione di molto maggiore (fino a 8 volte) rispetto a quella dell'output. In tal modo si hanno a disposizione più campioni per pixel per ciascuno dei 3 colori e il loro calcolo non richiede algoritmi di ricostruzione dei colori particolarmente sofisticati poichè è già sufficientemente elevata l'informazione di partenza.
Commento # 43
di: emanuele83
pubblicato il 29 Febbraio 2012, 09:09
Originariamente inviato da: yossarian
non è esattamente così. Su ogni sensore di tipo bayer i pixel sono raggruppati a 4 per volta ma la risoluzione dell'immagine corrisponde a quella nominale perchè con l'interpolazione per ogni subpixel si ricavano i valori dei colori "mancanti". Così, ad esempio, sul subpixel G1 del primo gruppo, il filtro "ricostruttore" esegue l'interpolazione dei subpixel R e B circostanti e ricava il valore di R e B di G1 e così via. E' corretto, invece, quello che dici e cioè che si tratta di colori "finti" perchè non calcolati direttamente ma calcolati in base ai valori dei pixel vicini e, di conseguenza, è evidente che la qualità della ricostruzione dipende da diversi fattori, ad iniziare dalla qualità dell'algoritmo di ricostruzione passando per la qualità dei segnali catturati dai suddetti pixel contigui, ecc. Non è un caso che, nelle applicazioni video, dove, dovendo mantenere elevato il frame rate, non c'è possibilità di usare algoritmi di ricostruzione particolarmente sofisticati e dispendiosi in termini di tempo, si ricorre allo stesso stratagemma utilizzato da nokia, ovvero il sensore ha una risoluzione di molto maggiore (fino a 8 volte) rispetto a quella dell'output. In tal modo si hanno a disposizione più campioni per pixel per ciascuno dei 3 colori e il loro calcolo non richiede algoritmi di ricostruzione dei colori particolarmente sofisticati poichè è già sufficientemente elevata l'informazione di partenza.
Si, bravi, bello. Il filtraggio LPF dell'ottica dove lo lasciamo? che usino tutte le lenti zeiss che vogliano, ma non credo proprio che quella lente sia in grado di risolvere il rapporto dell'1/8 di grandezza effettiva del pixel che dite voi. Senza contare il filtraggio AA sul sensore che credo proprio ci sia e che divide la luce incidente (spread, come si dice in italiano?) il raggio di luce. Nokia you are not doing it wrong, but of course not good...
Commento # 44
di: yossarian
pubblicato il 29 Febbraio 2012, 10:49
Originariamente inviato da: emanuele83
Si, bravi, bello. Il filtraggio LPF dell'ottica dove lo lasciamo? che usino tutte le lenti zeiss che vogliano, ma non credo proprio che quella lente sia in grado di risolvere il rapporto dell'1/8 di grandezza effettiva del pixel che dite voi. Senza contare il filtraggio AA sul sensore che credo proprio ci sia e che divide la luce incidente (spread, come si dice in italiano?) il raggio di luce. Nokia you are not doing it wrong, but of course not good...
scusa emanuele, li si parlava del sensore e di come funziona un filtro bayer. In ogni caso, aumentando la risoluzione ovvero la frequenza di campionamento spaziale, diminuisce anche l'incidenza del moire e il filtro AA è più leggero o, addirittura, può essere omesso. Semmai, si potrebbe parlare della diffrazione che si può avere con un'apertura di f/2.4 e pixel di 1.4 micron per lato (se non ricordo male)
Commento # 45
di: leddlazarus
pubblicato il 29 Febbraio 2012, 11:11
Originariamente inviato da: yossarian
Non è un caso che, nelle applicazioni video, dove, dovendo mantenere elevato il frame rate, non c'è possibilità di usare algoritmi di ricostruzione particolarmente sofisticati e dispendiosi in termini di tempo, si ricorre allo stesso stratagemma utilizzato da nokia, ovvero il sensore ha una risoluzione di molto maggiore (fino a 8 volte) rispetto a quella dell'output. In tal modo si hanno a disposizione più campioni per pixel per ciascuno dei 3 colori e il loro calcolo non richiede algoritmi di ricostruzione dei colori particolarmente sofisticati poichè è già sufficientemente elevata l'informazione di partenza.
le telecamere + valide hanno comunque 3 sensori distinti per le 3 componenti quindi un mare di informazioni in +.
tale accortezza in una fotocamera sarebbe impossibile per l'ingombro.
il foveon forse è stato pensato proprio per questo ma i 3 strati sovrapposti soffrono un po' di perdita data dall'attraversamento degli strati intermedi.
non a caso il foveon in condizioni di bassa luminosità tende a dare un'immagine troppo verde.
Commento # 46
di: emanuele83
pubblicato il 29 Febbraio 2012, 11:32
Originariamente inviato da: yossarian
scusa emanuele, li si parlava del sensore e di come funziona un filtro bayer. In ogni caso, aumentando la risoluzione ovvero la frequenza di campionamento spaziale, diminuisce anche l'incidenza del moire e il filtro AA è più leggero o, addirittura, può essere omesso. Semmai, si potrebbe parlare della diffrazione che si può avere con un'apertura di f/2.4 e pixel di 1.4 micron per lato (se non ricordo male)
ecco appunto rimaniamo IT visto che non credo che in un telefono siano state prese in considerayione troppo queste limitazioni. compreso un filtro aa davanti al sensore con caratteristiche diverse. io credo che, si rispetto agli altri smartphone faccia foto migliori, ma che, prima di tutto non si osi dire che faccia concorrenza al medio formato (per quelloc he ne dica hw upgrade). In ogni caso, come detto, aspetto una bella micro4/3 con tale densità e senza AA. se poi conun adapter ci attacchi una ottica da FF o anche da aspc, vengono fuori cose carine
Commento # 47
di: yossarian
pubblicato il 29 Febbraio 2012, 11:35
Originariamente inviato da: leddlazarus
le telecamere + valide hanno comunque 3 sensori distinti per le 3 componenti quindi un mare di informazioni in +.
tale accortezza in una fotocamera sarebbe impossibile per l'ingombro.
il foveon forse è stato pensato proprio per questo ma i 3 strati sovrapposti soffrono un po' di perdita data dall'attraversamento degli strati intermedi.
non a caso il foveon in condizioni di bassa luminosità tende a dare un'immagine troppo verde.
tale accortezza in una fotocamera sarebbe impossibile per l'ingombro.
il foveon forse è stato pensato proprio per questo ma i 3 strati sovrapposti soffrono un po' di perdita data dall'attraversamento degli strati intermedi.
non a caso il foveon in condizioni di bassa luminosità tende a dare un'immagine troppo verde.
le telecamere e le cineprese migliori hanno un solo sensore di dimensioni enormi (formato super35 mm che è simile all'APS-C o formati più grandi). Parlo di sony f35, f65, red epic, arriflex alexa panavision viper, ecc. Quelle con 3 sensori separati formato 2/3 cadauno sono un gradino più in basso. Il vantaggio dei 3 sensori separati sta nell'assenza del filtro AA.
Il foveon soffre anche di crosstalk ottico tra pixel contigui, perchè non è possibile creare al di sotto delle microlenti la "guida d'onda" che devi la radiazione incidente con angoli "non ottimali" verso il corretto fotosito; ciò comporta che parte della radiazione che entra, in corrispondenza di un determinato fotosito, finisce col colpire fotositi contigui e più è lungo il percorso da compiere, più è elevata la probabilità che questo si verifichi (la componente cromatica più interessata al fenomeno è quella rossa, seguita dalla verde).
Commento # 48
di: leddlazarus
pubblicato il 29 Febbraio 2012, 11:40
Originariamente inviato da: yossarian
le telecamere e le cineprese migliori hanno un solo sensore di dimensioni enormi (formato super35 mm che è simile all'APS-C o formati più grandi). Parlo di sony f35, f65, red epic, arriflex alexa panavision viper, ecc. Quelle con 3 sensori separati formato 2/3 cadauno sono un gradino più in basso. Il vantaggio dei 3 sensori separati sta nell'assenza del filtro AA.
credevo che anche le prof. avessero 3 sensori.
Commento # 49
di: yossarian
pubblicato il 29 Febbraio 2012, 11:41
Originariamente inviato da: emanuele83
ecco appunto rimaniamo IT visto che non credo che in un telefono siano state prese in considerayione troppo queste limitazioni. compreso un filtro aa davanti al sensore con caratteristiche diverse. io credo che, si rispetto agli altri smartphone faccia foto migliori, ma che, prima di tutto non si osi dire che faccia concorrenza al medio formato (per quelloc he ne dica hw upgrade). In ogni caso, come detto, aspetto una bella micro4/3 con tale densità e senza AA. se poi conun adapter ci attacchi una ottica da FF o anche da aspc, vengono fuori cose carine
a parte il titolo, no mi pare che qui nessuno abbia pensato che questo telefonino faccia concorrenza al MF. Personalmente penso che, a livello qualitativo, neppure una FF con 36 Mpixel possa far concorrenza al MF
In ogni caso il sensore di questo telefonino è bello grande se paragonato a quelli di altri telefoni o delle compatte anche di buon livello. L'utilizzo dei 41 Mpixel (che, poi, in realtà, sono 38 o 34 reali a seconda del formato immagine utilizzato) è dovuto principalmente al fatto che si è voluta dare la possibilità di utilizzare uno zoom non ottico con la minor perdita di qualità possibile. Altrimenti si sarebbe potuto anche realizzare un sensore di quelle dimensioni da 8 Mpixel, con pixel 8 volte più grandi e, in quel caso, non si sarebbe scandalizzato nessuno immagino
Commento # 50
di: yossarian
pubblicato il 29 Febbraio 2012, 11:46
Originariamente inviato da: leddlazarus
credevo che anche le prof. avessero 3 sensori.
no, i 3 sensori sono relegati a livelli intermedi: li trovi sulle consumer di fascia alta (tipicamente 3 sensori da 1/4), sulle semipro (3 sensori da 1/3 o 1/2) o sulla fascia bassa delle pro: ad esempio la sony cinealta f23 ha 3 CCD da 2/3 mentre i modelli superiori come la f35 o f65 ne hanno uno di tipo super35 mm; parliamo, comunque, di macchine usate per produzioni cinematografiche importanti (ad esempio, con la f23 hanno girato l'ultimo film della serie "le cronache di narnia". La f65 ha un sensore da 20 Mpixel ma output 4K, quindi utilizza, per ogni pixel in uscita, l'interpolazione tra 2 pixel in lettura.