La prossima Canon sarà una EOS 1?
di Roberto Colombo, pubblicata il 14 Ottobre 2011, alle 10:42
Canon smuove le acque con un teaser: è molto probabile che la prossima reflex EOS appartenga alla serie 1
Commenti (61)
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - Info
Per contattare l'autore del pezzo, così da avere una risposta rapida, si prega di utilizzare l'email personale (vedere in alto sotto il titolo). Non è detto che una domanda diretta inserita nei commenti venga verificata in tempi rapidi. In alternativa contattare la redazione a questo indirizzo email.
Per contattare l'autore del pezzo, così da avere una risposta rapida, si prega di utilizzare l'email personale (vedere in alto sotto il titolo). Non è detto che una domanda diretta inserita nei commenti venga verificata in tempi rapidi. In alternativa contattare la redazione a questo indirizzo email.
Commento # 61
di: emanuele83
pubblicato il 31 Ottobre 2011, 20:07
Originariamente inviato da: emanuele83
finito il weekend posso concedermi di tornare a discussioni inconcludenti
non capisco che cosa intendi per "soluzione ai vetri", ma poco importa.
dì ciò che vuoi ma il primo articolo è una boiata pazzesca. lo zeiss risolve meglio, vero, ma non è vero che il canon non risolve un sensore FF.
il secondo articolo è molto più interessante. ammettendo che i dati presi dalle lenti siano esatti (e lì bisognerebbe vedere come li hanno ottenuti, ma non ho indagato nei link contenuti onde evitare perdite di tempo su argomenti di ottica che non mi competono) l’articolo alla fine asserisce che pixel più piccoli di 5µm non hanno quasi senso su una FF (35MPx se fate il conto). prima di tutto siamo ben lungi ora ad arrivare ai 35MPx, FORSE la uova canon ci arriverà ma non credo proprio. essendo furbi quelli del marketing di canon continueranno la corsa ai megapixel (imho assurda dal punto di vista dell’onestà verso l’utente finale e dello sviluppo tecnologico, con un senso dal punto di vista meramente economico). detto ciò, chi ha scritto quell’articolo è un bravo fisico, un ancor più bravo ottico, ma non sa nulla di elettronica, di digital signal processing e campionamento digitale (al di fuori del teorema di shannon). ah ecco il signor Rubén Osuna is a University Professor at the UNED, Madrid (ECONOMISTA) Efraín García is a professional fashion and advertising photographer (nessuna informazione rilevata che non sia in giapponese)
sarebbe bello avere qui un telecomunicazioni sta segnalista, io sono un po’ arrugginito, ma qualcosa mi ricordo:
premesso che siamo al limite della risolvenza per 35MPx ergo il teorema di shannon è verificato al pelo. oh ma guarda prendiamo la banda audio? 20hz 20khz? l’audio professionale sovra campiona rispetto alla banda di nyquist (44100hz o addirittura 96khz) http://en.wikipedia.org/wiki/Sampli...)#Sampling_rate
Chiediamoci il perché. Per rilassare la banda del filtro ricostruttivo? E tirare dentro rumore? Ma semttiamola… si sovra campiona perché ad oggi l’audio viene processato digitalmente e un qualunque algoritmo di compressione o di processa mento (soprattutto quest’ultimo) DA RISULTATI MIGLIORI quando il segnale digitale in ingresso non solo è FEDELE (numero di BIT, ma ci arriviamo dopo) ma anche sovra campionato (più punti per periodo, il teorema di shannon va preso come LIMITE ULTIMO PER LA RICOSTRUZIONE DEL SEGNALE onde evitare di perdere informazione).
Allo stesso modo funziona per i sensori delle macchine fotografiche. Si lavora in 2D nel dominio dello spazio e non a 1D nel dominio del tempo, ma le basi sono quelle. Peccato che ci siano altri due effetti in trascurabili e meno noti ai più:
1_ Il bayer pattern (non stiamo parlando di sensori foveon che hanno altre problematiche), per cui in verità ed alla base dei fatti rimane che un sensore a bayer pattern SOTTOCAMPIONA SIA IL COLORE CHE LA LUMINOSITÀ.
2_conseguenza di questo è che luminanza e crominanza sono calcolate a partire da un algoritmo DIGITALE (detto demosaicing), ergo il valore che vedete su singolo pixel sia di colore che di luminosità non è altro che frutto di un algoritmo correttivo che tenta di correggere le limitazioni (sottocampionamento) del sensore nei confronti della risoluzione spaziale.
Per questo e solo per questo motivo A PARITÀ DI RISOLVENZA DELLA LENTE, DI DIMENSIONI DEL SENSORE, DI ISO E DI RUMORE un maggiore numero di megapixel permette di avere di fatto una maggiore fedeltà e qualità dell’immagine, contrasto e risolvenza, perché, sebbene la lente non riesca a risolvere il singolo pixel, il valore di crominanza e luminanza sono calcolati non solo su quel pixel ma anche dai quattro a lui vicini!
Esiste un altro fattore da considerare, la profondità di colore (numero di bit del convertitore A/D) quindi il problema sarebbe da porre in 3 dimensioni (due spaziali ed una di profondità di colore) e non solo in due. ma è inutile addentrarsi.
In ogni caso, come per l’audio sovra campionato, provate a prendere una immagine al limite della risolvenza a 10MPx su apsc (canon 40D) e una a 18 MPx (quasi il doppio su stesso formato - 7D) a pari iso (100) a pari lente ed impostazioni (entrambe campionano a 14 bit), ottenete un file raw, sviluppatelo ed ingranditelo con lo stesso algoritmo (photoshop) fino a circa 40MPx. Se non siete contenti, fateci una bella maschera di contrasto ad entrambe con le stesse impostazioni, visto che siamo al limite della risolvenza ci aspettiamo un basso contrasto. Vedrete che al dettaglio l’immagine della 7D sarà tutta di un altro livello, perché in postelaborazione più si hanno megapixel, anche al limite della risolvenza, più si hanno campioni meglio gli algoritmi di modifica e correzione funzionano bene e danno risultati più attendibili che emulano meglio la realtà.
In ultimo chi ritiene ASSURDA la corsa ai megapixel, o che le lenti non risolvono i 35MPx, non solo non conosce nulla di questi aspetti, ma riporta senza verificare parole e frasi lette da qualche parte in qualche forum o che gli ha detto lo zio pino che fa il fotografo da 30 anni e (sebbene un ottimo fotografo) rimpiange ancora la sua macchina a pellicola. (in effetti la rimpiango anche io, ma è tutto un altro discorso, sono un nostaölgico ma non spantego meXda sulle nuove tecnologie)
in futuro con un numero spropositato di megapixel a disposizione (sempre A PARITÀ DI RISOLVENZA DELLA LENTE, DI DIMENSIONI DEL SENSORE, DI ISO E DI RUMORE), si avranno possibilità di utilizzo di pixel aggiuntivi per aumentare l’intervallo dinamico (Dynamic Range) dei sensori digitali che, a causa della tecnologia ferma al bayer pattern, non permette di raggiungere i livelli dell’occhio umano sul singolo scatto (i famosi coni e bastoncelli che, hanno sensibilità diverse). Sony ha già tirato fuori qualcosa del genere nelel ultime videocamere, con il pixel bianco dei nuovi sensori cmos retroillumminati.
E qui concludo, come già ribadito nei miei post precedenti, spero che la nuova 1D non sia solo una, bensì due corpi in stile nikon atte a sostituire 1D ed 1Ds. La prima spero sia una FF con 24 MPX ma altissima iso pulita da rumore e raffica > 10FPS e la seconda una FF 30 MPx con buona iso (stile 5D) e raffica limitata. Certo mi aspetto un AF e esposimetro migliorati, ma vedremo
mano male che qualcuno ha sale in zucca
non capisco che cosa intendi per "soluzione ai vetri", ma poco importa.
dì ciò che vuoi ma il primo articolo è una boiata pazzesca. lo zeiss risolve meglio, vero, ma non è vero che il canon non risolve un sensore FF.
il secondo articolo è molto più interessante. ammettendo che i dati presi dalle lenti siano esatti (e lì bisognerebbe vedere come li hanno ottenuti, ma non ho indagato nei link contenuti onde evitare perdite di tempo su argomenti di ottica che non mi competono) l’articolo alla fine asserisce che pixel più piccoli di 5µm non hanno quasi senso su una FF (35MPx se fate il conto). prima di tutto siamo ben lungi ora ad arrivare ai 35MPx, FORSE la uova canon ci arriverà ma non credo proprio. essendo furbi quelli del marketing di canon continueranno la corsa ai megapixel (imho assurda dal punto di vista dell’onestà verso l’utente finale e dello sviluppo tecnologico, con un senso dal punto di vista meramente economico). detto ciò, chi ha scritto quell’articolo è un bravo fisico, un ancor più bravo ottico, ma non sa nulla di elettronica, di digital signal processing e campionamento digitale (al di fuori del teorema di shannon). ah ecco il signor Rubén Osuna is a University Professor at the UNED, Madrid (ECONOMISTA) Efraín García is a professional fashion and advertising photographer (nessuna informazione rilevata che non sia in giapponese)
sarebbe bello avere qui un telecomunicazioni sta segnalista, io sono un po’ arrugginito, ma qualcosa mi ricordo:
premesso che siamo al limite della risolvenza per 35MPx ergo il teorema di shannon è verificato al pelo. oh ma guarda prendiamo la banda audio? 20hz 20khz? l’audio professionale sovra campiona rispetto alla banda di nyquist (44100hz o addirittura 96khz) http://en.wikipedia.org/wiki/Sampli...)#Sampling_rate
Chiediamoci il perché. Per rilassare la banda del filtro ricostruttivo? E tirare dentro rumore? Ma semttiamola… si sovra campiona perché ad oggi l’audio viene processato digitalmente e un qualunque algoritmo di compressione o di processa mento (soprattutto quest’ultimo) DA RISULTATI MIGLIORI quando il segnale digitale in ingresso non solo è FEDELE (numero di BIT, ma ci arriviamo dopo) ma anche sovra campionato (più punti per periodo, il teorema di shannon va preso come LIMITE ULTIMO PER LA RICOSTRUZIONE DEL SEGNALE onde evitare di perdere informazione).
Allo stesso modo funziona per i sensori delle macchine fotografiche. Si lavora in 2D nel dominio dello spazio e non a 1D nel dominio del tempo, ma le basi sono quelle. Peccato che ci siano altri due effetti in trascurabili e meno noti ai più:
1_ Il bayer pattern (non stiamo parlando di sensori foveon che hanno altre problematiche), per cui in verità ed alla base dei fatti rimane che un sensore a bayer pattern SOTTOCAMPIONA SIA IL COLORE CHE LA LUMINOSITÀ.
2_conseguenza di questo è che luminanza e crominanza sono calcolate a partire da un algoritmo DIGITALE (detto demosaicing), ergo il valore che vedete su singolo pixel sia di colore che di luminosità non è altro che frutto di un algoritmo correttivo che tenta di correggere le limitazioni (sottocampionamento) del sensore nei confronti della risoluzione spaziale.
Per questo e solo per questo motivo A PARITÀ DI RISOLVENZA DELLA LENTE, DI DIMENSIONI DEL SENSORE, DI ISO E DI RUMORE un maggiore numero di megapixel permette di avere di fatto una maggiore fedeltà e qualità dell’immagine, contrasto e risolvenza, perché, sebbene la lente non riesca a risolvere il singolo pixel, il valore di crominanza e luminanza sono calcolati non solo su quel pixel ma anche dai quattro a lui vicini!
Esiste un altro fattore da considerare, la profondità di colore (numero di bit del convertitore A/D) quindi il problema sarebbe da porre in 3 dimensioni (due spaziali ed una di profondità di colore) e non solo in due. ma è inutile addentrarsi.
In ogni caso, come per l’audio sovra campionato, provate a prendere una immagine al limite della risolvenza a 10MPx su apsc (canon 40D) e una a 18 MPx (quasi il doppio su stesso formato - 7D) a pari iso (100) a pari lente ed impostazioni (entrambe campionano a 14 bit), ottenete un file raw, sviluppatelo ed ingranditelo con lo stesso algoritmo (photoshop) fino a circa 40MPx. Se non siete contenti, fateci una bella maschera di contrasto ad entrambe con le stesse impostazioni, visto che siamo al limite della risolvenza ci aspettiamo un basso contrasto. Vedrete che al dettaglio l’immagine della 7D sarà tutta di un altro livello, perché in postelaborazione più si hanno megapixel, anche al limite della risolvenza, più si hanno campioni meglio gli algoritmi di modifica e correzione funzionano bene e danno risultati più attendibili che emulano meglio la realtà.
In ultimo chi ritiene ASSURDA la corsa ai megapixel, o che le lenti non risolvono i 35MPx, non solo non conosce nulla di questi aspetti, ma riporta senza verificare parole e frasi lette da qualche parte in qualche forum o che gli ha detto lo zio pino che fa il fotografo da 30 anni e (sebbene un ottimo fotografo) rimpiange ancora la sua macchina a pellicola. (in effetti la rimpiango anche io, ma è tutto un altro discorso, sono un nostaölgico ma non spantego meXda sulle nuove tecnologie)
in futuro con un numero spropositato di megapixel a disposizione (sempre A PARITÀ DI RISOLVENZA DELLA LENTE, DI DIMENSIONI DEL SENSORE, DI ISO E DI RUMORE), si avranno possibilità di utilizzo di pixel aggiuntivi per aumentare l’intervallo dinamico (Dynamic Range) dei sensori digitali che, a causa della tecnologia ferma al bayer pattern, non permette di raggiungere i livelli dell’occhio umano sul singolo scatto (i famosi coni e bastoncelli che, hanno sensibilità diverse). Sony ha già tirato fuori qualcosa del genere nelel ultime videocamere, con il pixel bianco dei nuovi sensori cmos retroillumminati.
E qui concludo, come già ribadito nei miei post precedenti, spero che la nuova 1D non sia solo una, bensì due corpi in stile nikon atte a sostituire 1D ed 1Ds. La prima spero sia una FF con 24 MPX ma altissima iso pulita da rumore e raffica > 10FPS e la seconda una FF 30 MPx con buona iso (stile 5D) e raffica limitata. Certo mi aspetto un AF e esposimetro migliorati, ma vedremo
mano male che qualcuno ha sale in zucca
per chi ha ancora dubbi sulla corsa ai megapixel...
http://www.youtube.com/watch?featur...p;v=JkBh71zZKrM