1

Formati dei sensori digitali

Negli scorsi articoli abbiamo studiato come, a partire dai fotoni cosmici, sia possibile ottenere sul monitor del nostro computer o in stampa bellissime immagini di corpi celesti. Alla luce di questo, possiamo concludere che il cuore dell’immagine fotografica moderna è il sensore. Questo è costituito da una griglia di elementi fotosensibili; quelli che poi saranno rappresentati (e spesso confusi) dai pixel nelle nostre immagini digitali. Esiste quindi una stretta relazione tra la forma del sensore e quella dell’immagine finale. E’ esperienza comune maneggiare stampe fotografiche dalle forme rettangolari e pertanto possiamo dedurre che questa corrisponda alla geometria del nostro sensore. Ma perché questa scelta? Il “rettangolo” fotografico ha delle proporzioni ben determinate? Quanti formati esistono? In questo articolo vedremo di dare una risposta a tutte queste domande.

QUESTIONE DI FORMA

La disposizione degli elementi fotosensibili non è dettata da nessun vincolo costruttivo e pertanto questi potrebbero essere disposti nelle forme più incredibili. Questo avviene in ambiti dedicati alla ricerca scientifica dove si usano spesso sensori dalle forme circolari, a bande o altro. In fotografia la forma più naturale dovrebbe essere il cerchio. Infatti il sensore deve raccogliere i fotoni che ci arrivano dal sistema ottico che ovviamente, essendo di forma cilindrica, produce sul piano focale un cerchio. Eppure avete mai visto stampe circolari? Ebbene in passato esistevano, come ad esempio la camera Kodak No.1 del 1888 produceva immagini circolari. Allora perché oggi utilizziamo pellicole rettangolari? La soluzione è di natura economica. La produzione di sensori circolari comporta un grosso spreco in termini di stampa dato che queste avvengono sempre su carta di formato quadrato o rettangolare.

Escludendo il cerchio, la forma più naturale per un sensore dovrebbe quindi essere il quadrato. Questa forma geometrica ha avuto ampio sviluppo in passato, mentre oggi sta diventando un formato sempre più di nicchia. Un esempio è il medio formato 6 x  6, di dimensioni 56 x 56 mm, utilizzato in passato dalla Yashica-D a partire dal 1958.

Oggi, la maggior parte dei sensori è rettangolare. L’utilizzo di questa forma geometrica ha origini storiche, psicologiche e pratiche. La fotografia ha seguito un’evoluzione parallela alla stampa che spesso utilizza carta rettangolare in rapporto DIN (ovvero rapporto tra i lati pari a 1.414). Questo fu il motivo storico per cui si preferì il formato rettangolare a quello quadrato. Tale fatto giustificherebbe il perché oggi i sensori rettangolari hanno rapporti spinti, simili a quelli presenti in schermi wide-screen o dei dispositivi mobili, oggetti tecnologici che hanno ormai sostituito la carta stampata. Un’altra giustificazione è di natura pratica e dovuta al fatto che un sensore rettangolare è meno sensibile ai difetti associati all’ottica dato che l’immagine finale è ottenuta da zone lontane dai bordi del campo dove si ha spesso la caduta di luminosità e della qualità dell’immagine (vignettatura e coma).  Quindi l’utilizzo di sensori rettangolari richiede una qualità ottica inferiore e quindi un risparmio per le ditte produttrici (Figura 1).

Figura 1: La forma più naturale per un sensore è il cerchio (A) che purtroppo risulta non ottimizzata per la stampa. Il quadrato (B) è migliore ma, rispetto al rettangolo (C) è più soggetto alla presenza di difetti ottici. Inoltre il rettangolo è più adatto alla stampa commerciale oltre ad essere più "gradevole" da un punto di vista estetico.

Infine, a queste due motivazioni tecnologiche bisogna aggiungerne una di natura psicologica. Il rettangolo, specie se di proporzioni auree (ovvero rapporto tra i lati pari a 1.618), risulta assai più gradevole agli occhi di un quadrato. A seguito di tutti questi fattori, storicamente si optò per l’utilizzo di sensori di forma rettangolare. Ma con quale rapporto? Di che dimensioni?

LO ZOO DEL FORMATO

Essendo frutto di spinte differenti, il rapporto tra i lati del rettangolo che costituiscono il sensore così come le sue dimensioni sono praticamente casuali. Ad oggi esistono infinite combinazioni di lati e rapporti. Alcuni di questi, riportati in Tabella 1, si sono diffusi più di altri.

 
Nome Formato Base (mm) Altezza (mm) Rapporto
1/2.5” 5.76 4.29 1.343 (4:3)
1/1.7” 7.6 5.7 1.333 (4:3)
2/3” (Fuji, Nokia) 8.6 6.6 1.303 (4:3)
1” (Nikon, Sony) 13.2 8.8 1.5 (3:2)
Four Thirds System (Olympus, Panasonic) 17.3 13 1.331 (4:3)
Foveon (Sigma) 20.7 13.8 1.5 (3:2)
APS-C (Canon) 22.2 14.8 1.5 (3:2)
APS-C (Nikon, Sony, Pentax, Fuji) 23.6 15.7 1.503 (3:2)
APS-H (Canon) 28.7 19 1.510 (3:2)
Full Frame (35 mm) 36 24 1.5 (3:2)
ATIK 314L+ (Sony ICX-285AL) 8.98 6.71 1.338 (4:3)
ATIK 383L+ (Kodak KAF 8300) 17.6 13.52 1.302 (4:3)
ATIK 11000 (Kodak KAI 11002) 37.25 25.70 1.449 (3:2)
Imaging Source DMK41 (Sony ICX-205AL) 7.6 6.2 1.223 (5:4)
Celestron NexImage 5 5.7 4.28 1.332 (4:3)

Tabella 1: Esempi di formati più diffusi.

In particolare, in cinematografia si diffuse a partire dal 1909 il formato 35 mm. Questo aveva dei fori ai lati per il trascinamento della pellicola durante la proiezione video. Lo stesso formato venne convertito nel fotografico 135 che manteneva i fori ai lati ed una dimensione dei fotogrammi pari a 24 x 36 mm. Tale formato si diffuse e costituì lo standard per le pellicole fotografiche nelle fotocamere analogiche (vedi Figura 2). Con l’avvento della tecnologia digitale si cercò di ottenere fotocamere con sensori di dimensioni 24 x 36 mm, note come sensori full frame. Ad oggi, la maggior parte dei sensori digitali hanno dimensioni inferiori a 24 x 36 mm e pertanto si associa al termine full frame quello di pieno formato. Questa terminologia è interessante in quanto, nella fotografia analogica, il formato 24 x 36 mm era spesso ritenuto piccolo rispetto ai più grandi medio e grande formato.

Figura 2: il formato 135, il più diffuso nel mondo della fotografia analogica amatoriale e semi-professionale.

La stessa varietà di forme e rapporti presenti nell’ambito della fotografia tradizionale si riflette nella fotografia astronomica dove i formati più diffusi sono stati riportati in Tabella 1. Le dimensioni dei sensori così come quelle degli elementi fotosensibili che li costituiscono determinano anche il fattore crop e quindi il loro utilizzo. Ecco quindi che sensori molto piccoli e con un’elevata densità di pixel vengono utilizzati nelle riprese planetarie al fine di massimizzare l’ingrandimento ottenuto dall’ottica mentre grandi sensori con pixel molto grandi sono preferibili per la fotografia astronomica DeepSky dove invece è richiesta alta sensibilità alla debole luce proveniente da oggetti lontani oltre che ad un grande campo per riprenderli nella loro interezza. Per maggiori informazioni sull’effetto crop consigliamo la lettura dell’articolo il fattore di crop.




Il fattore di crop

L’avvento della tecnologia digitale ha sicuramente rivoluzionato il mondo dell’astrofotografia agevolando praticamente tutte le fasi di ripresa del cielo stellato. Non tutti però si sono abituati ai nuovi concetti introdotti da questo nuovo tipo di tecnologia. Tra questi quello che sicuramente ha generato maggior confusione nel mondo dell’astrofotografia e della fotografia in generale è sicuramente il fattore di crop. Infatti sovente si sente dire anche da “esperti” fotografi che il loro obiettivo è un 300 mm, ma essendo la loro fotocamera una Canon APS-C allora questo diventa un 480 mm. Questa frase ovviamente è sbagliata ed in questo post cercheremo di capire perché.

Partiamo iniziando con il dire che la lunghezza focale di un obiettivo (fisso o fissata ad un determinato valore nel caso degli zoom) non può cambiare e per un telescopio rifrattore coincide con la distanza tra la lente ed il piano focale, ovvero dove viene focalizzata l’immagine. Quindi un obiettivo 300 mm sarà e rimarrà sempre un 300 mm.

Figura 1: A sinistra il paese di Varenna (LC) ripreso con una full frame (equivalente). A destra lo stesso paesaggio con una APS-C

Se però osserviamo la Figura 1 ci rendiamo subito conto che utilizzando il medesimo obiettivo otterremo risultati diversi nel caso si usasse una Canon EOS con sensore full frame o APS-C. L’immagine ripresa con sensore APS-C appare più ingrandita, come se si fosse utilizzato un obiettivo di lunghezza focale superiore. Prima di comprendere come ciò sia possibile dobbiamo comprendere il significato delle parole full frame e APS-C. Questo si potrebbe facilmente riassumere in: “dimensione del sensore”. Infatti i sensori full frame sono quelli le cui dimensioni del CMOS sono equivalenti a quelli del tradizionale negativo a 35 mm ovvero 24 x 36 mm. I sensori APS-C sono invece più piccoli e nel caso di sensori Canon hanno dimensioni 14.8 x 22 mm.

L’apparente ingrandimento mostrato in Figura 1 è quindi unicamente dovuto alle dimensioni del sensore utilizzato. Perché? Cerchiamo di capirlo insieme. Per fare ciò partiamo da un semplice esempio. Vogliamo riprendere la nebulosa proboscide d’elefante utilizzando due fotocamere, una con sensore full frame ed una con sensore di dimensioni ridotte (non necessariamente APS-C). La luce emessa dalla nebulosa e quindi la sua immagine, dopo aver viaggiato per anni nello spazio interstellare, raggiunge il nostro telescopio o obiettivo fotografico e viene “ricostruita” su quello che abbiamo detto essere il piano focale. Ora se potessimo mettere un foglio di carta all’altezza del piano focale vedremmo l’immagine della nebulosa rappresentata perfettamente all’interno di un riquadro circolare. Perché circolare? Perché le lenti del telescopio sono di forma circolare. A questo punto sostituiamo il nostro foglio di carta con il sensore della fotocamera digitale. Ovviamente questo deve essere più piccolo dell’immagine circolare, altrimenti vedremmo la cornice nella nostra immagine (Figura 2). Tutti i telescopi e gli obiettivi fotografici sono pensati per avere un’immagine al piano focale più grande di un sensore APS-C o full frame.

Figura 2: A sinistra le dimensioni dei due sensori rapportati all'immagine generata dal telescopio / obiettivo sul piano focale. In alto a destra l'immagine ripresa dal sensore full frame, in basso a destra quella ripresa da un sensore APS-C o comunque da un sensore di dimensioni più piccole del full frame.

A questo punto non ci resta che scattare la nostra foto. Il risultato dello scatto è mostrato in Figura 2 a destra. A parità di dimensioni del pixel avremo nel caso di una full frame (sensore grande) un’immagine grande, mentre con un sensore APS-C (sensore piccolo) un’immagine piccola. Se immaginiamo di avere una fotocamera con sensore full frame (dimensioni 24 x 36 mm) da 3186 x 4779 pixel, allora l’immagine ripresa con il sensore APS-C (dimensioni 14.8 x 22 mm) avrà dimensioni in pixel  1965 x 2920. Questo ipotizzando che le dimensioni dei pixel siano uguali nelle due fotocamere (nel nostro esempio 24 mm / 3186 pixel = 7.5 micron). Cosa succede però se ora le due fotocamere hanno dimensioni dei pixel differenti? Ovvero ad esempio il sensore full frame ha dimensione dei pixel pari al doppio della APS-C? In questo caso le due immagini riprese precedentemente avranno la stessa dimensione in pixel come mostrato in Figura 3.

Figura 3: A sinistra l'immagine della nebulosa proboscide d'elefante ripresa con una camera full frame con pixel da 7.5 micron mentre a destra con una APS-C con pixel da 3.75 micron.

Quindi possiamo riassumere il nostro discorso dicendo che utilizzando un sensore APS-C con pixel piccoli otterremmo un’immagine di dimensioni analoghe a quella realizzata con una full frame dotata di pixel grandi. Figura 3 mostra che, come conclusione delle nostre argomentazioni, l’immagine della nebulosa proboscide d’elefante risulta più ingrandita nel caso di sensori APS-C rispetto a full frame. Questo fattore di ingrandimento si chiama fattore di crop. In realtà però è sbagliato definirlo ingrandimento. La terminologia corretta sarebbe: sensori di piccole dimensioni riprendono un campo più piccolo di sensori full-frame, dove per campo intendiamo la frazione di immagine sul piano focale coperta dal sensore. Un sensore APS-C Canon copre ad esempio un campo (24mm/14.8mm = 1.6 e 36mm/22mm = 1.6)  1.6 volte più piccolo di un sensore full frame e pertanto è come se l’immagine fosse 1.6 volte più grande.

Siamo quindi giunti al punto del grande fraintendimento: avere un’immagine che apparentemente è 1.6 volte più grande non significa aver ingrandito l’immagine sul piano focale di 1.6 volte ovvero aver aumentato la focale del telescopio. Quindi è vero che un’immagine ripresa da un sensore full frame con un obiettivo da 480 mm di focale offre lo stesso ingrandimento di una camera APS-C con un obiettivo da 300 mm ma le due ottiche danno immagini differenti sul piano focale e quindi sono differenti. E come si manifesta questa differenza? Ovviamente nella qualità dell’immagine. Un’immagine ripresa con una full frame e obiettivo 480mm è sicuramente di qualità superiore rispetto ad un’immagine ripresa con sensore APS-C e obiettivo 300mm. Questo perché se la full frame riprende un’immagine effettivamente grande, la APS-C riprende un’immagine solo apparentemente grande.

Riassumendo: l’ingrandimento ottenuto in una ripresa astrofotografica dipende da due fattori, lunghezza focale del telescopio e dimensione del sensore. Quindi uno stesso telescopio può fornire immagini con ingrandimenti differenti!!! Nei vostri scatti ricordatevi pertanto di indicare sempre la lunghezza focale di ripresa e il tipo di sensore utilizzato (dimensione del pixel in micron e del sensore in mm).




La generazione del segnale: CCD e CMOS

Nell’articolo “Il Fotoelemento: Fotodiodo e Photogate” abbiamo visto come fotodiodi e photogate vengono naturalmente utilizzati come mezzo di conversione fotone/elettrone nella maggior parte delle camere commerciali, siano esse CCD o semplici DSLR. Il problema della scarsa dimensione della regione di svuotamento dei fotodiodi è stata recentemente risolta applicando delle microlenti. Queste sono in grado di convogliare gran parte della luce verso la regione fotosensibile del fotodiodo. Analogamente anche i photogate sono stati ottimizzati utilizzando elettrodi sempre più sottili oppure facendo incidere i fotoni dal lato opposto (si parla di sensori back-illuminated).

Supponendo di esporre il fotoelemento per un determinato periodo di tempo alla radiazione luminosa, noto come tempo di esposizione, quello che otterremo è una certa quantità di carica accumulata sulle armature del nostro “ipotetico” condensatore costituito dalla distribuzione di carica ai bordi della regione di svuotamento.

In un sensore abbiamo milioni di fotoelementi, ciascuno con la sua carica accumulata durante il tempo di esposizione. Come fare ora a processare tutti queste informazioni fondamentali per ricostruire l’immagine originale? Ci sono due strategie e quindi di sensori che prendono il nome di Charge Coupled Device (CCD) e Complementary Metal Oxide Semiconductor (CMOS).

CHARGE COUPLED DEVICE

Il CCD è un fotoelemento a cui vengono applicati due, tre o quattro elettrodi in polisilicio(si parla di CCD a due, tre o quattro fasi). Tali elettrodi servono per trasportare attraverso opportuni potenziali la carica elettrica depositata da una parte all’altra del fotoelemento, nonché da un fotoelemento all’altro.

L'immagine riassume il trasporto della carica all'interno del singolo fotoelemento. La carica accumulata in prossimità del primo elettrodo (A) viene mano a mano spostata verso l'ultimo elettrodo attraverso una serie di step (B-C-D-E). Con la stessa procedura sarà poi possibile passare la carica al fotoelemento confinante (F), iniziando quello che è il processo di trasporto della carica in un sensore CCD.

E’ così possibile sequenzialmente spostare la carica accumulata da un pixel all’altro permettendo a questa di percorrere lunghe distanze con perdite che si riducono a meno dello 0.00001%. Difetti nel reticolo cristallino dei fotoelementi possono produrre perdite maggiori ed è per questo che i CCD sono molto sensibili ai danni da radiazione nucleare.

Il trasporto avviene seguendo linee verticali di fotoelementi (VCCD). L’ultima linea orizzontale di fotoelementi, grazie ad uno spessore metallico, è schermata dalla luce (HCCD). La carica di tutti i fotoelementi VCCD vicini all’HCCD viene trasferita a quest’ultimo che a sua volta la muoverà orizzontalmente verso l’output amplifer, un amplificatore che amplificherà il segnale di carica trasformandolo in un segnale analogico (tensione).

Attraverso questo schema alla fine i valori di carica di ciascun fotoelemento verrà trasformato in un segnale. Essendo la lettura sequenziale non è possibile leggere il valore di carica di un determinato fotoelemento senza leggere prima tutto il sensore. Abbiamo tre tipi di CCD a seconda di come il segnale venga inviato all’output amplifer:

  • Full frame: è il sistema “classico” in cui i fotoelementi si comportano sia da luoghi di accumulo che da luoghi di trasporto. Proprio per questo motivo i sensori CCD di tipo Full frame devono essere ricoperti da un otturatore meccanico al termine della ripresa. Il vantaggio ottenuto è un aumento della superficie fotosensibile e della capacità di accumulo delle cariche.
  • Interline transfer: in questo caso abbiamo che il fotoelemento non coincide con il luogo di trasporto della carica. In tale tipo di CCD ciascun fotoelemento viene duplicato: uno sarà l’elemento fotosensibile mentre l’altro, posto a lato, verrà opportunamente schermato dalla radiazione luminosa e servirà per il trasporto di carica. Alla fine dello scatto la carica accumulata viene così trasferita dal fotoelemento fotosensibile a quello schermato e quindi via via fino all’output amplifer. Questo permette di ridurre i tempi di attesa tra uno scatto e l’altro nonché la possibilità di fare a meno dell’otturatore meccanico. Il tutto purtroppo a scapito di una diminuzione della superficie fotosensibile.
  • Frame transfer: in questo caso il fotoelemento coincide con il luogo di trasporto, ma il segnale di carica invece di essere inviato all’HCCD e quindi all’output amplifer viene “copiato” su un duplicato dell’intero sensore schermato però dalla radiazione luminosa. Questo al fine di diminuire i tempi di amplificazione, responsabili principali del tempo di elaborazione del segnale di carica dopo uno scatto di ripresa. A differenza dell’interline transfer il frame transfer ha una superficie fotosensibile maggiore a scapito però di un maggiore consumo di spazio e potenza elettrica assorbita.

Schema di trasporto dei diversi tipi di CCD

Infine l’output amplifer trasformerà il segnale di carica in segnale di tensione amplificato. Questo verrà successivamente digitalizzato tramite un opportuno ADC. Per maggiori dettagli si faccia riferimento all’articolo ADC: dal mondo analogico a quello digitale.

COMPLEMENTARY METAL OXIDE SEMICONDUCTOR

Nel CMOS ogni elemento fotosensibile in Silicio (fotodiodo o photogate) è affiancato dal sistema di formazione e amplificazione del segnale di tensione con successiva digitalizzazione attraverso un opportuno ADC. Questo comporta la presenza di tre, quattro o cinque transistor oltre ad una seria di microcavi che connettono ciascun fotoelemento. A differenza del CCD, l’accesso è ad indirizzo e non sequenziale. Il vantaggio è la possibilità di accedere ad un determinato fotoelemento senza dover per forza “leggere” l’intero sensore. Esistono due tipi di CMOS legati non tanto al sistema di trasporto del segnale quanto al processo di amplificazione:

  • Passive Pixel Sensor (PPS): è il sistema più semplice costituito da un solo amplificatore per colonna di fotoelementi. Questo permette di ridurre il numero di transistor a uno solo aumentando pertanto la superficie sensibile alla radiazione luminosa a scapito di un aumento del rumore a seguito della presenza di un maggior numero di cavi di collegamento (bus).
  • Active Pixel Sensor (APS): è il tipo di CMOS più diffuso dove ogni fotoelemento è affiancato da un amplificatore. A differenza dei PPS il numero di bus è notevolmente ridotto anche se i transistor nel fotoelemento aumentano da uno fino ad un massimo di cinque.

Grazie alle basse tensioni di funzionamento i CMOS consumano fino a 10 volte meno dei CCD a scapito di un aumento del rumore termico. Per maggiori dettagli si legga l’articolo Guida all’astrofotografia digitale.

Oggi sensori con tecnologia CMOS sono utilizzati principalmente per le DSLR commerciali grazie ai bassi consumi (importanti per la trasportabilità della camera, riducendo il consumo di batterie) e prezzi di produzione. Anche le webcam economiche sfruttano spesso sensori di tipo CMOS generalmente più veloci dei CCD.

Sensori con tecnologia CCD sono invece i più diffusi nel mondo dell’astrofotografia digitale, grazie alla loro maggiore capacità di raccogliere e convertire la radiazione luminosa mantenendo basso il rumore (o se volete alto il rapporto segnale/rumore).