Star Trail – 18/08/2012
Passo dello Spluga (SO), 18/08/2012 – Star Trail
Somma di 41 pose da 240 secondi a 800 ISO effettuata con Stratrails. Camera di ripresa Canon EOS 40D + Canon EF-S 18-55 IS a 18mm f/4.6.
1
Passo dello Spluga (SO), 18/08/2012 – Star Trail
Somma di 41 pose da 240 secondi a 800 ISO effettuata con Stratrails. Camera di ripresa Canon EOS 40D + Canon EF-S 18-55 IS a 18mm f/4.6.
Passo dello Spluga (SO), 17/08/2012 – M52
Somma di 13 immagini da 12 minuti 400 ISO + 30 bias + 4 dark + 31 flat effettuata con IRIS + Photoshop CS2/CS3.
Telescopio di guida: Newton 200 mm f/4 + Camera Magzero MZ-5m. Software controllo PhD guiding.
Telescopio di ripresa: Rifrattore ED 80 mm f/7 + spianatore/riduttore 0.8x + Camera Canon EOS 500D modificata. Software controllo Canon Utility.
Briosco (MB), 31/07/2012 – NGC 6888
Telescopio di ripresa: Newton 200 mm f/4 SkyWatcher + correttore di coma Baader MPCC + filtro Atik Hα 13nm + CCD Atik 314L+ BW, software Artemis Atik Capture
Telescopio di guida: Rifrattore ED 80 mm f/7 Tecnosky Carbon Fiber + camera MagZero MZ-5m, software PhDguiding 1-4s.
Somma di 6 immagini da 500 secondi (totale 0:50 h) + 2 dark + 34 bias + 35 flat (effettuati con flatbox Geoptik). Elaborazione IRIS. Questo è un primo test di funzionamento della nuova CCD Atik e determinazione sperimentale della distanza sensore – correttore di coma. Purtroppo, forse a seguito di un cattivo allineamento polare o disallineamento telescopio di ripresa – telescopio guida, l’inseguimento è risultato problematico.
Briosco (MB), 26/07/2012 – NGC7000
Telescopio di ripresa: Newton 200 mm f/4 SkyWatcher + correttore di coma Baader MPCC + camera Canon EOS 500D (modificata Baader), software Canon EOS utility.
Telescopio di guida: Rifrattore ED 80 mm f/7 Tecnosky Carbon Fiber + camera MagZero MZ-5m, software PhDguiding 1s.
L’immagine è una composizione di tre immagini monocromatiche riprese con: Filtro Astronomik Hα 13 nm (canale rosso), Filtro Astronomik SII 13 nm (canale rosso), Filtro Astronomik OIII 12 nm (canale blu). La composizione finale consiste in una tricromia tipo Hubble Palette SII-Hα-OIII. I dati per ciascun filtro sono riportati di seguito:
composizione finale effettuata con Adobe Photoshop CS2/CS3. (Clicca qui per l’immagine originale in formato JPG)
In “ADC: dal mondo analogico a quello digitale” abbiamo approfondito il concetto di dinamica, ovvero il numero di livelli tonali a disposizione di un’immagine digitale.
Le DSLR sono in grado oggi di fornire immagini a 14 bit mentre le camere CCD 16. Dato che l’occhio riesce a distinguere solo un range tonale ad 8 bit, perché avere immagini con un numero così elevato di livelli?
Per capirlo dobbiamo introdurre il concetto di istogramma. Ogni fotoelemento del sensore può generare un segnale digitale (proporzionale al numero di fotoni incidenti) che costituisce il tono del pixel. In effetti alcuni astrofotografi tendono a distinguere tra fotoelemento, elemento fisico del sensore ed pixel, ovvero la parte più piccola di un’immagine digitale.
Supponiamo ora di avere un’immagine ad 8 bit, allora ci saranno un certo numero di pixel N0 che avranno tono 0, un certo numero N1 che avranno tono 1, un certo numero N2 che avranno un tono 2 e così via. Se ora rappresentiamo in un grafico i valori N0, N1, N2, … in funzione del tono 0, 1, 2, … otterremo quello che prende il nome di istogramma.
L’istogramma sarà quindi una funzione continua che varia da 0 al massimo numero di toni possibile (255 nel caso di immagini ad 8 bit) come mostrato in figura.
Supponiamo ora di avere una DSLR in grado di produrre immagini a 14 bit. L’istogramma associato sarà una funzione continua tra 0 e 16383 toni (misurati in ADU). Purtroppo Adobe Photoshop collassa tutto il range tonale in soli 8 bit, quindi utilizzeremo per questo tipo di analisi il software astronomico IRIS. In figura è mostrato un esempio di istogramma a 14 bit.
Come si vede dall’immagine il range tonale varia tra 0 e 16383 ADU mentre il segnale (ovvero l’immagine) occupa solo i primi 3000 ADU circa. È possibile pertanto tagliare l’istogramma in modo da limitare il range tonale al solo segnale. In figura è mostrato ad esempio il taglio dell’istogramma ai primi 3000 toni.
Il taglio dell’istogramma può essere ottimizzato ricordando di ottenere un range tonale comunque superiore o uguale a 8 bit. Infatti se limitiamo il range tonale ad un valore inferiore a 8 bit, quello che succede è che l’occhio umano non vede più come continuo il passaggio da un tono di grigio a quello successivo. L’immagine subisce pertanto una specie di discretizzazione tonale che prende il nome di posterizzazione.
Nell’immagine in figura si nota che ci sono un certo numero di pixel con valore intorno ai 300 ADU mentre la maggior parte di essi è compreso tra 700 e 2500 ADU. Il valore 700 ADU rappresenta i pixel del fondo cielo, che a seguito dell’esposizione, dell’inquinamento luminoso, nonché del colore naturale del cielo assumono un valore diverso da 0 ADU (in realtà diverso dal valore dell’offset). I pixel a 300 ADU sono molto probabilmente pixel non funzionanti che quindi sono rimasti spenti dando un valore simile a quello dell’offset. Se limitiamo inferiormente l’istogramma in modo che 0 ADU coincida con 700 ADU otterremmo un fondo cielo nero ed i pixel non funzionanti assumerebbero lo stesso valore in ADU degli altri pixel del fondo cielo.
In figura potete osservare l’istogramma opportunamente tagliato, trasformando quella che era l’immagine a 14 bit sottoesposta in una a 12 bit correttamente esposta.
Abbiamo parliamo di immagine a 14 bit sottoesposta perché dei 16384 toni possibili, l’immagine effettiva ne utilizzava soltanto 3000. Quindi, se 16383 ADU corrispondono al bianco, l’oggetto più luminoso dell’immagine prima del taglio era un grigio scuro. La nuova immagine invece è correttamente esposta perché il massimo valore assunto in ADU (3000) è molto vicino al colore bianco di un’immagine a 12 bit (4095 ADU) e allo stesso tempo nessun pixel assume un valore tonale superiore a 4095 ADU.
Cosa succede se un pixel ha un valore tonale superiore al range tagliato? Il suo valore tonale viene posto uguale al massimo valore della dinamica. Questo porta ad un accumulo di pixel nella parte destra dell’istogramma che corrisponde ad un’immagine con stelle (o addirittura parti di nebulosa) “bruciate”.
Una volta tagliato l’istogramma è necessario scalarlo in modo che 3001 ADU vengano compressi in soli 256. Ridotta così ad 8 bit, l’immagine può essere elaborata con programmi di fotoritocco come Adobe Photoshop.
Esiste un secondo metodo utile per ottimizzare il range tonale di un’immagine che è noto come stretching dinamico. Questo consiste nello stirare il segnale in modo che questo occupi tutto il range tonale. Un esempio di stretching è mostrato in figura.
Come nel caso del taglio di un istogramma con numero di bit superiore ad 8, anche in questo caso l’istogramma stretchato dovrà essere scalato.
La disponibilità di un numero sempre maggiore di livelli permette di ridurre l’effetto dell’inquinamento luminoso sul risultato finale dell’immagine deep sky. Infatti se il range tonale è limitato, dopo pochi secondi o minuti di posa il fondo cielo (ed il soggetto della ripresa) risulteranno essere all’estremo destro dell’istogramma fornendo un’immagine priva di contrasto e dettaglio. Nel caso di sensori ad alta dinamica, sarà possibile ritagliare senza perdere informazioni parti dell’istogramma, fornendo immagini dettagliate e contrastate anche dai cieli inquinati. Questo lo si osserva già oggi confrontando riprese effettuate con DSLR e CCD da centri cittadini.
Passo del Mortirolo (BS), 21/07/2012 – NGC7000
Telescopio di guida: Newton 200 mm f/4 SkyWatcher + camera MagZero MZ-5m, software PhDguiding 1-5s.
Telescopio di ripresa: Rifrattore ED 80 mm f/7 Tecnosky Carbon Fiber + riduttore/spianatore 0.8x + camera Canon EOS 500D (modificata Baader), software Canon EOS utility.
L’immagine è una somma di 30 immagini da 2 minuti a 3200 ISO (totale 1.00 h) + 27 dark + 50 bias + 50 flat (effettuati con flatbox Geoptik). Elaborazione IRIS + Photoshop CS2/CS3.
Sormano (CO), 17/07/2012 – IC 5146
Somma di 7 immagini da 12 minuti ad 800 ISO (totale 1:24h) + 40 bias + 40 flat + 5 dark effettuata con IRIS + Photoshop CS2/CS3.
Telescopio di ripresa: Rifrattore ED 80 mm f/7 + spianatore/riduttore 0.8x + Filtro UHC-E 2” + Canon EOS 500D (modificata Baader). Software controllo EOS utility.
Telescopio di guida: Newton 200 mm f/4 + Camera Magzero MZ-5m. Software controllo PhD guiding.
Briosco (MB), 12/07/2012 – M92
Somma di 4 immagini da 10 minuti + 20 bias + 20 flat + 8 dark (temperatura – 0.3 °C) effettuata con IRIS + Photoshop CS3.
Telescopio di guida: Newton 200 mm f/4 + Camera Magzero MZ-5m. Software controllo PhD guiding.
Telescopio di ripresa: Rifrattore ED 80 mm f/7 + spianatore/riduttore 0.8x + Camera CCD Atik 314L+ color. Software controllo Artemis.
Sormano (CO), 09/07/2012 – NGC 6960
Somma di 4 immagini da 10 minuti + 20 bias + 20 flat + 8 dark (temperatura – 0.3 °C) effettuata con IRIS + Photoshop CS3.
Telescopio di ripresa: Newton 200 mm f/4 + correttore di coma Baader + Camera CCD Atik 314L+ color (proprietà Rosario Magaldi). Software controllo Artemis.
Telescopio di guida: Rifrattore ED 80 mm f/7 + Camera Magzero MZ-5m. Software controllo PhD guiding.
Il segnale di carica, eventualmente trasportato lungo il sensore come nel caso dei CCD, viene convertito in un segnale analogico di tensione e quindi amplificato (si veda l’articolo “La generazione del segnale: CCD e CMOS”). Tale segnale avrà un’ampiezza proporzionale al numero di elettroni prodotti in ciascun fotoelemento e quindi al numero di fotoni “cosmici” che hanno raggiunto lo stesso durante il tempo di esposizione. Dato che il fenomeno di conversione fotone/elettrone è di tipo statistico quello che succede è che il valore dell’ampiezza del segnale può assumere infiniti valori nell’intorno di quello che è il valore atteso. Un segnale del genere non può essere analizzato da un computer. Si rende pertanto necessaria una traduzione dal “linguaggio” analogico ad uno di tipo “digitale”. Il computer o più precisamente il calcolatore, è in grado di compiere operazioni su numeri interi espressi in sistema binario (ovvero sequenze di uni e zeri). Questo perché gli operatori logici di un calcolatore si basano su interruttori che possono assumere unicamente due condizioni: circuito aperto (1) e circuito chiuso (0).
Lo strumento in grado di convertire un segnale analogico in un segnale digitale, ovvero trasformare un numero con infinite cifre in uno intero è detto Analog to Digital Converter (ADC).
Nel caso dei sensori CCD abbiamo un solo ADC posto dopo l’output amplifer, mentre nel caso di sensori CMOS abbiamo un ADC per ogni amplificatore presente.
A questo punto maggiore sarà il numero di cifre che l’ADC riuscirà a generare, maggiore sarà la qualità del segnale digitalizzato e quindi dell’immagine finale. Ovviamente a parità di capacità da parte del fotoelemento di accumulare carica elettrica
Questo è vero a parità di capacità da parte del fotoelemento di accumulare la carica elettrica. Il rapporto tra il massimo ed il minimo valore di carica accumulabile in ciascun fotoelemento prende il nome di range dinamico. Un ADC deve essere in grado di produrre un segnale digitale sensibile a tutti i possibili valori del range dinamico. Il valore discreto assunto da quest’ultimo sarà espresso in Analog to Digital Unit (ADU) e spazia da 256 a 65535.
Ma cosa determina questi numeri?
Abbiamo discusso prima di come il segnale in uscita dall’ADC dovrà presentarsi in una forma adatta ad essere processata da un calcolatore ovvero in codice binario. A questo punto supponiamo di avere a disposizione una sequenza formata da 8 segnali acceso/spento (ovvero 1 o 0) per ogni ampiezza digitalizzata. Questo significa che per valore pari a 0 Volt dell’ampiezza analogica avremo un segnale digitale della forma 00000000, mentre per il valore massimo di tensione assunto dall’ampiezza avremo 11111111. Se traduciamo questi due numeri in decimale avremo che 00000000 corrisponderà a 0 (ovviamente) mentre 11111111 corrisponderà a 255. Ecco perché si è detto che gli ADU possono assumere 256 valori (ovvero numeri interi compresi tra 0 e 255).
Se ora usiamo 9 segnali acceso/spento avremo un segnale digitale compreso tra 000000000 e 111111111 che in decimale è 511 ovvero una range in ADU pari a 512 valori.
Il numero di segnali acceso/spento ovvero il numero massimo di cifre del numero binario digitalizzato definisce il bit di conversione dell’ADC. Quindi nel primo esempio avevamo un ADC a 8 bit, mentre nel secondo caso a 9 bit. C’è un legame tra il numero di bit ed i possibili valori generati dall’ADC N:
N = 2bit
quindi:
La capacità di un fotoelemento di raccogliere elettroni è noto come gamma dinamica. In particolare la gamma dinamica è definita come il rapporto tra il massimo ed il minimo numero di elettroni accumulabile in un fotoelemento. Ad esempio se la massima capacità di accumulo delle cariche di un fotoelemento è 5000 elettroni e la minima è 5 elettroni, la gamma dinamica è 1’000:1.
La gamma dinamica determina così il numero di bit che l’ADC deve avere per digitalizzare correttamente il segnale. Se abbiamo un sensore con gamma dinamica 1000:1 avremo bisogno di un ADC ad almeno 10 bit. Bisogna a questo punto fare attenzione che non è l’ADC a determinare la dinamica di un sensore ma viceversa. A ciascun valore discreto della gamma dinamica, correttamente digitalizzato dall’ADC è associabile un tono di grigio. Si parla quindi di gamma tonale come del numero di possibili toni necessari per descrivere la gamma dinamica del sensore.
Riassumendo quindi un sensore può essere sensibile ad una maggiore differenza luce-ombre a seconda della propria gamma dinamica. A parità di gamma dinamica però il segnale può venire digitalizzato correttamente o con un ADC in grado di fornire valori (livelli) inferiori alla gamma dinamica. Nel primo caso si parla di gamma tonale adeguata, nel secondo caso invece si ha una scarsa gamma tonale.
Assunta una scelta dell’ADC proporzionata alla gamma dinamica del sensore, il numero di bit di un ADC, e quindi il range di valori o livelli di luminosità possibili a seguito della digitalizzazione del segnale, definisce il range tonale di un sensore. Un’immagine ad 8 bit è in grado pertanto di distinguere 256 toni di grigio, una a 16 bit 65536 e così via.
Ma quanti toni vede l’occhio umano? Non abbiamo un numero preciso ma si stima che un occhio umano sia in grado di distinguere circa 10’000’000 di colori. Pertanto sarebbe necessario un ADC a 24 bit (16’777’216 livelli) per digitalizzare correttamente il segnale.
In “Costruire un’immagine a colori” vedremo come un’immagine a colori da 24 bit può essere “scomposta” a partire da tre immagini in scala di grigio da 8 bit. In termini pratici quindi un occhio umano può distinguere al massimo 256 toni di grigio.
Perché quindi le camere CCD in bianco e nero producono immagini a 16 bit? La soluzione sta nella possibilità, tramite tecniche di elaborazione delle immagini astronomiche di “comprimere” una dinamica molto ampia fornita dai sensori CCD in un’immagine a 8 bit. Questo permetterebbe ad esempio di avere nella stessa immagine dettagli di luminosità estremamente diversa. Per maggiori dettagli si faccia riferimento all’articolo “Istogramma e stretching dinamico: come ottenere il massimo dalla dinamica del nostro sensore.”
Nell’articolo “Il Fotoelemento: Fotodiodo e Photogate” abbiamo visto come fotodiodi e photogate vengono naturalmente utilizzati come mezzo di conversione fotone/elettrone nella maggior parte delle camere commerciali, siano esse CCD o semplici DSLR. Il problema della scarsa dimensione della regione di svuotamento dei fotodiodi è stata recentemente risolta applicando delle microlenti. Queste sono in grado di convogliare gran parte della luce verso la regione fotosensibile del fotodiodo. Analogamente anche i photogate sono stati ottimizzati utilizzando elettrodi sempre più sottili oppure facendo incidere i fotoni dal lato opposto (si parla di sensori back-illuminated).
Supponendo di esporre il fotoelemento per un determinato periodo di tempo alla radiazione luminosa, noto come tempo di esposizione, quello che otterremo è una certa quantità di carica accumulata sulle armature del nostro “ipotetico” condensatore costituito dalla distribuzione di carica ai bordi della regione di svuotamento.
In un sensore abbiamo milioni di fotoelementi, ciascuno con la sua carica accumulata durante il tempo di esposizione. Come fare ora a processare tutti queste informazioni fondamentali per ricostruire l’immagine originale? Ci sono due strategie e quindi di sensori che prendono il nome di Charge Coupled Device (CCD) e Complementary Metal Oxide Semiconductor (CMOS).
CHARGE COUPLED DEVICE
Il CCD è un fotoelemento a cui vengono applicati due, tre o quattro elettrodi in polisilicio(si parla di CCD a due, tre o quattro fasi). Tali elettrodi servono per trasportare attraverso opportuni potenziali la carica elettrica depositata da una parte all’altra del fotoelemento, nonché da un fotoelemento all’altro.
E’ così possibile sequenzialmente spostare la carica accumulata da un pixel all’altro permettendo a questa di percorrere lunghe distanze con perdite che si riducono a meno dello 0.00001%. Difetti nel reticolo cristallino dei fotoelementi possono produrre perdite maggiori ed è per questo che i CCD sono molto sensibili ai danni da radiazione nucleare.
Il trasporto avviene seguendo linee verticali di fotoelementi (VCCD). L’ultima linea orizzontale di fotoelementi, grazie ad uno spessore metallico, è schermata dalla luce (HCCD). La carica di tutti i fotoelementi VCCD vicini all’HCCD viene trasferita a quest’ultimo che a sua volta la muoverà orizzontalmente verso l’output amplifer, un amplificatore che amplificherà il segnale di carica trasformandolo in un segnale analogico (tensione).
Attraverso questo schema alla fine i valori di carica di ciascun fotoelemento verrà trasformato in un segnale. Essendo la lettura sequenziale non è possibile leggere il valore di carica di un determinato fotoelemento senza leggere prima tutto il sensore. Abbiamo tre tipi di CCD a seconda di come il segnale venga inviato all’output amplifer:
Infine l’output amplifer trasformerà il segnale di carica in segnale di tensione amplificato. Questo verrà successivamente digitalizzato tramite un opportuno ADC. Per maggiori dettagli si faccia riferimento all’articolo “ADC: dal mondo analogico a quello digitale”.
COMPLEMENTARY METAL OXIDE SEMICONDUCTOR
Nel CMOS ogni elemento fotosensibile in Silicio (fotodiodo o photogate) è affiancato dal sistema di formazione e amplificazione del segnale di tensione con successiva digitalizzazione attraverso un opportuno ADC. Questo comporta la presenza di tre, quattro o cinque transistor oltre ad una seria di microcavi che connettono ciascun fotoelemento. A differenza del CCD, l’accesso è ad indirizzo e non sequenziale. Il vantaggio è la possibilità di accedere ad un determinato fotoelemento senza dover per forza “leggere” l’intero sensore. Esistono due tipi di CMOS legati non tanto al sistema di trasporto del segnale quanto al processo di amplificazione:
Grazie alle basse tensioni di funzionamento i CMOS consumano fino a 10 volte meno dei CCD a scapito di un aumento del rumore termico. Per maggiori dettagli si legga l’articolo “Guida all’astrofotografia digitale”.
Oggi sensori con tecnologia CMOS sono utilizzati principalmente per le DSLR commerciali grazie ai bassi consumi (importanti per la trasportabilità della camera, riducendo il consumo di batterie) e prezzi di produzione. Anche le webcam economiche sfruttano spesso sensori di tipo CMOS generalmente più veloci dei CCD.
Sensori con tecnologia CCD sono invece i più diffusi nel mondo dell’astrofotografia digitale, grazie alla loro maggiore capacità di raccogliere e convertire la radiazione luminosa mantenendo basso il rumore (o se volete alto il rapporto segnale/rumore).
Nell’articolo “È questione di elettroni” abbiamo visto come un fotone con energia superiore all’energy gap può produrre uno (o più) elettroni liberi in un semiconduttore. Nel caso particolare del Silicio abbiamo praticamente un rapporto uno ad uno tra fotoni incidenti ed elettroni liberati, almeno per quel che riguarda lo spettro visibile. In particolare la massima lunghezza d’onda “rivelabile” da un Silicio è quella associata ad un fotone di energia 1.12 eV, ovvero 1100 nm corrispondente al vicino infrarosso. Per quanto riguarda invece la minima lunghezza d’onda “rivelabile” il problema diviene più complesso dato che all’aumentare dell’energia del fotone entrano in gioco processi di perdita di energia che diminuiscono la possibilità di creare elettroni liberi. Per i raggi UV ad esempio l’energia necessaria per liberare un elettrone passa da 1.12 eV dell’energy gap a quasi 3.6 eV (valore assunto per fotoni ad alta energia come i raggi X o gamma molli). Dal punto di vista fenomenologico si usa dire pertanto che la lunghezza d’onda minima osservabile da un rivelatore al Silicio è pari a circa 350 nm.
Spesso ci si riferisce agli elettroni liberi come cariche elettriche. Tali cariche prodotte dalla conversione fotone/elettrone (noto come effetto fotoelettrico) dovranno essere successivamente trasportate in un luogo atto all’accumulo e alla conservazione delle stesse per periodi anche lunghi di tempo. Il tutto nel modo più efficiente possibile, ovvero senza che questi elettroni liberi vengano in qualche modo intrappolati nuovamente nel cristallo.
Per fare questo si utilizzano determinati tipi di semiconduttori detti drogati ovvero contaminati da atomi in grado di aumentare o inibire la conduzione del semiconduttore stesso. Si parla di semiconduttori drogati p se l’atomo contaminante inibisce il rilascio di elettroni liberi mentre si parla di semiconduttori drogati n se l’atomo contaminante fornisce elettroni liberi aumentando la conduzione. Si osservi infine come un atomo che inibisce la conduzione è assimilabile ad una buca in grado di catturare un elettrone libero.
Cosa succede se avviciniamo fisicamente due semiconduttori dello stesso tipo ma drogati in modo differenti (quella che prende il nome di giunzione p-n)? Come è possibile immaginare, gli elettroni in eccesso nel semiconduttore di tipo n saranno attratti dalle buche presenti nel semiconduttore di tipo p dando luogo ad un lento processo di diffusione. Tale processo terminerà con l’acquisto di un elettrone da parte dell’atomo contaminante p a scapito dell’atomo contaminante n. Questo significa che lentamente la parte di semiconduttore drogato p andrà a caricarsi negativamente (acquista elettroni) mentre la parte n positivamente (perde elettroni). Questa distribuzione di carica creerà un campo elettrico in capace di controbilanciare la diffusione e creare pertanto una condizione di equilibrio. Nella sottile regione tra i due semiconduttori p ed n non ci saranno elettroni liberi e quindi risulterà essere un perfetto isolante. Questa regione è nota come regione di svuotamento.
Supponiamo ora di applicare un potenziale positivo al semiconduttore drogato n e negativo al semiconduttore drogato p. Gli elettroni liberi nella regione n tenderanno ad andare verso l’elettrodo positivo così come gli elettroni del potenziale negativo andranno ad occupare le buche del semiconduttore di tipo p. A questo punto quindi elettroni e buche verranno sempre più allontanate dalla giunzione allargando la regione di svuotamento.
Perché è importante la regione di svuotamento? Perché in quella regione non ci sono elettroni liberi. Questo fatto è importantissimo per la conversione fotone/elettrone. Infatti riprendendo il problema originale da cui eravamo partiti, un elettrone prodotto dall’interazione del Silicio con un fotone (detto fotoelettrone) risulta indistinguibile dagli elettroni liberi naturalmente presenti nel semiconduttore. Se però tale fotoelettrone viene prodotto in una regione di svuotamento allora risulterà l’unico presente in quella zona, garantendone una corretta rivelazione. Inoltre bisogna notare come se l’elettrone libero viene prodotto in una zona ricca di buche allora la probabilità che sopravviva fino all’elettrodo è praticamente nulla.
Una volta prodotto il fotoelettrone nella regione di svuotamento, il potenziale applicato lo spingerà verso l’elettrodo producendo così un segnale di carica.
Lo stesso risultato ottenuto con una giunzione p-n opportunamente alimentata (ci si riferisce come alimentazione inversa), può essere ottenuto con un solo semiconduttore drogato p o n ed un elettrodo in polisilicio carico positivamente e separato dal semiconduttore grazie ad una sottile superficie isolante (ossido di Silicio). Questo elettrodo attirerà a se gli eventuali elettroni liberi o riempirà le buche creando una regione di svuotamento. Un fotone che inciderà in tale regione di svuotamento produrrà un elettrone libero che verrà attratto all’elettrodo generando un segnale di carica. Questa struttura prende il nome di MOS (Metal Oxide Semiconductor).
Una struttura in grado di convertire fotoni in elettroni è detto fotoelemento. A questo punto abbiamo due tipi di fotoelementi:
Sia photodiode che photogate sono presenti nei sensori CCD e CMOS. Ma quali sono le differenze tra i due tipi di fotoelementi in termini di conversione fotone/elettrone? Le differenze si riassumono in una sola osservazione: l’elettrodo presente nel MOS può far assumere alla regione di svuotamento dimensioni molto maggiori di quelle che una giunzione p-n riesce a generare. Questo fa si che i photogate abbiano regioni sensibili alla luce molto più grandi rispetto ai fotodiodi. In termini operativi questo significa una maggiore capacità di raccogliere fotoni a parità di area. Questo pregio è anche un difetto in quanto l’elettrodo in polisilicio costituisce un elemento assorbente soprattutto per i fotoni a corta lunghezza d’onda (blu). Ad oggi le due tecnologie risultano in perfetta competizione.
Siano essi photodiode o photogate, i fotoelementi si comportano come condensatori. Infatti in entrambe i casi abbiamo delle distribuzioni di carica separate da un isolante (la regione di svuotamento). Il condensatore ha la funzione di accumulare le cariche nel tempo e quindi ecco che i fotoelementi oltre ad essere dei buoni convertitori fotone/elettrone sono anche dei buoni “accumulatori”. I photogate possono accumulare più carica dei fotodiodi date le sue maggiori dimensioni effettive.
Nell’articolo “Un Universo di fotoni”, abbiamo visto come qualsiasi oggetto celeste, dalle stelle alle nebulose, può essere interpretato come una sorgente di fotoni. Scopo di uno strumento visivo, come gli occhi o le fotocamere, è quello di raccogliere questi fotoni di origine cosmica e ricostruire l’immagine della sorgente che li ha generati.
Per comprendere a fondo il processo di cattura dei fotoni è necessario comprendere come questi interagiscono con la materia.
Il termine materia è molto generico ed indica sostanzialmente tutto quanto ci circonda (luce esclusa).
Per quanto riguarda la rivelazione dei fotoni ci concentreremo particolarmente su quella classe di materiali noti come solidi trascurando di conseguenza i liquidi ed i gas.
Così come tutta la materia, anche i solidi sono costituiti da atomi ciascuno formato da un nucleo ed un certo numero di elettroni. A differenza del classico modello di “atomo libero”, nei solidi gli elettroni non appartengono ad un determinato nucleo atomico ma sono condivisi da tutti i nuclei disposti secondo quello che prende il nome di reticolo cristallino. Detto questo le caratteristiche elettriche di un solido saranno determinate dalla mobilità degli elettroni all’interno del solido. Se un solido dispone di numerosi elettroni liberi si dice essere un buon conduttore altrimenti si parla di isolante.
Esistono dei solidi dove naturalmente gli elettroni sono legati fortemente ai nuclei atomici ma con un piccolo apporto di energia dall’esterno è possibile renderne alcuni liberi trasformando quello che naturalmente era un isolante in un conduttore di elettricità. Questa classe di solidi prende il nome di semiconduttori.
L’apporto di energia necessario per rendere un elettrone libero è detta energy gap ed è diversa da semiconduttore a semiconduttore. Nel caso del Silicio questa vale, a temperatura ambiente, 1.12 eV.
Cosa succede ora se un fotone urta un blocco di semiconduttore? L’energia del fotone verrà trasferita ad uno degli elettroni presenti nel mezzo e se questa sarà superiore all’energy gap del solido, renderà tale elettrone libero.
L’importanza della “conversione” di fotoni in elettroni è legata principalmente all’impossibilità attuale di confinare la luce. In particolare il duetto luce visibile – Silicio si è rivelato chiave nella conversione fotone-elettrone. Infatti per fotoni con l’energia della luce visibile (1.7 – 3.1 eV) c’è praticamente una relazione uno ad uno tra fotoni incidenti ed elettroni liberi generati. La logica di base della fotografia digitale è quindi quella di convertire il numero di fotoni incidenti sul sensore in elettroni che, opportunamente manipolati, genereranno un segnale digitale in grado di riprodurre su un opportuno schermo la distribuzione dei fotoni originali. Ulteriore vantaggio della fotografia digitale è che il segnale digitale può essere duplicato e quindi memorizzato su un opportuno supporto (come un CD, un DVD o un HD).
Abbiamo visto in “Un Universo di fotoni” come la luce può essere descritta in termini di onde elettromagnetiche o fotoni. In questo documento ci occuperemo invece della caratterizzazione delle sorgenti di luce. Se puntiamo un telescopio verso il cielo ci rendiamo subito conto che sono solo due le sorgenti di luce dell’Universo alla portata dei nostri occhi, CCD o reflex digitali: stelle e nebulose (ad esclusioni di quelle oscure). La terza sorgente di luce, le galassie, sono in realtà una elegantissima miscela delle altre due.
Sebbene possano sembrare sorgenti identiche di luce ad occhio nudo, stelle e nebulose sono molto differenti. Le prime presentano uno spettro continuo mentre le seconde uno spettro discreto o di emissione. Questo significa che mentre le stelle emettono onde elettromagnetiche con valori continui di λ, il cui valore più probabile determina il colore della stella, le nebulose emettono solo un insieme discreto di lunghezze d’onda.
Tale differenza ha origine nel modo in cui stelle e nebulose generano la luce come descritto dalle tre leggi di Kirchhoff:
In questa sezione di Astrofotografia Digitale trascureremo la terza legge di Kirchhoff che, malgrado sia fondamentale in ambito spettroscopico, non gioca un ruolo essenziale nella comprensione del funzionamento di sensori a semiconduttori quali CMOS e CCD. Per maggiori dettagli riguardo la caratterizzazione di spettri continui, di emissione ed assorbimento rimandiamo alla sezione Spettroscopia Astronomica di ASTROtrezzi.
I successi ottenuti dalle teorie ondulatorie della luce, culminate con la formulazione dell’Elettrodinamica Classica, portarono gli scienziati dell’Ottocento a ritenere praticamente chiuso il secolare problema della natura della luce.
La luce che ci arriva dalle stelle è quindi rappresentata da un insieme di onde dette elettromagnetiche che dopo, aver viaggiato nello spazio interstellare vuoto, vengono raccolte dai nostri telescopi. Ciascuna onda elettromagnetica ha una determinata lunghezza d’onda λ e l’insieme di tutte queste onde costituisce quella che noi chiamiamo luce bianca. In particolare l’intervallo di lunghezze d’onda comprese tra 400 e 700 nm costituisce quella parte di luce visibile con i nostri occhi nota appunto come luce visibile. Ovviamente quest’ultima è solo una piccola parte di tutte le lunghezze d’onda che costituiscono la luce, la cui totalità prende il nome di spettro elettromagnetico.
L’arcobaleno è un fenomeno naturale dove la luce proveniente dal Sole viene scomposta in tutte le sue componenti mostrando ai nostri occhi la parte di luce visibile dello spettro elettromagnetico.
Qui sotto riportiamo la classificazione delle onde in funzione della loro λ:
In questo e nei futuri articoli considereremo solamente la luce visibile ed il vicino infrarosso/ultravioletto, uniche radiazioni in grado di essere rivelate dai sensori CMOS e CCD commerciali.
Alla luce di quanto detto le stelle sono quindi sorgenti di onde elettromagnetiche. La visione ondulatoria della luce venne però messa in dubbio all’inizio del Novecento quando una teoria appena nata, la Meccanica Quantistica, prevedeva che la luce presentasse sia aspetti di natura ondulatoria così come descritti dall’Elettrodinamica Classica, sia aspetti di natura corpuscolare. Come è possibile che la luce si comporti in modi talmente differenti? Questo non è chiaro e prende il nome di dualismo onda corpuscolo: la luce è sia onda che particella (nota come fotone).
La visione quantomeccanica dei “fenomeni luminosi” pare quindi mettere d’accordo tutti ma nello stesso tempo apre una voragine filosofica sulla natura ultima della luce.
Il dualismo onda corpuscolo si riflette ovviamente anche sulla nostra visione dell’Universo che quindi ora è duplice. Le stelle sono pertanto sia delle sorgenti di onde elettromagnetiche che delle generatrici di fotoni.
Quando la luce di una stella raggiunge lo specchio primario del vostro telescopio può pertanto essere riflessa come un’onda del mare che sbatte sul molo oppure, in chiave corpuscolare, i fotoni che la costituiscono possono rimbalzare sulla superficie del vostro specchio come palline da ping pong.
In questo caso entrambe le descrizioni vengono a coincidere. Non sempre è così. Infatti l’interferenza tra due onde elettromagnetiche è descrivibile solo in termini ondulatori, mentre l’effetto fotoelettrico alla basa della rivelazione della luce da parte di sensori CMOS e CCD è descrivibile solo in termini corpuscolari.
Ma se ciascuna onda elettromagnetica può essere caratterizzata da una lunghezza d’onda λ, come possiamo caratterizzare il fotone? La domanda può essere riformulata nel seguente modo: cosa caratterizza una particella in moto? La risposta è la massa e la velocità, ovvero in una parola: l’energia. Ogni fotone può avere un’energia che i fisici esprimono con un’unità di misura detta elettronvolt (eV). Qui sotto riportiamo la classificazione dei fotoni in funzione delle loro energie E:
Come potete vedere quindi l’Astrofotografia Digitale si occupa della rivelazione di fotoni con energia dell’ordine di qualche eV.
Nell’anno 1900, un fisico tedesco di nome Max Planck, formulò una legge in grado di associare ad un fotone di energia E la corrispettiva lunghezza d’onda λ ovvero un ponte tra il mondo corpuscolare e quello ondulatorio. La legge di Planck è data da:
E = hc/λ
Dove h è una costante nota come costante di Planck e c è la velocità della luce nel vuoto. In unità di misura “comode” per l’astrofotografia digitale il prodotto hc è uguale a circa 1240 eV nm.
Per un astrofilo a questo punto la pioggia non è solo fenomeno di sventura ma, se si tratta di pioggia di fotoni e non d’acqua, può essere un piacere per occhi, CCD e fotocamere digitali.
Briosco (MB), 26/06/2012 – IC1318
Telescopio guida: Newton SW 200 mm f/4 + camera Magzero MZ-5m. Inseguimento con PhD guiding ad 1s.
Telescopio di ripresa: Rifrattore ED Carbon Fiber TS 80 mm f/7 + spianatore di campo 0.8x + filtro Astronomik H-alfa 13 nm + Canon EOS 500D Modificata Baader. Controllo Canon EOS Utility.
Somma di 8 pose da 7 minuti (totale 56 minuti) ad 800 ISO + 32 bias + 5 dark + 31 flat effettuata con IRIS. Estrazione del canale rosso effettuata con Nebulosity2. Elaborazione finale Photoshop CS2/CS3.
Sormano (CO), 06/03/2011 – M82
Telescopio di guida: Newton 150 mm f/5 + MagZero MZ-5m. Controllo ogni 2s con PHD Guiding.
Telescopio di ripresa: Rifrattore ED Tecnosky carbon fiber 80 mm f/7 + 0.8x spianatore/riduttore + Canon EOS 500D. Controllo EOS utility.
Dati di ripresa: 10 pose da 10 minuti a 200 ISO + 3 dark + 30 bias + 26 flat (Geoptik flat generator). Elaborazione IRIS + Photoshop CS5
Immagine ottenuta dal crop dell’immagine di M81.
Passo San Marco (BG), 25/02/2012 – M65
Telescopio di guida: Rifrattore ED Tecnosky carbon fiber 80 mm f/7 + MagZero MZ-5m. Controllo ogni 1s con PHD Guiding.
Telescopio di ripresa: Newton SkyWatcher WidePhoto 200 mm f/4 + correttore di coma + Canon EOS 500D modificata. Controllo EOS utility.
Dati di ripresa: 9 scatti da 8 minuti a 400 ISO (1.12 h) + 53 bias + 9 dark + 54 Flat
Eleborazione effettuata con IRIS + Photoshop CS3.
Immagine ottenuta dal crop dell’immagine di M66.