1

NGC 7380 – 19/09/2012

Briosco (MB), 16/09/2012 – NGC7380
Composizione LRGB [HαSIIHαOIII] effettuata con IRIS + Photoshop (in HST Palette) dove:

  • L: Filtro Astronomik Hα 13nm. Somma di 4 immagini da 800 secondi bin 1 x 1 + 100 bias + 26 dark + 100 flat effettuata con IRIS.
  • R: Filtro Astronomik SII 13nm. Somma di 4 immagini da 900 secondi bin 1 x 1 + 100 bias + 23 dark + 100 flat effettuata con IRIS.
  • G: Filtro Astronomik Hα 13nm. Somma di 4 immagini da 800 secondi bin 1 x 1 + 100 bias + 26 dark + 100 flat effettuata con IRIS.
  • B: Filtro Astronomik OIII 12nm. Somma di 4 immagini da 800 secondi bin 1 x 1 + 100 bias + 26 dark + 100 flat effettuata con IRIS.

Telescopio di guida: Newton 200 mm f/4 SkyWatcher + Camera Magzero MZ-5m.
Obiettivo di ripresa: Rifrattore ED 80 mm f/7 Tecnosky Carbon Fiber + Spianatore/Riduttore 0.8x + filtro Astronomik +  CCD Atik 314L+ B/W.

NGC 7380 - 19/09/2012

Riportiamo di seguito anche i tre canali separatamente (SII, Hα ed OIII). L’immagine ripresa in SII mostra un leggero mosso dovuto al cattivo inseguimento della montatura NEQ6 per tempi di posa superiori ai 14 minuti. L’immagine ripresa in OIII mostra invece una leggera sfocatura dovuta all’aberrazione cromatica del rifrattore ED (o al fatto che i filtri Astronomik non sono perfettamente afocali… verificheremo in futuro).

NGC 7380 (SII) - 19/09/2012

NGC 7380 (Hα) - 19/09/2012

NGC 7380 (OIII) - 19/09/2012




NGC 7380 – 16/09/2012

Briosco (MB), 16/09/2012 – NGC7380

Somma di 12 immagini da 15 minuti bin 1 x 1 + 100 bias + 23 dark + 100 flat effettuata con IRIS + Photoshop CS2/CS3.

Telescopio di guida: Newton 200 mm f/4 SkyWatcher + Camera Magzero MZ-5m. Software controllo PhD guiding 1s.

Obiettivo di ripresa: Rifrattore ED 80 mm f/7 Tecnosky Carbon Fiber + Spianatore/Riduttore 0.8x + filtro Atik Hα 13nm +  CCD Atik 314L+ B/W, software Artemis Atik Capture

NGC7380 - 16/09/2012




M11 (NGC 6705) – 18/08/2012

Passo dello Spluga (SO), 18/08/2012 – M11

Somma di 5 immagini da 8 minuti 200 ISO + 40 bias + 6 dark + 40 flat effettuata con IRIS + Photoshop CS2/CS3.

Telescopio di guida: Rifrattore acromatico 70 mm f/7 + Camera Magzero MZ-5m. Software controllo PhD guiding.

Obiettivo di ripresa: Canon EF 100 mm f/2.8 L IS USM Macro utilizzato ad f/3.5 + Camera Canon EOS 500D modificata. Software controllo Canon Utility.

(Clicca qui per l’immagine originale in formato JPG)

 

M11 (NGC 6705) - 18/08/2012




NGC 7635 – 21/08/2012

Briosco (MB), 21/08/2012 – NGC 7635

Telescopio di ripresa: Newton 200 mm f/4 SkyWatcher + correttore di coma Baader MPCC + filtro Atik Hα 13nm +  CCD Atik 314L+ BW, software Artemis Atik Capture

Telescopio di guida: Rifrattore ED 80 mm f/7 Tecnosky Carbon Fiber + camera MagZero MZ-5m, software PhDguiding 1s.

Somma di 3 immagini da 480 secondi (totale 0:24 h). Elaborazione IRIS + Photoshop CS3.

NGC 7635 - 21/08/2012




IC 1396 – 17/08/2012

Passo dello Spluga (SO), 17/08/2012 – M52

Somma di 14 immagini da 8 minuti a 800 ISO + 30 bias + 5 dark + 31 flat effettuata con IRIS + Photoshop CS2/CS3.

Telescopio di guida: Newton 200 mm f/4 + Camera Magzero MZ-5m. Software controllo PhD guiding.

Telescopio di ripresa: Rifrattore ED 80 mm f/7 + spianatore/riduttore 0.8x + Camera Canon EOS 500D modificata. Software controllo Canon Utility.

(Clicca qui per l’immagine originale in formato JPG)

IC1396 - 17/08/2012




M52 (NGC 7654) – 17/08/2012

Passo dello Spluga (SO), 17/08/2012 – M52

Somma di 13 immagini da 12 minuti 400 ISO + 30 bias + 4 dark + 31 flat effettuata con IRIS + Photoshop CS2/CS3.

Telescopio di guida: Newton 200 mm f/4 + Camera Magzero MZ-5m. Software controllo PhD guiding.

Telescopio di ripresa: Rifrattore ED 80 mm f/7 + spianatore/riduttore 0.8x + Camera Canon EOS 500D modificata. Software controllo Canon Utility.

(Clicca qui per l’immagine originale in formato JPG)

M52 (NGC 7654) - 17/08/2012




NGC 6888 – 31/07/2012

Briosco (MB), 31/07/2012 – NGC 6888

Telescopio di ripresa: Newton 200 mm f/4 SkyWatcher + correttore di coma Baader MPCC + filtro Atik Hα 13nm +  CCD Atik 314L+ BW, software Artemis Atik Capture

Telescopio di guida: Rifrattore ED 80 mm f/7 Tecnosky Carbon Fiber + camera MagZero MZ-5m, software PhDguiding 1-4s.

Somma di 6 immagini da 500 secondi (totale 0:50 h) + 2 dark + 34 bias + 35 flat (effettuati con flatbox Geoptik). Elaborazione IRIS. Questo è un primo test di funzionamento della nuova CCD Atik e determinazione sperimentale della distanza sensore – correttore di coma. Purtroppo, forse a seguito di un cattivo allineamento polare o disallineamento telescopio di ripresa – telescopio guida, l’inseguimento è risultato problematico.

NGC6888 - 31/07/2012




NGC 7000 – 26/07/2012

Briosco (MB), 26/07/2012 – NGC7000

Telescopio di ripresa: Newton 200 mm f/4 SkyWatcher + correttore di coma Baader MPCC + camera Canon EOS 500D (modificata Baader), software Canon EOS utility.

Telescopio di guida: Rifrattore ED 80 mm f/7 Tecnosky Carbon Fiber + camera MagZero MZ-5m, software PhDguiding 1s.

L’immagine è una composizione di tre immagini monocromatiche riprese con: Filtro Astronomik Hα 13 nm (canale rosso), Filtro Astronomik SII 13 nm (canale rosso), Filtro Astronomik OIII 12 nm (canale blu). La composizione finale consiste in una tricromia tipo Hubble Palette SII-Hα-OIII. I dati per ciascun filtro sono riportati di seguito:

  • Hα: somma di 11 immagini da 2 minuti a 3200 ISO (totale 0:22 h) + 6 dark + 30 bias + 30 flat (effettuati con flatbox Geoptik). Elaborazione IRIS
  • OIII: somma di 11 immagini da 2 minuti a 3200 ISO (totale 0:22h) + 6 dark + 30 bias + 30 flat (effettuati con flatbox Geoptik). Elaborazione IRIS
  • SII: somma di 5 immagini da 4 minuti a 3200 ISO (totale 0:20h) + 3 dark + 30 bias + 30 flat (effettuati con flatbox Geoptik). Elaborazione IRIS

composizione finale effettuata con Adobe Photoshop CS2/CS3. (Clicca qui per l’immagine originale in formato JPG)

NGC7000 - 26/07/2012




NGC 7000 – 21/07/2012

Passo del Mortirolo (BS), 21/07/2012 – NGC7000

Telescopio di guida: Newton 200 mm f/4 SkyWatcher + camera MagZero MZ-5m, software PhDguiding 1-5s.

Telescopio di ripresa: Rifrattore ED 80 mm f/7 Tecnosky Carbon Fiber + riduttore/spianatore 0.8x + camera Canon EOS 500D (modificata Baader), software Canon EOS utility.

L’immagine è una somma di 30 immagini da 2 minuti a 3200 ISO (totale 1.00 h) + 27 dark + 50 bias + 50 flat (effettuati con flatbox Geoptik). Elaborazione IRIS + Photoshop CS2/CS3.

 

NGC7000 - 21/07/2012




IC 5146 – 17/07/2012

Sormano (CO), 17/07/2012 – IC 5146

Somma di 7 immagini da 12 minuti ad 800 ISO (totale 1:24h) + 40 bias + 40 flat + 5 dark effettuata con IRIS + Photoshop CS2/CS3.

Telescopio di ripresa: Rifrattore ED 80 mm f/7 + spianatore/riduttore 0.8x + Filtro UHC-E 2” + Canon EOS 500D (modificata Baader). Software controllo EOS utility.

Telescopio di guida: Newton 200 mm f/4 + Camera Magzero MZ-5m. Software controllo PhD guiding.

IC 5146 - 17/07/2012




M92 (NGC 6341) – 12/07/2012

Briosco (MB), 12/07/2012 – M92

Somma di 4 immagini da 10 minuti + 20 bias + 20 flat + 8 dark (temperatura – 0.3 °C) effettuata con IRIS + Photoshop CS3.

Telescopio di guida: Newton 200 mm f/4 + Camera Magzero MZ-5m. Software controllo PhD guiding.

Telescopio di ripresa: Rifrattore ED 80 mm f/7 + spianatore/riduttore 0.8x + Camera CCD Atik 314L+ color. Software controllo Artemis.

 

M92 (NGC 6341) - 12/07/2012




NGC 6960 – 09/07/2012

Sormano (CO), 09/07/2012 – NGC 6960

Somma di 4 immagini da 10 minuti + 20 bias + 20 flat + 8 dark (temperatura – 0.3 °C) effettuata con IRIS + Photoshop CS3.
Telescopio di ripresa: Newton 200 mm f/4 + correttore di coma Baader + Camera CCD Atik 314L+ color (proprietà Rosario Magaldi). Software controllo Artemis.
Telescopio di guida: Rifrattore ED 80 mm f/7 + Camera Magzero MZ-5m. Software controllo PhD guiding.

NGC 6960 - 09/07/2012




ADC: dal mondo analogico a quello digitale

Il segnale di carica, eventualmente trasportato lungo il sensore come nel caso dei CCD, viene convertito in un segnale analogico di tensione e quindi amplificato (si veda l’articolo La generazione del segnale: CCD e CMOS). Tale segnale avrà un’ampiezza proporzionale al numero di elettroni prodotti in ciascun fotoelemento e quindi al numero di fotoni “cosmici” che hanno raggiunto lo stesso durante il tempo di esposizione. Dato che il fenomeno di conversione fotone/elettrone è di tipo statistico quello che succede è che il valore dell’ampiezza del segnale può assumere infiniti valori nell’intorno di quello che è il valore atteso. Un segnale del genere non può essere analizzato da un computer. Si rende pertanto necessaria una traduzione dal “linguaggio” analogico ad uno di tipo “digitale”. Il computer o più precisamente il calcolatore, è in grado di compiere operazioni su numeri interi espressi in sistema binario (ovvero sequenze di uni e zeri). Questo perché gli operatori logici di un calcolatore si basano su interruttori che possono assumere unicamente due condizioni: circuito aperto (1) e circuito chiuso (0).

Lo strumento in grado di convertire un segnale analogico in un segnale digitale, ovvero trasformare un numero con infinite cifre in uno intero è detto Analog to Digital Converter (ADC).

Nel caso dei sensori CCD abbiamo un solo ADC posto dopo l’output amplifer, mentre nel caso di sensori CMOS abbiamo un ADC per ogni amplificatore presente.

A questo punto maggiore sarà il numero di cifre che l’ADC riuscirà a generare, maggiore sarà la qualità del segnale digitalizzato e quindi dell’immagine finale. Ovviamente a parità di capacità da parte del fotoelemento di accumulare carica elettrica

Questo è vero a parità di capacità da parte del fotoelemento di accumulare la carica elettrica. Il rapporto tra il massimo ed il minimo valore di carica accumulabile in ciascun fotoelemento prende il nome di range dinamico. Un ADC deve essere in grado di produrre un segnale digitale sensibile a tutti i possibili valori del range dinamico. Il valore discreto assunto da quest’ultimo sarà espresso in Analog to Digital Unit (ADU) e spazia da 256 a 65535.

Ma cosa determina questi numeri?

Abbiamo discusso prima di come il segnale in uscita dall’ADC dovrà presentarsi in una forma adatta ad essere processata da un calcolatore ovvero in codice binario. A questo punto supponiamo di avere a disposizione una sequenza formata da 8 segnali acceso/spento (ovvero 1 o 0) per ogni ampiezza digitalizzata. Questo significa che per valore pari a 0 Volt dell’ampiezza analogica avremo un segnale digitale della forma 00000000, mentre per il valore massimo di tensione assunto dall’ampiezza avremo 11111111. Se traduciamo questi due numeri in decimale avremo che 00000000 corrisponderà a 0 (ovviamente) mentre 11111111 corrisponderà a 255. Ecco perché si è detto che gli ADU possono assumere 256 valori (ovvero numeri interi compresi tra 0 e 255).

Se ora usiamo 9 segnali acceso/spento avremo un segnale digitale compreso tra 000000000 e 111111111 che in decimale è 511 ovvero una range in ADU pari a 512 valori.

Il numero di segnali acceso/spento ovvero il numero massimo di cifre del numero binario digitalizzato definisce il bit di conversione dell’ADC. Quindi nel primo esempio avevamo un ADC a 8 bit, mentre nel secondo caso a 9 bit. C’è un legame tra il numero di bit ed i possibili valori generati dall’ADC N:

N = 2bit

quindi:

  • ADC ad 8 bit – 256 valori (0 – 255 ADU)
  • ADC a 10 bit – 1024 valori (0 – 1023 ADU)
  • ADC a 14 bit – 16384 valori (0 – 16383 ADU)
  • ADC a 16 bit – 65536 valori (0 – 65535 ADU)

La capacità di un fotoelemento di raccogliere elettroni è noto come gamma dinamica. In particolare la gamma dinamica è definita come il rapporto tra il massimo ed il minimo numero di elettroni accumulabile in un fotoelemento. Ad esempio se la massima capacità di accumulo delle cariche di un fotoelemento è 5000 elettroni e la minima è 5 elettroni, la gamma dinamica è 1’000:1.

La gamma dinamica determina così il numero di bit che l’ADC deve avere per digitalizzare correttamente il segnale. Se abbiamo un sensore con gamma dinamica 1000:1 avremo bisogno di un ADC ad almeno 10 bit. Bisogna a questo punto fare attenzione che non è l’ADC a determinare la dinamica di un sensore ma viceversa. A ciascun valore discreto della gamma dinamica, correttamente digitalizzato dall’ADC è associabile un tono di grigio. Si parla quindi di gamma tonale come del numero di possibili toni necessari per descrivere la gamma dinamica del sensore.

Riassumendo quindi un sensore può essere sensibile ad una maggiore differenza luce-ombre a seconda della propria gamma dinamica. A parità di gamma dinamica però il segnale può venire digitalizzato correttamente o con un ADC in grado di fornire valori (livelli) inferiori alla gamma dinamica. Nel primo caso si parla di gamma tonale adeguata, nel secondo caso invece si ha una scarsa gamma tonale.

Assunta una scelta dell’ADC proporzionata alla gamma dinamica del sensore, il numero di bit di un ADC, e quindi il range di valori o livelli di luminosità possibili a seguito della digitalizzazione del segnale, definisce il range tonale di un sensore. Un’immagine ad 8 bit è in grado pertanto di distinguere 256 toni di grigio, una a 16 bit 65536 e così via.

Ma quanti toni vede l’occhio umano? Non abbiamo un numero preciso ma si stima che un occhio umano sia in grado di distinguere circa 10’000’000 di colori. Pertanto sarebbe necessario un ADC a 24 bit (16’777’216 livelli) per digitalizzare correttamente il segnale.

In “Costruire un’immagine a colori” vedremo come un’immagine a colori da 24 bit può essere “scomposta” a partire da tre immagini in scala di grigio da 8 bit. In termini pratici quindi un occhio umano può distinguere al massimo 256 toni di grigio.

Perché quindi le camere CCD in bianco e nero producono immagini a 16 bit? La soluzione sta nella possibilità, tramite tecniche di elaborazione delle immagini astronomiche di “comprimere” una dinamica molto ampia fornita dai sensori CCD in un’immagine a 8 bit. Questo permetterebbe ad esempio di avere nella stessa immagine dettagli di luminosità estremamente diversa. Per maggiori dettagli si faccia riferimento all’articolo Istogramma e stretching dinamico: come ottenere il massimo dalla dinamica del nostro sensore.




La generazione del segnale: CCD e CMOS

Nell’articolo “Il Fotoelemento: Fotodiodo e Photogate” abbiamo visto come fotodiodi e photogate vengono naturalmente utilizzati come mezzo di conversione fotone/elettrone nella maggior parte delle camere commerciali, siano esse CCD o semplici DSLR. Il problema della scarsa dimensione della regione di svuotamento dei fotodiodi è stata recentemente risolta applicando delle microlenti. Queste sono in grado di convogliare gran parte della luce verso la regione fotosensibile del fotodiodo. Analogamente anche i photogate sono stati ottimizzati utilizzando elettrodi sempre più sottili oppure facendo incidere i fotoni dal lato opposto (si parla di sensori back-illuminated).

Supponendo di esporre il fotoelemento per un determinato periodo di tempo alla radiazione luminosa, noto come tempo di esposizione, quello che otterremo è una certa quantità di carica accumulata sulle armature del nostro “ipotetico” condensatore costituito dalla distribuzione di carica ai bordi della regione di svuotamento.

In un sensore abbiamo milioni di fotoelementi, ciascuno con la sua carica accumulata durante il tempo di esposizione. Come fare ora a processare tutti queste informazioni fondamentali per ricostruire l’immagine originale? Ci sono due strategie e quindi di sensori che prendono il nome di Charge Coupled Device (CCD) e Complementary Metal Oxide Semiconductor (CMOS).

CHARGE COUPLED DEVICE

Il CCD è un fotoelemento a cui vengono applicati due, tre o quattro elettrodi in polisilicio(si parla di CCD a due, tre o quattro fasi). Tali elettrodi servono per trasportare attraverso opportuni potenziali la carica elettrica depositata da una parte all’altra del fotoelemento, nonché da un fotoelemento all’altro.

L'immagine riassume il trasporto della carica all'interno del singolo fotoelemento. La carica accumulata in prossimità del primo elettrodo (A) viene mano a mano spostata verso l'ultimo elettrodo attraverso una serie di step (B-C-D-E). Con la stessa procedura sarà poi possibile passare la carica al fotoelemento confinante (F), iniziando quello che è il processo di trasporto della carica in un sensore CCD.

E’ così possibile sequenzialmente spostare la carica accumulata da un pixel all’altro permettendo a questa di percorrere lunghe distanze con perdite che si riducono a meno dello 0.00001%. Difetti nel reticolo cristallino dei fotoelementi possono produrre perdite maggiori ed è per questo che i CCD sono molto sensibili ai danni da radiazione nucleare.

Il trasporto avviene seguendo linee verticali di fotoelementi (VCCD). L’ultima linea orizzontale di fotoelementi, grazie ad uno spessore metallico, è schermata dalla luce (HCCD). La carica di tutti i fotoelementi VCCD vicini all’HCCD viene trasferita a quest’ultimo che a sua volta la muoverà orizzontalmente verso l’output amplifer, un amplificatore che amplificherà il segnale di carica trasformandolo in un segnale analogico (tensione).

Attraverso questo schema alla fine i valori di carica di ciascun fotoelemento verrà trasformato in un segnale. Essendo la lettura sequenziale non è possibile leggere il valore di carica di un determinato fotoelemento senza leggere prima tutto il sensore. Abbiamo tre tipi di CCD a seconda di come il segnale venga inviato all’output amplifer:

  • Full frame: è il sistema “classico” in cui i fotoelementi si comportano sia da luoghi di accumulo che da luoghi di trasporto. Proprio per questo motivo i sensori CCD di tipo Full frame devono essere ricoperti da un otturatore meccanico al termine della ripresa. Il vantaggio ottenuto è un aumento della superficie fotosensibile e della capacità di accumulo delle cariche.
  • Interline transfer: in questo caso abbiamo che il fotoelemento non coincide con il luogo di trasporto della carica. In tale tipo di CCD ciascun fotoelemento viene duplicato: uno sarà l’elemento fotosensibile mentre l’altro, posto a lato, verrà opportunamente schermato dalla radiazione luminosa e servirà per il trasporto di carica. Alla fine dello scatto la carica accumulata viene così trasferita dal fotoelemento fotosensibile a quello schermato e quindi via via fino all’output amplifer. Questo permette di ridurre i tempi di attesa tra uno scatto e l’altro nonché la possibilità di fare a meno dell’otturatore meccanico. Il tutto purtroppo a scapito di una diminuzione della superficie fotosensibile.
  • Frame transfer: in questo caso il fotoelemento coincide con il luogo di trasporto, ma il segnale di carica invece di essere inviato all’HCCD e quindi all’output amplifer viene “copiato” su un duplicato dell’intero sensore schermato però dalla radiazione luminosa. Questo al fine di diminuire i tempi di amplificazione, responsabili principali del tempo di elaborazione del segnale di carica dopo uno scatto di ripresa. A differenza dell’interline transfer il frame transfer ha una superficie fotosensibile maggiore a scapito però di un maggiore consumo di spazio e potenza elettrica assorbita.

Schema di trasporto dei diversi tipi di CCD

Infine l’output amplifer trasformerà il segnale di carica in segnale di tensione amplificato. Questo verrà successivamente digitalizzato tramite un opportuno ADC. Per maggiori dettagli si faccia riferimento all’articolo ADC: dal mondo analogico a quello digitale.

COMPLEMENTARY METAL OXIDE SEMICONDUCTOR

Nel CMOS ogni elemento fotosensibile in Silicio (fotodiodo o photogate) è affiancato dal sistema di formazione e amplificazione del segnale di tensione con successiva digitalizzazione attraverso un opportuno ADC. Questo comporta la presenza di tre, quattro o cinque transistor oltre ad una seria di microcavi che connettono ciascun fotoelemento. A differenza del CCD, l’accesso è ad indirizzo e non sequenziale. Il vantaggio è la possibilità di accedere ad un determinato fotoelemento senza dover per forza “leggere” l’intero sensore. Esistono due tipi di CMOS legati non tanto al sistema di trasporto del segnale quanto al processo di amplificazione:

  • Passive Pixel Sensor (PPS): è il sistema più semplice costituito da un solo amplificatore per colonna di fotoelementi. Questo permette di ridurre il numero di transistor a uno solo aumentando pertanto la superficie sensibile alla radiazione luminosa a scapito di un aumento del rumore a seguito della presenza di un maggior numero di cavi di collegamento (bus).
  • Active Pixel Sensor (APS): è il tipo di CMOS più diffuso dove ogni fotoelemento è affiancato da un amplificatore. A differenza dei PPS il numero di bus è notevolmente ridotto anche se i transistor nel fotoelemento aumentano da uno fino ad un massimo di cinque.

Grazie alle basse tensioni di funzionamento i CMOS consumano fino a 10 volte meno dei CCD a scapito di un aumento del rumore termico. Per maggiori dettagli si legga l’articolo Guida all’astrofotografia digitale.

Oggi sensori con tecnologia CMOS sono utilizzati principalmente per le DSLR commerciali grazie ai bassi consumi (importanti per la trasportabilità della camera, riducendo il consumo di batterie) e prezzi di produzione. Anche le webcam economiche sfruttano spesso sensori di tipo CMOS generalmente più veloci dei CCD.

Sensori con tecnologia CCD sono invece i più diffusi nel mondo dell’astrofotografia digitale, grazie alla loro maggiore capacità di raccogliere e convertire la radiazione luminosa mantenendo basso il rumore (o se volete alto il rapporto segnale/rumore).




Il fotoelemento: fotodiodo e photogate

Nell’articolo “È questione di elettroni” abbiamo visto come un fotone con energia superiore all’energy gap può produrre uno (o più) elettroni liberi in un semiconduttore. Nel caso particolare del Silicio abbiamo praticamente un rapporto uno ad uno tra fotoni incidenti ed elettroni liberati, almeno per quel che riguarda lo spettro visibile. In particolare la massima lunghezza d’onda “rivelabile” da un Silicio è quella associata ad un fotone di energia 1.12 eV, ovvero 1100 nm corrispondente al vicino infrarosso. Per quanto riguarda invece la minima lunghezza d’onda “rivelabile” il problema diviene più complesso dato che all’aumentare dell’energia del fotone entrano in gioco processi di perdita di energia che diminuiscono la possibilità di creare elettroni liberi. Per i raggi UV ad esempio l’energia necessaria per liberare un elettrone passa da 1.12 eV dell’energy gap a quasi 3.6 eV (valore assunto per fotoni ad alta energia come i raggi X o gamma molli). Dal punto di vista fenomenologico si usa dire pertanto che la lunghezza d’onda minima osservabile da un rivelatore al Silicio è pari a circa 350 nm.

Spesso ci si riferisce agli elettroni liberi come cariche elettriche. Tali cariche prodotte dalla conversione fotone/elettrone (noto come effetto fotoelettrico) dovranno essere successivamente trasportate in un luogo atto all’accumulo e alla conservazione delle stesse per periodi anche lunghi di tempo. Il tutto nel modo più efficiente possibile, ovvero senza che questi elettroni liberi vengano in qualche modo intrappolati nuovamente nel cristallo.

Per fare questo si utilizzano determinati tipi di semiconduttori detti drogati ovvero contaminati da atomi in grado di aumentare o inibire la conduzione del semiconduttore stesso. Si parla di semiconduttori drogati p se l’atomo contaminante inibisce il rilascio di elettroni liberi mentre si parla di semiconduttori drogati n se l’atomo contaminante fornisce elettroni liberi aumentando la conduzione. Si osservi infine come un atomo che inibisce la conduzione è assimilabile ad una buca in grado di catturare un elettrone libero.

Cosa succede se avviciniamo fisicamente due semiconduttori dello stesso tipo ma drogati in modo differenti (quella che prende il nome di giunzione p-n)? Come è possibile immaginare, gli elettroni in eccesso nel semiconduttore di tipo n saranno attratti dalle buche presenti nel semiconduttore di tipo p dando luogo ad un lento processo di diffusione. Tale processo terminerà con l’acquisto di un elettrone da parte dell’atomo contaminante p a scapito dell’atomo contaminante n. Questo significa che lentamente la parte di semiconduttore drogato p andrà a caricarsi negativamente (acquista elettroni) mentre la parte n positivamente (perde elettroni). Questa distribuzione di carica creerà un campo elettrico in capace di controbilanciare la diffusione e creare pertanto una condizione di equilibrio. Nella sottile regione tra i due semiconduttori p ed n non ci saranno elettroni liberi e quindi risulterà essere un perfetto isolante. Questa regione è nota come regione di svuotamento.

Supponiamo ora di applicare un potenziale positivo al semiconduttore drogato n e negativo al semiconduttore drogato p. Gli elettroni liberi nella regione n tenderanno ad andare verso l’elettrodo positivo così come gli elettroni del potenziale negativo andranno ad occupare le buche del semiconduttore di tipo p. A questo punto quindi elettroni e buche verranno sempre più allontanate dalla giunzione allargando la regione di svuotamento.

Perché è importante la regione di svuotamento? Perché in quella regione non ci sono elettroni liberi. Questo fatto è importantissimo per la conversione fotone/elettrone. Infatti riprendendo il problema originale da cui eravamo partiti, un elettrone prodotto dall’interazione del Silicio con un fotone (detto fotoelettrone) risulta indistinguibile dagli elettroni liberi naturalmente presenti nel semiconduttore. Se però tale fotoelettrone viene prodotto in una regione di svuotamento allora risulterà l’unico presente in quella zona, garantendone una corretta rivelazione. Inoltre bisogna notare come se l’elettrone libero viene prodotto in una zona ricca di buche allora la probabilità che sopravviva fino all’elettrodo è praticamente nulla.

Una volta prodotto il fotoelettrone nella regione di svuotamento, il potenziale applicato lo spingerà verso l’elettrodo producendo così un segnale di carica.

Schema di una giunzione p-n

Lo stesso risultato ottenuto con una giunzione p-n opportunamente alimentata (ci si riferisce come alimentazione inversa), può essere ottenuto con un solo semiconduttore drogato p o n ed un elettrodo in polisilicio carico positivamente e separato dal semiconduttore grazie ad una sottile superficie isolante (ossido di Silicio). Questo elettrodo attirerà a se gli eventuali elettroni liberi o riempirà le buche creando una regione di svuotamento. Un fotone che inciderà in tale regione di svuotamento produrrà un elettrone libero che verrà attratto all’elettrodo generando un segnale di carica. Questa struttura prende il nome di MOS (Metal Oxide Semiconductor).

Schema di un MOS

 

Una struttura in grado di convertire fotoni in elettroni è detto fotoelemento. A questo punto abbiamo due tipi di fotoelementi:

  • PHOTODIODE (fotodiodo): costituito da una giunzione p-n alimentata inversamente;
  • PHOTOGATE: costituito da un MOS.

Sia photodiode che photogate sono presenti nei sensori CCD e CMOS. Ma quali sono le differenze tra i due tipi di fotoelementi in termini di conversione fotone/elettrone? Le differenze si riassumono in una sola osservazione: l’elettrodo presente nel MOS può far assumere alla regione di svuotamento dimensioni molto maggiori di quelle che una giunzione p-n riesce a generare. Questo fa si che i photogate abbiano regioni sensibili alla luce molto più grandi rispetto ai fotodiodi. In termini operativi questo significa una maggiore capacità di raccogliere fotoni a parità di area. Questo pregio è anche un difetto in quanto l’elettrodo in polisilicio costituisce un elemento assorbente soprattutto per i fotoni a corta lunghezza d’onda (blu). Ad oggi le due tecnologie risultano in perfetta competizione.

Siano essi photodiode o photogate, i fotoelementi si comportano come condensatori. Infatti in entrambe i casi abbiamo delle distribuzioni di carica separate da un isolante (la regione di svuotamento). Il condensatore ha la funzione di accumulare le cariche nel tempo e quindi ecco che i fotoelementi oltre ad essere dei buoni convertitori fotone/elettrone sono anche dei buoni “accumulatori”. I photogate possono accumulare più carica dei fotodiodi date le sue maggiori dimensioni effettive.




È questione di elettroni

Nell’articolo Un Universo di fotoni, abbiamo visto come qualsiasi oggetto celeste, dalle stelle alle nebulose, può essere interpretato come una sorgente di fotoni. Scopo di uno strumento visivo, come gli occhi o le fotocamere, è quello di raccogliere questi fotoni di origine cosmica e ricostruire l’immagine della sorgente che li ha generati.

Per comprendere a fondo il processo di cattura dei fotoni è necessario comprendere come questi interagiscono con la materia.

Il termine materia è molto generico ed indica sostanzialmente tutto quanto ci circonda (luce esclusa).

Per quanto riguarda la rivelazione dei fotoni ci concentreremo particolarmente su quella classe di materiali noti come solidi trascurando di conseguenza i liquidi ed i gas.

Così come tutta la materia, anche i solidi sono costituiti da atomi ciascuno formato da un nucleo ed un certo numero di elettroni. A differenza del classico modello di “atomo libero”, nei solidi gli elettroni non appartengono ad un determinato nucleo atomico ma sono condivisi da tutti i nuclei disposti secondo quello che prende il nome di reticolo cristallino. Detto questo le caratteristiche elettriche di un solido saranno determinate dalla mobilità degli elettroni all’interno del solido. Se un solido dispone di numerosi elettroni liberi si dice essere un buon conduttore altrimenti si parla di isolante.

Esistono dei solidi dove naturalmente gli elettroni sono legati fortemente ai nuclei atomici ma con un piccolo apporto di energia dall’esterno è possibile renderne alcuni liberi trasformando quello che naturalmente era un isolante in un conduttore di elettricità. Questa classe di solidi prende il nome di semiconduttori.

L’apporto di energia necessario per rendere un elettrone libero è detta energy gap ed è diversa da semiconduttore a semiconduttore. Nel caso del Silicio questa vale, a temperatura ambiente, 1.12 eV.

Cosa succede ora se un fotone urta un blocco di semiconduttore? L’energia del fotone verrà trasferita ad uno degli elettroni presenti nel mezzo e se questa sarà superiore all’energy gap del solido, renderà tale elettrone libero.

L’importanza della “conversione” di fotoni in elettroni è legata principalmente all’impossibilità attuale di confinare la luce. In particolare il duetto luce visibile – Silicio si è rivelato chiave nella conversione fotone-elettrone. Infatti per fotoni con l’energia della luce visibile (1.7 – 3.1 eV) c’è praticamente una relazione uno ad uno tra fotoni incidenti ed elettroni liberi generati. La logica di base della fotografia digitale è quindi quella di convertire il numero di fotoni incidenti sul sensore in elettroni che, opportunamente manipolati, genereranno un segnale digitale in grado di riprodurre su un opportuno schermo la distribuzione dei fotoni originali. Ulteriore vantaggio della fotografia digitale è che il segnale digitale può essere duplicato e quindi memorizzato su un opportuno supporto (come un CD, un DVD o un HD).

L'astrofotografia digitale riassunta in uno schema.




Sorgenti di luce

Abbiamo visto in “Un Universo di fotoni come la luce può essere descritta in termini di onde elettromagnetiche o fotoni. In questo documento ci occuperemo invece della caratterizzazione delle sorgenti di luce. Se puntiamo un telescopio verso il cielo ci rendiamo subito conto che sono solo due le sorgenti di luce dell’Universo alla portata dei nostri occhi, CCD o reflex digitali: stelle e nebulose (ad esclusioni di quelle oscure). La terza sorgente di luce, le galassie, sono in realtà una elegantissima miscela delle altre due.

Sebbene possano sembrare sorgenti identiche di luce ad occhio nudo, stelle e nebulose sono molto differenti. Le prime presentano uno spettro continuo mentre le seconde uno spettro discreto o di emissione. Questo significa che mentre le stelle emettono onde elettromagnetiche con valori continui di λ, il cui valore più probabile determina il colore della stella, le nebulose emettono solo un insieme discreto di lunghezze d’onda.

Se osservata attraverso un reticolo di diffrazione la nebulosa M42 mostra uno spettro discreto (emissione) dove le linee principali sono la Hα (656 nm) e la OIII (501 nm). Le stelle invece hanno uno spettro continuo come mostrato nel visibile in figura.

Tale differenza ha origine nel modo in cui stelle e nebulose generano la luce come descritto dalle tre leggi di Kirchhoff:

  • Un gas o un solido incandescente ad alta pressione produce uno spettro continuo,
  • Un gas incandescente a bassa pressione produce uno spettro di emissione,
  • Uno spettro continuo osservato attraverso un gas a bassa densità e a bassa temperatura produce uno spettro di assorbimento.

In questa sezione di Astrofotografia Digitale trascureremo la terza legge di Kirchhoff che, malgrado sia fondamentale in ambito spettroscopico, non gioca un ruolo essenziale nella comprensione del funzionamento di sensori a semiconduttori quali CMOS e CCD. Per maggiori dettagli riguardo la caratterizzazione di spettri continui, di emissione ed assorbimento rimandiamo alla sezione Spettroscopia Astronomica di ASTROtrezzi.




Un Universo di fotoni

I successi ottenuti dalle teorie ondulatorie della luce, culminate con la formulazione dell’Elettrodinamica Classica, portarono gli scienziati dell’Ottocento a ritenere praticamente chiuso il secolare problema della natura della luce.

La luce che ci arriva dalle stelle è quindi rappresentata da un insieme di onde dette elettromagnetiche che dopo, aver viaggiato nello spazio interstellare vuoto, vengono raccolte dai nostri telescopi. Ciascuna onda elettromagnetica ha una determinata lunghezza d’onda λ e l’insieme di tutte queste onde costituisce quella che noi chiamiamo luce bianca. In particolare l’intervallo di lunghezze d’onda comprese tra 400 e 700 nm costituisce quella parte di luce visibile con i nostri occhi nota appunto come luce visibile. Ovviamente quest’ultima è solo una piccola parte di tutte le lunghezze d’onda che costituiscono la luce, la cui totalità prende il nome di spettro elettromagnetico.

L’arcobaleno è un fenomeno naturale dove la luce proveniente dal Sole viene scomposta in tutte le sue componenti mostrando ai nostri occhi la parte di luce visibile dello spettro elettromagnetico.

Lo spettro elettromagnetico, ovvero la scomposizione della luce bianca nelle sue componenti “colorate”, è ben visibile in un arcobaleno.

Qui sotto riportiamo la classificazione delle onde in funzione della loro λ:

  • Onde radio: > 1’000’000’000 nm
  • Microonde: 1’000’000 – 1’000’000’000 nm
  • Infrarossi: 700 – 1’000’000 nm
  • Luce visibile: 400 – 700 nm
  • Ultravioletto: 100 – 400 nm
  • Raggi X: 0.001 – 100 nm
  • Raggi γ: < 0.001 nm

In questo e nei futuri articoli considereremo solamente la luce visibile ed il vicino infrarosso/ultravioletto, uniche radiazioni in grado di essere rivelate dai sensori CMOS e CCD commerciali.

Alla luce di quanto detto le stelle sono quindi sorgenti di onde elettromagnetiche. La visione ondulatoria della luce venne però messa in dubbio all’inizio del Novecento quando una teoria appena nata, la Meccanica Quantistica, prevedeva che la luce presentasse sia aspetti di natura ondulatoria così come descritti dall’Elettrodinamica Classica, sia aspetti di natura corpuscolare. Come è possibile che la luce si comporti in modi talmente differenti? Questo non è chiaro e prende il nome di dualismo onda corpuscolo: la luce è sia onda che particella (nota come fotone).

La visione quantomeccanica dei “fenomeni luminosi” pare quindi mettere d’accordo tutti ma nello stesso tempo apre una voragine filosofica sulla natura ultima della luce.

Il dualismo onda corpuscolo si riflette ovviamente anche sulla nostra visione dell’Universo che quindi ora è duplice. Le stelle sono pertanto sia delle sorgenti di onde elettromagnetiche che delle generatrici di fotoni.

Quando la luce di una stella raggiunge lo specchio primario del vostro telescopio può pertanto essere riflessa come un’onda del mare che sbatte sul molo oppure, in chiave corpuscolare, i fotoni che la costituiscono possono rimbalzare sulla superficie del vostro specchio come palline da ping pong.

In questo caso entrambe le descrizioni vengono a coincidere. Non sempre è così. Infatti l’interferenza tra due onde elettromagnetiche è descrivibile solo in termini ondulatori, mentre l’effetto fotoelettrico alla basa della rivelazione della luce da parte di sensori CMOS e CCD è descrivibile solo in termini corpuscolari.

Ma se ciascuna onda elettromagnetica può essere caratterizzata da una lunghezza d’onda λ, come possiamo caratterizzare il fotone? La domanda può essere riformulata nel seguente modo: cosa caratterizza una particella in moto? La risposta è la massa e la velocità, ovvero in una parola: l’energia. Ogni fotone può avere un’energia che i fisici esprimono con un’unità di misura detta elettronvolt (eV). Qui sotto riportiamo la classificazione dei fotoni in funzione delle loro energie E:

  • Onde radio: < 0.00000124 eV
  • Microonde: 0.00000124 eV – 0.00124 eV
  • Infrarossi: 0.00124 – 1.7 eV
  • Luce visibile: 1.7 – 3.1 eV
  • Ultravioletto: 3.1 – 12.4 eV
  • Raggi X: 12.4 – 1’240’000 eV
  • Raggi γ: > 1’240’000 eV

Come potete vedere quindi l’Astrofotografia Digitale si occupa della rivelazione di fotoni con energia dell’ordine di qualche eV.

Nell’anno 1900, un fisico tedesco di nome Max Planck, formulò una legge in grado di associare ad un fotone di energia E la corrispettiva lunghezza d’onda λ ovvero un ponte tra il mondo corpuscolare e quello ondulatorio. La legge di Planck è data da:

E = hc/λ

Dove h è una costante nota come costante di Planck e c è la velocità della luce nel vuoto. In unità di misura “comode” per l’astrofotografia digitale il prodotto hc è uguale a circa 1240 eV nm.

Per un astrofilo a questo punto la pioggia non è solo fenomeno di sventura ma, se si tratta di pioggia di fotoni e non d’acqua, può essere un piacere per occhi, CCD e fotocamere digitali.