1

PixInsight | Creazione di un’immagine RGB

Nel post Calibrazione delle immagini astronomiche abbiamo imparato ad ottenere il master light a partire dai nostri bias, dark e flat field frame. In questo post vedremo come utilizzare le immagini così calibrate per i canali R, G e B al fine di ottenere l’immagine a colori (RGB). Partiamo quindi creando una cartella RGB dove metteremo i master light dei tre canali realizzati con PixInsight. Questi sono visualizzabili attraverso l’utility File Explorer, disponibile nei tab a destra (Figura 1). Le tre immagini, prese singolarmente, sono ben calibrate ma confrontate mostrano gradienti differenti. Al fine di ridurre questi gradienti possiamo utilizzare l’importante tool di PixInsight noto come DynamicBackgroundExtractor o per gli amici DBE.

Figura 1: i canali R,G e B calibrati con PixInsight.

Apriamo DBE cliccando su Process → BackgroundModelization → DynamicBackgroundExtraction oppure utilizzando il Process Explorer. Apriamo quindi la prima immagine (canale R) attraverso il menù File → Apri… . Chiudete i file di eliminazione dei pixel caldi e fredde e lasciate aperta solo l’immagine calibrata. Premete CTRL+A al fine di visualizzare correttamente l’immagine (Figura 2).

Figura 2: Pronti per utilizzare DBE sul canale R?

Clicchiamo quindi in vari punti dell’immagine evitando di selezionare parti del soggetto (nebulosità o alone galattico). Non sono necessari molti punti, l’importante è che abbiate una copertura (se possibile) di tutta l’immagine. Nel nostro esempio abbiamo selezionato 21 punti lontani dalla galassia (Figura 3).

Figura 3: Selezione dei punti utilizzati da DBE per uniformare il campo

Lasciamo i parametri Model Parameters (1), Model Parameters (2), Sample Generation e Model Image invariati. Andiamo invece in Target Image Correction e selezioniamo Division in Correction se l’immagine non presenta gradienti dovuto all’inquinamento luminoso, Subctraction altrimenti. Lasciamo non spuntato il quadrato Normalize. Se i parametri settati sono corretti infatti il background ottenuto dal tool DBE dovrebbe essere neutro. Lasciamo deselezionato anche Discard background model al fine di ottenere una mappa della correzione applicata. Infine anche Replace target image deve rimanere non spuntata se vogliamo che le modifiche apportate vengano visualizzate in una nuova finestra. Lasciamo invariati i parametri dei campi Identifier e Sample format. Clicchiamo sulla spunta verde per eseguire il tool DBE. La nuova immagine e la relativa mappa saranno come al solito “nere”. Premete CTRL+A per avere una visualizzazione corretta (Figura 4).

Figura 4: l'applicazione del tool DBE.

Salvate l’immagine “spianata” è disponibile tramite il menù File → Save As… . Applichiamo la stessa procedura anche per gli altri due canali (G e B). Al termine del processo avremo i tre canali con eventuali gradienti residui rimossi (Figura 5). A questo punto non ci resta che allineare i tre canali. Per far questo utilizzeremo il tool StarAlignment disponibile nel tab Process Explorer o dal menù Process → ImageRegistration → StarAlignment.

Figura 5: i tre canali pronti per l'allineamento e quindi la composizione RGB. Come si vede i gradienti residui sono stati praticamente eliminati dal tool DBE

Una volta aperta la finestra del tool StarAlignment ci portiamo sulla sezione Target Images e aggiungiamo le immagini da allineare attraverso il pulsante Add Files. Una volta caricate le immagini relative ai tre canali, queste dovrebbero apparire con una spunta verde nel riquadro centrale come illustrato in Figura 6.

Figura 6: primo passo è caricare le immagini relative ai tre canali.

A questo punto nella sezione principale andiamo ad indicare File in Reference image e attraverso il triangolino laterale andiamo a selezionare il canale di riferimento. Prendiamo per esempio il canale blu (B). In generale questo canale dovrebbe essere quello con il soggetto meglio inquadrato e miglior rapporto segnale/rumore. Ovviamente, se i singoli frame sono stati acquisiti correttamente non dovrebbe esserci molta differenza tra i vari canali. Lasciamo in bianco il campo Disctorsion model dove è possibile inserire una matrice di distorsione. In Registration model indichiamo Projective Transformation, utile nel caso in cui le immagini da allineare sono simili. Se il telescopio non è soggetto a particolari aberrazioni lasciamo non spuntato il campo Distorsion correction. Come Working mode lasciamo quello di default ovvero Register/Match Images. Questo è il modo in cui le immagini vengono allineate. Ci sono varie opzioni a seconda che si stiano allineando immagini per una somma, composizione RGB/LRGB o realizzazione di un mosaico. L’opzione Generate masks va lasciata non spuntante, in quanto al momento non è richiesta la generazione di una mappa delle stelle messe a registro. Frame adaption invece può essere utile per ottenere immagini simili (come nei mosaici) ma in questo caso è consigliabile lasciarlo non spuntato (Figura 7).

Figura 7: impostazioni del tool StarAlignment.

Andiamo quindi nella sezione Output Images, lasciando invariate le impostazioni di Format Hints e selezioniamo la cartella di output cliccando sul pulsante a forma di cartella. Il suffisso _r verrà aggiunto alle immagini allineate dal tool StarAlignment (Figura 8).

Figura 8: Determinazione della cartella di output del tool StarAlignment

 Quindi lasciando tutti gli altri parametri delle sezioni Star Detection, Star Matching e Interpolation invariati, clicchiamo sul pallino pieno in basso a sinistra per applicare il tool alle nostre immagini. A questo punto nella cartella di lavoro dovremmo avere le tre immagini (canali) originali, tre con suffisso _DBE relative alla riduzione dei gradienti e tre con suffisso _DBE_r ovvero le precedenti allineate rispetto al canale B (Figura 9).

Figura 9: le immagini corrette ed allineate pronte per essere sottoposte alla combinazione RGB.

COMPOSIZIONE RGB

Sino ad ora ci siamo limitati a preparare le tre immagini relative ai canali rosso (R), verde (G) e blu (B). In questo paragrafo vedremo come comporli in una sola immagine a colori grazie al tool ChannelCombination. Ovviamente la parte di riduzione dei gradienti residui nei singoli canali può essere tralasciata nel caso le vostre immagini non presentino inquinamento luminoso o siano state corrette perfettamente attraverso i flat field frame. Prima di procedere dobbiamo però far si che tutti e tre i canali siano “confrontabili” in modo da non ottenere un’immagine a colori completamente sbilanciata. Per far questo cominciamo con l’aprire le immagini monocromatiche relative ai tre canali (allineate e con gradienti residui ridotti). Per far questo utilizziamo il menù File → Open… . Apriamo quindi il tool LinearFit o cercandolo nel tab Process Explorer o tramite il menù Process → ColorCalibration → LinearFit (Figura 10).

Figura 10: Il tool LinearFit per la calibrazione dei vari canali monocromatici.

Nel campo Reference image andiamo a selezionare l’immagine relativa al canale di normalizzazione. In particolare nell’esempio considerato utilizzeremo il canale blu (B). A questo punto andremo a “normalizzare” le altre due immagini al blu trascinando il triangolino in basso a sinistra sulle due immagini relative ai canali R e G, dopodiché chiudiamo la finestra relativa a LinearFit. Non ci resta quindi ora che unire i tre canali al fine di ottenere l’immagine a colori RGB. Cerchiamo quindi il tool ChannelCombination nel nostro ProcessExplorer oppure cliccando sul menù Process → ChannelManagement → ChannelCombination (Figura 10).

Figura 11: Il tool ChannelCombination

Cliccando sul simbolo a lato di ciascun canale andiamo a selezionare le nostre immagini allineate ed eventualmente corrette per gradenti residui e “normalizzate” con l’utility LinearFit, dopodiché clicchiamo sul pallino pieno in basso a sinistra. Il risultato ottenuto è un’immagine a colori (RGB) in prima approssimazione bilanciata correttamente (Figura 11). Per ottenere colori verosimili utilizziamo il tool ScreenTransferFunction disponibile sempre nel Process Explorer oppure dal menù Process → IntensityTransformationScreenTransferFunction. Selezioniamo l’icona con la catena (ovvero i tre canali sono vincolati) e premiamo sul simbolo “nucleare” ovvero AutoStretch. Dopo l’applicazione del tool l’immagine apparirà con i colori ben bilanciati (Figura 12).

Figura 12: l'immagine RGB prodotta a partire dai tre canali R,G e B.

Non ci resta quindi che salvare l’immagine RGB tramite il menù File → Save As… . Il piccolo gradiente rosso in basso a sinistra è dovuto alla formazione di ghiaccio sul CCD (eliminabile attraverso un crop dell’immagine).




IC 1396 – 02-03-05-08-10/09/2013

Telescopio o obiettivo di acquisizione (Imaging telescope or lens): Newton SkyWatcher BlackDiamond 150 mm f/5

Camera di acquisizione (Imaging camera): CCD Atik 383L+ B/W [5.4 μm]

Montatura (Mount): SkyWatcher NEQ6

Telescopio o obiettivo di guida (Guiding telescope or lens): Rifrattore ED (ED reftactor) Tecnosky Carbon Fiber 80mm f/7

Camera di guida (Guiding camera): Magzero MZ-5m B/W [5.2 μm]

Riduttore di focale (Focal reducer): correttore di coma (coma corrector)

Software (Software): IRIS + Adobe Photoshop CS3

Accessori (Accessories): non presenti (not present)

Filtri (Filter): Astronomik CCD Hα 13nm, Astronomik CCD SII 13nm, Astronomik CCD OIII 12nm

Risoluzione (Resolution): 1681 x 1268 (originale/original), 1238 x 1633 (finale/final)

Data (Date): 02-03-05-08-10/09/2013

Luogo (Location): Briosco – MB, Italia (Italy)

Pose (Frames): 8 x 360 sec bin 2×2 Hα, 4 x 840 sec bin 2×2 SII, 4 x 660 sec bin 2×2 OIII,

Calibrazione (Calibration): 15 x 360 sec bin 2×2 dark Hα, 13 x 840 sec bin 2×2 dark SII, 24 x 660 sec bin 2×2 dark OIII, 58 bias, 50 flat Hα, 50 flat SII, 50 flat OIII

Fase lunare media (Average Moon phase): 7.0%

Note (note): RGB (SIIHαOIII)

IC 1396 - HST Palette




La tecnica LRGB

Abbiamo visto in “Costruire un’immagine a colori” come il processo di debayerizzazione produca immagini di dimensioni pari a quelle del sensore ma di qualità inferiore. Algoritmi sempre più sofisticati cercano di interpolare sempre meglio i pixel di diverso colore al fine di ottenere immagini nitide. Se invece di una DSLR utilizziamo un CCD monocromatico (quindi senza filtri applicati al sensore) il processo di debayerizzazione viene bypassato ottenendo immagini a colori di ottima qualità. Questo comporta la ripresa di 3 immagini in bianco e nero con filtri rispettivamente R, G e B. Ottenere un’immagine a colori a partire da un CCD monocromatico è quindi possibile ma molto dispendioso in termini di tempi di ripresa che vengono triplicati. Nel 1996 è però stata sviluppata una tecnica, detta LRGB, in grado di combinare un’immagine a colori ad alta risoluzione cromatica e bassa risoluzione spaziale con un’immagine in bianco e nero ad alta risoluzione spaziale nota come immagine di luminanza. Dal punto di vista patico, questo significa che è possibile riprendere le tre immagini in bianco e nero con filtri R,G e B a alta risoluzione cromatica e bassa risoluzione spaziale. La prima condizione si ottiene aumentando il rapporto segnale/rumore e quindi il tempo di esposizione (o utilizzando ottiche più luminose) o utilizzando un bin 2 x 2. In quest’ultimo caso si ha una riduzione della risoluzione spaziale che però, per quanto detto prima, non è importante.
L’immagine di luminanza L invece deve contenere il maggior numero di informazioni sulla distribuzione spaziale degli oggetti e quindi è consigliabile utilizzare un’immagine in B/W senza applicazione di nessun filtro. Solitamente, per evitare di sporcare il sensore si utilizza un filtro taglia IR-UV. In questo caso ovviamente è richiesto l’utilizzo di un bin 1 x 1 in modo da minimizzare la perdita di particolari. Le quattro immagini LRGB verranno poi composte formando l’immagine a colori finali. Nulla vieta di utilizzare differenti combinazioni di filtri per costruire l’immagine a colori che comunque deve soddisfare le condizioni precedentemente illustrate. Non si è neppure vincolati ad utilizzare lo stesso tipo di telescopio per le riprese a colori ed in luminanza.

La composizione LRGB

La tecnica LRGB può ad esempio essere applicata utilizzando come filtro di luminanza un filtro a banda stretta al fine di enfatizzare le zone di una determinata nebulosa che emettono in una riga specifica dello spettro elettromagnetico (si parla ad esempio di HαRGB) oppure si possono usare tricromie differenti come “l’Hubble Palette” SII Hα OIII che utilizza invece dei filtri RGB quelli a banda stretta dello Zolfo, dell’Idrogeno e dell’Ossigeno.




Costruire un’immagine a colori

Alla luce di quanto riportato nei post precedenti, DSLR e CCD producono  una matrice di pixel. Ciascun pixel è un numero intero proporzionale al numero di fotoni che si sono depositati in quel determinato elemento fotosensibile. A questo punto, come descritto in “ADC: dal mondo analogico a quello digitale” ad ogni valore di luminosità del pixel è possibile associare un tono di grigio. Questo può essere poi visualizzato a monitor o stampato su pellicola fotografica. L’insieme di tutti i pixel costituisce così l’immagine digitale. Questa risulta però essere un’immagine in bianco e nero. Come è possibile? Abbiamo analizzato solo il caso di sensori in bianco e nero? Ed i sensori a colori?
Cominciamo subito con il dire che i sensori a colori non esistono. Tutti i sensori, siano essi CCD o CMOS sono in grado di generare immagini in bianco e nero. Allora come è possibile costruire un’immagine a colore?
Si sfrutta un particolare modello di colori di tipo additivo noto come RGB. Questo dice che “ogni” colore è descrivibile come la somma adattiva di tre colori primari. Per motivi fisiologici legati alle frequenze cui sono più sensibili i fotorecettori dell’occhio umano (coni) si è deciso di utilizzare il rosso 700 nm (R), verde 546.1 nm (G) e il blu 455.8 nm (B) da cui il nome del modello RGB.
Ma cosa comporta questo dal punto di vista pratico? Ogni colore è visto come la somma, pesata dal livello di luminosità, dei tre colori primari RGB. Se ora ho tre immagini in bianco e nero, ciascuna delle quali rappresenta la componente R, G e B dell’oggetto reale, allora posso costruire l’immagine a colori a partire da queste.
Come avrete capito il gioco è fatto. Basta riprendere con il nostro sensore in bianco e nero tre immagini: una con un filtro rosso, una con un filtro verde ed una con un filtro blu. La combinazione delle tre fornirà l’immagine a colori. Quanti colori? Se ogni immagine in bianco e nero ha 2^bit toni, l’immagine risultate sarà data da 2^bit x 2^bit x 2^bit = 2^3 x bit colori. Questa tecnica di costruzione delle immagini è quella che viene normalmente utilizzata nei sensori CCD astronomici dove per ogni oggetto celeste si effettuano tre riprese applicando rispettivamente filtri RGB.
Per le reflex però ci troviamo di fronte ad un problema di tipo tecnologico. Risulta infatti impossibile effettuare tre scatti per ciascuna ripresa a colori (considerando anche il tempo di sostituzione del filtro). Vi immaginate riprendere un’auto in corsa in queste condizioni?
Il problema è stato risolto montando di fronte ad ogni fotoelemento un opportuno filtro colorato. Può sembrare impossibile eppure la tecnologia attuale è in grado di realizzare filtri colorati con dimensioni veramente infinitesime.
La distribuzione dei filtri sulla matrice di fotoelementi (ovvero sul sensore) è nota come Matrice CFA (Color Filter Array). Ci sono molteplici possibili combinazioni. Preso un gruppo di quattro pixel allora abbiamo:

  • Matrice di Bayer RGGB: filtri rosso, verde, verde e blu (Figura 1).
  • Matrice RGBE: filtri rosso, verde, blu e smeraldo.
  • Matrice CYYM: filtri ciano, giallo e magenta.
  • Matrice CYGM: filtri ciano, giallo, verde e magenta.
  • Matrice RGBW: filtri rosso, verde, blu e trasparente.

Figura 1: le varie configurazioni della matrice di Bayer: a) RGGB, b) GRBG, c) GBRG e d) BGGR.

In questo articolo parleremo in particolare della Matrice di Bayer o RGGB (spesso riportata come RGB). Cominciamo con il notare che la scelta di due filtri verdi non è casuale. L’occhio umano è più sensibile al verde e pertanto, per avere una migliore risposta della DSLR, si è deciso di aumentare il numero di filtri di questo colore.
Ad ogni scatto quindi il 25% del sensore riprenderà un’immagine in bianco e nero filtrata rossa, un altro 25% del sensore riprenderà un’immagine in bianco e nero filtrata blu ed infine il restante 50% riprenderà un’immagine in bianco e nero filtrata verde. Ora però, se prendiamo un determinato pixel questo avrà solo un valore dei tre canali RGB. Come ottenere il colore?
È necessario creare un algoritmo in grado di “stimare” il valore che un pixel avrebbe assunto con un determinato filtro, partendo da quello realmente assunto dai pixel vicini. Tale processo è noto come demosaicizzazione o debayerizzazione. Esistono ovviamente molteplici modi per demosaicizzare un’immagine RGB tra cui ricordiamo:

  • Variable Number of Gradients (VNG): calcola i gradienti vicino al pixel di interesse e sceglie il minimo ovvero quello che si traduce nel più morbido in termini di immagine.
  • Pixel Grouping: calcola il valore di un pixel come opportuna combinazione dei vicini.
  • Adaptive Homogeinity – Directed: questo metodo seleziona la direzione di interpolazione in modo da massimizzare l’omogeneità.
  • Advanced Chroma Corrective: è una delle più accurate quanto complesse routine di demosaicizzazione.

Tutte queste tecniche (ne esistono altre non discusse in questo post) permettono così di ottenere un’immagine a colori a partire da un singolo scatto. Il prezzo da pagare è una perdita in qualità a seguito del processo di demosaicizzazione. Per quanto riguarda le DSLR Canon, il processo di demosaicizzazione è effettuato dal processore Canon DIGIC o da software dedicati nel caso in cui si decida di scattare in RAW. In Figura 2 sono riportati i canali R,G e B di un’immagine ripresa con una Canon EOS 500D.

Figura 2: scomposizione dell'immagine nei canali RGB. Si noti come il canale più luminoso sia il rosso associato alla nebulosa (riga Hα). Il canale verde invece presenta meno strutture ma con un'ottima risoluzione grazie al numero doppio di pixel dotati di filtro G. Il canale blu è spesso il peggiore sia in termini di qualità a causa sia del minor numero di pixel utilizzati durante il processo di debayerizzazione che del minor numero di dettagli presenti.