Pellicola 2.0

Luce, la vediamo.
Ma come si cattura?

Prima delle fotocamere digitali, beh, si usava la pellicola fotografica all’interno di macchine analogiche (SLR, single lens reflex).

La sensibilità delle pellicola alla luce era proporzionale alle dimensioni dei cristalli di alogenuro al suo interno. Ma a prescindere da cosa ci fosse, è il come si comportasse, che interessa. Nelle pellicole a colori, erano (sono! Qualcuno ci si diverte ancora) presenti tre strati fotosensibili, ognuno dei quali sensibile ad una propria frequenza di luce. Combinando questi assorbimenti, si può ricreare qualcosa di simile a quanto visto dall’occhio umano.

Una volta che i cristalli siano stati attivati dalla presenza di fotoni (in seguito ad un’esposizione controllata da parte di macchina ed obiettivo) ecco che è necessaria una serie, piuttosto complessa, di procedimenti chimici per arrivare ad avere un negativo utilizzabile per la stampa vera e propria delle immagini.

Tutto questo, ovviamente, senza preview di quanto si stia fotografando, senza poter cancellare le pose errate, con un numero di scatti a disposizione davvero limitato, nessuno o limitati automatismi ed i pro (pochi, discutibili), e contro (molti, oggettivi) di essere nel giurassico fotografico.

Ora, fortunatamente, le cose sono diverse. Non sarei qui, se non fosse così.
Non ci avrei nemmeno provato, diciamoci la verità!

Le moderne fotocamere digitali e, nella fattispecie, le reflex digitali (DSLR, digital SLR), regalano un’esperienza d’utilizzo decisamente migliore e più dinamica rispetto alle loro cugine analogiche. In primis, la possibilità di scattare un numero infinito di fotografie, limitato solamente dalla dimensione della memoria digitale sulla quale le stiamo archiviando (memory card o dispositivo remoto). Niente più pellicola, niente più rullini.

Aggiungiamoci la possibilità di riprodurre, in digitale, quanto la macchina stia riprendendo. Il cosiddetto Live View (terminologia Canon) rende possibile visionare sulla fotocamera o – meglio – su un dispositivo esterno (tablet, laptop, etc..) quanto visibile alla macchina in quel momento. Questo permette di godere di un fattore di ingrandimento e definizione tali da controllare puntamento, messa a fuoco e qualsiasi altro valore in anteprima, senza dover visionare necessariamente gli scatti a posteriori.

E’ anche possibile modificare la sensibilità della ripresa (gli ISO), per ogni scatto, senza dover cambiare ogni volta rullino.

L’ottica è ora dotata di motori di focus che possono essere azionati (mossi..) manualmente (tramite delle ghiere, come in passato) o attivati digitalmente, lasciando il compito del focus automatico alla macchina o alla sinergia tra macchina e software esterni. E’ possibile collegare la reflex ad un qualsiasi computer che ne riconosca i driver e far in modo che la messa a fuoco sia comandata dall’utente o da algoritmi che prendono in considerazione quello che si stia puntando. Provate a mettere a fuoco una stella utilizzando, manualmente, solo le ghiere. Poi ne riparliamo.

Le DSLR sono anche facilmente programmabili, nel senso che è possibile impostare la sequenza di scatto, il numero di frame (immagini) e rendere molte delle operazioni automatiche e sequenziali. Questo, prima dell’avvento del digitale, era solo un sogno.

Ma avendo rimosso la pellicola, che cosa cattura, realmente, la luce che diverrà immagine? La risposta è il sensore digitale, ovvero un dispositivo in grado di convertire un segnale ottico in un segnale elettrico (mentre, prima, la conversione avveniva da ottico a chimico).

I sensori sono formati da una matrice di elementi, i pixel, ognuno dei quali è responsabile per la cattura di luce in una particolare porzione del suo spettro. All’interno dei pixel colpiti dalla luce si genera una tensione elettrica che, poi, viene trasformata da segnale analogico a digitale, andando ad identificare la quantità di luce che ha colpito quel pixel, in quella particolare frequenza. Di pixel, nei sensori moderni, ce ne sono parecchi! E’ proprio di – questi – pixel che parlate quando confrontate una reflex da 10 Mpix (Mega-pixel) con una da 15 Mpix (il mega, qui, indica i milioni). L’avanzamento tecnologico permette la miniaturizzazione di questi elementi, dando la possibilità, a parità di dimensione del sensore, di avere più pixel e, di conseguenza, aumentare la risoluzione di quanto stiamo catturando.

Ne avevo già parlato, ma ha senso approfondire un aspetto: la sensibilità al colore.
La matrice del sensore di una reflex (in questo caso, di tipologia CMOS) è bidimensionale, ovvero, un qualsiasi punto del sensore contiene un solo pixel. Un solo “ricettore” di luce. Semplificando l’argomento ed omettendo eccezioni o varianti, molti sensori utilizzano la matrice di Bayer per la disposizione e proporzione dei pixel sensibili ai tre colori primari utilizzati: rosso, verde, blu. Il risultato è un sensore in cui la metà dei pixel sarà sensibile al verde (vi ricordate il perché?) un quarto al rosso ed il restante al blu. Le informazioni da loro collezionate verranno digitalizzate, trattate, e composte in un’immagine – rullo di tamburi – RGB, ovvero che utilizza i tre canali distinti (rosso, verde, blu) per crearne uno simile a quanto percepito da noi scimmiette evolute.

Qual’è il limite di questo approccio (che comunque risulta essere quello con una resa/prezzo più conveniente)? Beh, che se sto fotografando qualcosa di verde, solo metà del sensore lo percepirà realmente, perdendo metà del segnale. Con gli altri due colori, ancora peggio. Tre quarti del segnale non verrà percepito! Questo non vuol dire che il sensore non lo veda, semplicemente non tutta la luce verrà presa in considerazione, dando luogo ad una perdita di dettagli ed intensità.

Altro limite è il range all’interno del quale operano le reflex. Come già discusso, il sensore viene volutamente reso cieco rispetto all’infrarosso. Fortunatamente è qualcosa a cui si può porre rimedio.

Un aspetto importante da tenere in considerazione è il rumore elettronico di fondo. Il rumore si manifesta come granularità dello sfondo, come se fosse fatto di una grana composta di polvere colorata. Questo rumore aumenta con l’aumentare della temperatura (influenzando, quest’ultima, le cariche dei pixel) e diventa devastante durante le riprese estive con tempistiche elevate. Più fa caldo e più scaldiamo il sensore (con l’utilizzo prolungato in pose dai tempi elevati), peggiori saranno i risultati. Parlerò più avanti di come tamponare la cosa.

Le reflex digitali funzionano così, c’è poco da fare, se non provare a realizzare il massimo con quanto disponibile (che, comunque, è un eccellente punto di partenza!).

Esistono altri sensori e dispositivi, detti CCD che, nella maggior parte dei casi, funzionano (oltre che con una tecnica hardware differente) seguendo un’altra filosofia. Il sensore è sensibile a tutta la luce, a prescindere dalla sua lunghezza d’onda. Questo vuol dire che lo stesso pixel verrà influenzato dal blu, dal verde, dal rosso, da tutto. Il risultato sarà, ovviamente, un’immagine in bianco e nero, ma decisamente più dettagliata, dato che non c’è perdita di segnale. Per ottenere delle immagini a colori con questa tecnica è necessario anteporre dei filtri al sensore. Esistono filtri che filtrano (hem..) tutta la luce tranne quella in una particolare banda.

Disponendo di filtri che lasciano passare solo il rosso, solo il verde o solo il blu, è possibile scattare tre fotografie dello stesso soggetto, catturando prima tutti i rossi, poi tutti i verdi ed, infine, i blu. Fatto questo bisognerà “unire e fondere” i tre fotogrammi in un unico, attribuendo ai tre canali quanto registrato nelle tre fotografie. Il risultato sarà sicuramente migliore che un singolo scatto su un sensore CMOS, ceteris paribus. Ovviamente, a discapito del tempo, triplicato e del costo dell’oggetto. I CCD sono anche, solitamente, raffreddati. Questo limita o annulla la presenza di rumore elettronico di fondo (a fronte di un consumo energetico maggiore. Dove la trovate la corrente in mezzo ad un bosco a 2500 metri di quota?).

La dimensione dei sensori CMOS è abbastanza standardizzata. Di solito hanno un rapporto 3:2 ed hanno dimensioni identiche o di poco inferiori a quelle della pellicola analogica di cui hanno preso il posto. Qui, maggiori dettagli. Vien da sé che un sensore più grande catturerà più luce ed otterrà migliori risultati di uno più piccino.

Armato della mia reflex, ora, non mi resta altro che utilizzare un telescopio come obiettivo!

(e comprare la montatura)
(e comprare un inseguitore)
(e comprare un collimatore)
(e imparare ad usare quanto comperato)
(e trovare un buon punto d’osservazione)
(e trovare corrente o comprare batterie)
(e imparare a focheggiare)
(e saper collegare ed utilizzare i vari software)
(e saper impostare le direttive per gli scatti)
(e saper pre-trattare le immagini)
(e saper post-trattare le immagini)
(e chissà quanto altro ancora mi son dimenticato)

Vabè, piano piano si inizia!

Lascia un commento