Le “digitali” sono veramente digitali?

Questo sembra un gioco di parole, ma studiando il funzionamento delle macchine fotografiche digitali e paragonandolo a quello di un altro dispositivo digitale per antonomasia, il computer, questo dubbio mi è sorto. Per capire cosa ci sia di vero è necessario analizzare come funziona una fotocamera digitale e come si arriva a trasformare la luce che illumina il soggetto in una serie di 0 e 1. Con questa analisi riuciremo a capire se il dubbio è fondato o meno.

Il procedimento con cui l’immagine proiettata dall’obiettivo sul sensore viene trasformata in una serie di bit a 0 o 1 è abbastanza complesso. Cercherò di spiegarlo in modo semplice senza entrare in dettagli troppo tecnici, quindi agli addetti ai lavori potrà risultare non sufficientemente rigoroso. L’importante però è che sia di facile comprensione.

I sensori fotografici, sia CCD che CMOS, sono costituiti da chip contenenti un numero molto elevato di elementi sensibili alla luce detti “pixel”. Ogni pixel, posizionato in un punto della matrice del sensore detto “fotosito” quando riceve dei fotoni di luce incidente accumula una carica elettrica. Questa carica può poi essere letta da appositi circuiti, in modo differente per CCD e CMOS (ma questo ai fini della spiegazione non è importante), generando una tensione elettrica proporzionale alla quantità di fotoni ricevuta, cioè alla quantità di luce. L’insieme di tutti questi valori formano l’informazione che poi darà luogo all’immagine finale. I pixel però non distinguono i colori e restituiscono in uscita un solo valore comprensivo della luce di tutti i colori ricevuta. L’immagine ripresa è quindi in realtà in bianco e nero e se fosse elaborata così come è darebbe origine appunto ad un’immagine comprendente vari toni di luce, dal bianco al nero.
Per poter riprendere e riprodurre un’immagine a colori ci sono due strade.

La prima, quella più seguita, consiste nell’anteporre davanti ai pixel dei filtri colorati dei tre colori primari che consentono di riprodurre tutti gli altri. Considerando una matrice formata da 4 pixel (2×2)  2 di questi pixel avranno davanti un filtro verde, uno un filtro rosso e un altro un filtro blu. Questo perchè l’occhio è più sensibile al verde che quindi deve essere riprodotto in modo più accurato, anche perchè si trova nella parte centrale dello spettro luminoso, mentre rosso e blu sono agli estremi. L’immagine quindi sarà composta da un 50 % di pixel contenenti l’informazione del verde, un 25 % quella del rosso ed un 25 % quella del blu. Questo tipo di sensore viene definito a matrice Bayer.

Matrice Bayer

La seconda strada è quella di disporre in ogni fotosito, cioè ogni punto che compone la matrice di rilevamento, tre pixel invece di uno, ognuno capace di rilevare uno dei tre colori, rosso, verde e blu. In questo modo per ogni punto si hanno tre valori di tensione, una per ogni colore, e quindi si è ripreso un’immagine a colori. Questo tipo di sensore, chiamato Foveon, è usato solo da Sigma.

Confronto Foveon-Bayer

Per poter registrare e poi visualizzare l’immagine il valore della tensione prodotta da ciascun pixel, che a questo punto si riferisce ad uno dei tre colori, deve essere convertito da “analogico” a “digitale”. Nella catena di elaborazione del segnale a questo punto è infatti inserito un convertitore analogico/digitale che campiona e converte il segnale “analogico” proveniente dal sensore in segnale “digitale”, cioè in una sequenza di bit. Il convertitore può lavorare a 12 bit e in questo caso potrà registrare 4096 livelli di luminosità per colore, oppure a 14 bit ed allora arriverà a 16384 per colore. A questo punto la foto potrebbe essere registrata in memoria in formato raw, e se la fotocamera lo prevede e il fotografo ha fatto questa scelta il processo si ferma qui e la elaborazione successivamente descritta avverrà sul computer. In realtà non è ancora una foto visualizzabile, ma una matrice composta da punti verdi, rossi o blu.

Immagine Bayer

Per trasformarla in una foto a colori è quindi necessario calcolare, nel caso dei sensori Bayer, il valore dellinformazione mancante per ciascu pixel. Questo è fatto per interpolazione con i pixel vicini. Il processo comporta degli inconvenienti in caso di forti variazioni di luminosità fra i pixel vicini, cioè nel caso di ripresa di dettagli molto fini, portando alla creazione di falsi colori, le frange colorate chiamate effetto moirè. Per limitare il fenomeno si limita la risoluzione con un filtro antialias, detto anche passa-basso, anteposto al sensore. Sia questo, sia il fatto che in realtà il numero di pixel che riporta la maggior parte delle informazioni di luminanza, quelli sul verde, sono il 50 % del numero dei fotositi totali, determinano il fatto che la risoluzione effettiva dei sensori Bayer corrisponda circa al 50% del loro numero di pixel, con qualche caso in cui si arriva al 60 %, usando un algoritmo di interpolazione, detta anche demosaicizzazione, particolarmente efficace.
Il sensore Foveon invece non ha bisogno di interpolazione in quanto fornisce l’informazione completa sui tre colori per ogni fotosito. La sua risoluzione corrisponde quindi a quella del numero dei fotositi disponibili, per ciascuno dei quali sono presenti tre pixel, su tre strati sovrapposti. Non c’è quindi nemmeno bisogno di un filtro antialias che ne limiti la risoluzione e l’eventuale effetto moirè, che anche qui si può presentare quando si riprendono dettagli molto fini, può essere controllato via software.
In conclusione una fotocamera con sensore Bayer da 12 Mpx ad esempio avrà una risoluzione effettiva di circa 6-7 Mpx. Una fotocamera con sensore Foveon da 5 Mpx avrà una risoluzione effettiva di 5 Mpx.
I dati così digitalizzati, ed eventualmente interpolati, relativi a ciascun pixel a questo punto compongono un’immagine che può essere registrata in vari formati, Tiff, Jpeg o altri.

In realtà però tutto il processo potrebbe avvenire senza la digitalizzazione e l’immagine potrebbe essere registrata in modo analogico su supporto magnetico. Ciò avveniva infatti nelle videocamere VHS o Video 8.

Tornando alla domanda nel titolo dell’articolo “Le digitali sono veramente digitali?” dalla precednete descrizione si vede che la risposta è NO.

Un sensore digitale per definizione infatti dovrebbe rispondere alle sollecitazioni derivate dalla luce incidente con solo due stati, on off, 0 1, bianco nero. Un sensore come il pixel invece risponde con un’uscita proporzionale alla quantità di luce ricevuta ed è quindi analogico. E per di più, nel caso dei sensori Bayer, registra un’immagine in bianconero!
Un vero sensore digitale dovrebbe avere tantissimi pixel, molto più piccoli degli attuali. ognuno dei quali, a secondo se riceve o meno qualche fotone, rimane bianco o diventa nero, o meglio emette un segnale 0 o 1. La superfice del sensore riporterebbe quindi un’informazione più chiara o più scura, oppure contenente più zeri o più uno, in funzione della quantità di luce che raggiunge ogni sua unità di superficie.
Un sensore elettronico digitale così ancora non esiste e non so se possa essere realizzato.
Ma un sensore così non esiste in assoluto? In realtà esiste ed è noto da molto tempo. Si tratta della pellicola. Nell’emunsione che ricopre la pellicola sono contenuti dei sali di alogenuri d’argento (cloruro, bromuro, ioduro d’argento) in forma cristallina. Gli atomi di questi elementi se ricevono energia dall’impatto di un fotone di luce si separano liberando l’argento metallico. Il processo di separazione, che sarebbe naturalmente molto lungo, richiedendo tempi di posa di ore, viene accelerato e completato chimicamente mediante le fasi di sviluppo per separare l’argento metallico dagli alogenuri per i cristalli che hanno ricevuto luce, e fissaggio per eliminare gli alogenuri non impressionati dalla luce. In ogni punto della pellicola più ha ricevuto luce più sono presenti minuti grumi di argento derivati dai cristalli di alogenuro impressionato. Dove la pelicola ha ricevuto più luce quindi diventa più scura, rappresentando un’immagine negativa del soggetto che può essere trasformata in positiva con un processo di stampa analogo. Le foto a colori sono ricavate usando tre strati senibili in ognuno dei quali i sali d’alogenuro sono associati ad un colorante.
Questo comportamento della pellicola è certamente molto più vicino a quello del sensore digitale di cui ho precedentemente parlato in confronto a quello del sensore elettronico attuale.
Se poi si volessero digitalizzare le foto su pellicola, per poterle portare su computer, si dovrebbero passare allo scanner, ripetendo il processo che avviene nelle fotocamere “digitali”.

Le fotocamere digitali quindi sono delle fotocamere che registrano un’immagine con un sensore analogico e poi la digitalizzano al loro interno.
In conclusione il termine più appropriato per definire le attuali fotocamere sarebbe “elettroniche” piuttosto che “digitali”.

20 pensieri riguardo “Le “digitali” sono veramente digitali?”

  1. Quindi in linea teorica un sensore progettato solo per il bianco e nero sarebbe privo di molti filtri e restituirebbe un’immagine migliore e più nitida? sarebbe bello se qualche produttore lanciasse una fotocamera pensata per il b/n

    "Mi piace"

    1. si esatto e guadagneresti pure 2 stop di luce, perché i filtri colorati bloccano tanta luce
      in pratica con lo stesso sensore ma solo per bianco e nero ottterresti un 6400 iso nitido come un 1600 con la matrice attuale
      tuttavia ancora in merito non si vede nulla, io personalmente tifo per la matrice kodak trusense che in pratica è una via di mezzo tra quella colore e quella bianco e nero, migliorando di 1 stop la luce (sempre a livello teorico)
      finora non ha molto senso produrre una fotocamera con un sensore bianco/nero, c’è poca domanda, forse ricoh potrebbe offrire un modulo per la gxr…
      comunque non sei il solo, pure kodak aveva proposto il sensore o meglio li aveva proposti tutti e 3, ma finora i produttori sono fermi sul classico, sopra illustrato

      "Mi piace"

  2. Non credo sia solo una questione di richiesta, c’è una marea di gente che per il b/n scieglie l’analogico (me compreso). Proporre una compatta stile dp2s con un sensore ottimizzato per il b/n sarebbe una bomba per la street! Forse la situazione di kodak ha influito su questa mancanza, oppure non ha voluto contrastare il mercato delle pellicole da cui ancora ricava qualcosa.

    "Mi piace"

    1. no kodak fa le proposte, ma sono i produttori di fotocamere che le debbono accettare, alcune idee da potenziare come il truesense o di nicchia come il sensore b/n non sono state ben accettate, altrimenti ora kodak non sarebbe in amministrazione controllata – verso la liquidazione
      inoltre una compatta che perde 4 stop di luce nei confronti di un aps-c in cambio di una matrice bianca che ne guadagna 2 vuol dire che usare una aps-c impostata su b/n da comunque 2 stop di guadagno, quindi non ha e non avrebbe senso… ne troverebbe soltanto in un prodotto che davvero farebbe notare la differenza (per esempio un aps-c che scatta in b/n nitido a 12800 iso e per questo avevo ipotizzato un modulo gxr)… tuttavia penso che in tal caso sarebbe, comunque, preferibile una matrice truesense che da uno stop in più e al contempo consente il colore (se serve)
      Infine chi sceglie l’analogico per il b/n è anche per godersi tutto il processo di stampa e la profondità di campo che riesce a dare un 35mm, quindi chi ama tutti questi fattori non passerebbe lo stesso ad una digitale compatta b/n

      "Mi piace"

  3. Perdonami se faccio l’avvocato del diavolo Christian ma nel tuo post precedente menzionavi che “[]… i filtri colorati bloccano tanta luce … in pratica con lo stesso sensore ma solo per bianco e nero ottterresti un 6400 iso nitido come un 1600 con la matrice attuale …[]” quindi, da quanto mi sembra di capire (ma sentiti libero di correggermi) impostando un’APS-C in b\n si otterrebbe (forse) una maggiore nitidezza ma non un guadagno di due stop: per questo bisognerebbe anche rimuovere i filtri, sbaglio?

    "Mi piace"

    1. Gio,
      i filtri sono incorporati nel sensore e non sono rimovibili.
      Se converti la foto da raw in binaconero (tiff o jpeg) non ottieni comunque una maggiore risolvenza o nitidezza perchè il filtraggio è già stato applicato e l’interpolazione serve comunque per richreare la giusta informazione di luminanza per ciascun pixel.
      Ciao, Francesco

      "Mi piace"

  4. Salve Francesco,voglio assolutamente sfatare il dogma CCD / CMOS.Si dice sempre con troppa superficialità(credo),che :AH,sii,questo ha un sens.di ult. gen.un cmos retroill.che dà il max in foto di interni e scarsa luce con in più l essere idoneo per “tenere”bene alle HS(alta sensibilità)……POI però ,leggo nelle specifiche tecniche,che i sensori Cmos sono in realtà dei prodotti più economici,utilizzati nelle compatte e dsrl di oggi,mentre il Ccd oltre che ad essere più semplice nelle sua struttura ,ha un rendimento maggiore e di miglior qualità.Questo perchè proprio il Ccd ha più spazio più superfice dove immagazzinare le immagini .Mentre il Cmos,proprio per la struttura più complessa,immagazzina meno immagine rispetto il ccd,perchè buona parte del semiconduttore è occupata da un elettronica dedicata a processare l immagine.Allora forze il Cmos è superiore al Ccd quando è APs c,o full frame,cioè più grande di Cmos tipo 1,2/3 ???Eppure ci sono DLSR esempio la D40x Nikon che ha un ccd 10 mpx oppure Fujifilm SuperCcd a schema rgb ottagonale e tutte due con rendimenti da urlo??Ti prego,intervieni e sfatami questo mistero.GRAZIE!!!!!!!!!!!

    "Mi piace"

    1. Ciao Alex,
      Francesco ha indicato chiaramente in un suo articolo che, a parità di tecnologia (o livelli equivalenti di tecnologia), il parametro più importante è la superficie del sensore.
      Attualmente CCD e CMOS sono pressapoco equivalenti, con risultati un poco al di sopra della media (come il sensore della Nikon serie 1) e altri un poco al di sotto. Ma sempre strettaente dipendenti dalla superficie del sensore.

      Simone

      "Mi piace"

      1. Grazie per la tua puntuale risposta,come al solito chiara e per me fonte di apprendimento tecnico.Avevo dimenticato la pagina dove avevo posto la domanda.Tu e Francesco siete la mia risorsa di tecnologia della fotografia.Che Fortuna.Grazie,Alex

        "Mi piace"

    2. Alex,
      nelle prime fotocamere digitali, oltre 10 anni fa, è stato usato il CCD perchè a suo tempo era superiore al CMOS proprio perchè lascia più spazio all’elemento sensibile. Il CCD però deve essere prodotto su linee separate, diverse da quelle di tutti gli altri componenti elettronici e quindi costa di più. I produttori hanno cercato quindi di perfezionare ed usare il CMOS. Uno dei primi è stato Canon per i suoi sensori per reflex fullframe ed APS, con ottimi risultati. Poi con l’introduzione ed il diffondersi della ripresa video anche per le fotocamere, comprese le reflex, il CMOS è divenuto una necessità per la sua maggiore velocità di lettura del segnale, che consente di realizzare fotocamere che riprendono video Full HD anche a 60 e più fg/s. Ci sono stati numerosi perfezionamenti per ridurre lo spazio occupato dalla elettronica di gestione e lettura del segnale, in particolare i sensori retroilluminati.
      oggi si può dire che per l’aspetto fotografico CCD e CMOS sono sullo stesso piano, mentre per le riprese video il CMOS è preferibile.
      Ciao, Francesco

      "Mi piace"

      1. Da molto tempo non avevo piu ritrovato questa pagina dove ho posto la sopracitata domanda e le successive risposte.Il tuo Blog è talmente vasto che si potrebbe chiamare:-The PHOTOGRAPHY Universal Encyclopédie (o come si scrive)….Adesso ho ritrovato la e le risposte:Grazie per tutto quello che conosco riguardo la tecnologia e la fotografia attraverso le tue risposte dettagliate.Ciao Alex

        "Mi piace"

  5. Per quanto vale la mia modesta opinione la definizione di sensore DIGITALE non prevede affatto che debba rispondere alle sollecitazioni con soli due stati, 0 o 1, questo semmai renderebbe il sensore di tipo BINARIO.

    Cito: “… in informatica ed elettronica con digitale ci si riferisce a tutto ciò che viene rappresentato con numeri o che opera manipolando numeri …”, quindi non necessariamente 0 o 1.
    Digitale si riferisce ad “… un determinato insieme di informazioni viene rappresentato in forma digitale come sequenza di numeri presi da un insieme di valori discreti, ovvero appartenenti a uno stesso insieme ben definito e circoscritto. Attualmente ‘digitale’ può essere considerato come sinonimo di ‘numerico’, e si contrappone invece alla forma di rappresentazione dell’informazione detta analogica, che non è analizzabile entro un insieme finito di elementi …”

    Il sistema numerico binario invece si riferisce ad “… un sistema numerico posizionale in base 2, cioè che utilizza 2 simboli, tipicamente 0 e 1 …”.

    Anaolgo processo di elaborazione e conversione da analogico a digitale può essere indiviuato nel sistema di codifica dei suoni.

    "Mi piace"

    1. Gio,
      tutto vero quello che dici.
      Resta il fatto che i sensori cosiddetti “digitali” sono in realtà analogici perché in uscita emettono un segnale analogico, proporzionale alla quantità di luce ricevuta, che poi viene digitalizzato attraverso un convertitore analogico/digitale.
      Ciao, Francesco

      "Mi piace"

      1. Mmh, capisco il tuo punto di vista e la sorpresa nell’apprendere che la conversione da analogico a digitale avvenga a valle del sensore ma mi sembra di entrare più nel filosofico che nel tecnico; TUTTI i processi di acquisizione digitale devono passare da un trasduttore analogico, che si tratti di luce (sensore), suono (microfono), temperatura (termocoppia), del sismografo dell’osservatorio vesuviano (accoppiamento capacitativo\induttivo ) o della pesa della discarica del comune (cella di carico).
        Analizzato sotto questo aspetto potresti concludere che tutti i presunti sistemi di acquisizione o misurazione digitale in realtà non lo sono. ;o)
        Una qualunque catena di acquisizione dati puo’ essere schematicamente rappresentata da quattro grandi blocchi logici, nel seguente ordine: trasduzione, filtraggio, condizionamento e conversione.
        Il trasduttore (o sensore) e’ solo un dispositivo in grado di trasformare (trasdurre) le variazioni di una grandezza fisica NON ELETTRICA in una corrispondenti variazioni di una grandezza elettrica; il concetto di trasduttore nativo digitale semplicemente non esiste.
        Le macchine fotografice ‘argentiche’ (volgarmente chiamate analogiche) si distinguono da quelle digitali proprio perchè nel processo di acquisizione dell’immagine non è mai contemplata la trasformazione dell’immagine in una variazione di grandezza elettrica (la mia vecchia Zenit, ad es. necessitava di un piccola batteria per alimentare il sensore dell’esposimetro al germanio ma, salvo che per quest’aspetto, tutto il resto del funzionamento della macchina non necessitava di alcuna alimentazione elettrica).

        "Mi piace"

        1. Gio,
          qui non facciamo filosofia, ma un fatto è certo: i sensori delle macchine fotografiche elettroniche non sono digitali, ma trasmettono un segnale analogico che poi viene digitalizzato.
          Tu dici “Analizzato sotto questo aspetto potresti concludere che tutti i presunti sistemi di acquisizione o misurazione digitale in realtà non lo sono.”: forse nella maggior parte dei casi è così. La digitalizzazione è solo una modalità di presentazione, non te ne sei accorto?
          Se ragionassi come te anche le mie macchine a pellicola dovrebbero essere definite digitali, dopo aver passato allo scanner, cioè digitalizzato, le loro immagini.
          Ciao, Francesco

          "Mi piace"

  6. Non sono d’accordo su tutto quello che dici in questo articolo, comunque interessante, ma rispetto il tuo punto di vista :o)
    Il mio pensiero credo sia chiaro: per rispondere alla domanda in oggetto (e per il solo amore della conversazione) le macchine “digitali” sono veramente digitali!

    Buona luce

    "Mi piace"

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.