Interpolazione nella fotocamera digitale

Interpolazione è una tecnica matematica e che consente di ingrandire un’immagine digitale, ricavando il colore dei pixel intermedi a quelli già esistenti, attraverso una media pesata dei pixel adiacenti. L’interpolazione crea immagini più grandi ma contenenti le stesse informazioni (e quindi gli stessi dettagli) dell’originale.

Interpolazione, come spiega il sito  https://fotocameredigitalimigliori.it è utilizzata in due modalità diverse a volte contemporaneamente sulla stessa fotocamera:

nelle fotocamere a bassa risoluzione si utilizza per generare dei pixel ulteriori a quelli catturati dal sensore generandone il valore di cromia per portare ad esempio una risoluzione di una fotocamera da 3 Mpixel a 4 Mpixel. Il procedimento in realtà non aggiunge informazioni vere all’immagine, ma rende meno evidente la quadrettatura dovuta al pixel se si volesse ingrandire l’immagine oltre il consentito. È un procedimento usato anche negli scanner attraverso un’elaborazione software.

In tutte le fotocamere che adottano un sensore con Color Filter Array si usa l’interpolazione per generare in ogni pixel le due componenti cromatiche mancanti, in questo caso si tratta propriamente di interpolazione cromatica.

In merito a quest’ultima modalità infatti va detto che il sensore – composto da milioni di elementi fotosensibili – solo nel suo complesso cattura informazioni riguardanti le tre componenti RGB (Red-Green-Blue) (Rosso-Verde Blu) che compongono la luce della scena focalizzata sulla sua superficie. Quasi tutti i sensori, anche se con modalità diverse, hanno i photosite (che normalmente hanno un solo photodetector per photosite) che catturano una sola componente cromatica della luce.Sulla superficie del sensore infatti è collocato un filtro a mosaico denominato Color Filter Array (CFA), il più diffuso è di Bayer.

Per ottenere una adeguata fedeltà cromatica dell’intera immagine, ogni pixel registrato in un file grafico a colori (fa eccezione il file di tipo Raw) deve contenere le informazioni cromatiche di tutte e tre le componenti RGB della luce incidente su ogni pixel. Poiché ogni photodetector ne cattura solo una di queste (R, G o B), non può fornire tutti i dati per la formazione del pixel, così le altre due informazioni cromatiche vengono calcolate dal processore d’immagine attraverso un procedimento matematico (algoritmo di demosaicizzazione– demosaicing). Solo così il pixel, inteso come raggruppamento dei dati cromatici della più piccola porzione che forma l’immagine, può concorrere ad una rappresentazione fedele dei colori dell’immagine.

Diversamente avviene per. es. in alcuni scanner ed in alcune fotocamere dove:

l’interpolazione serve ad aumentare in modo artificiale il numero di pixel senza che vi sia riferimento a nessun oggetto reale;

e nei quali la risoluzione vera è quella ottica, non quella ottenibile via software.