CAPITOLO 2

2.1 Introduzione all’acquisizione

Lo scopo dell’acquisizione è quello di ottenere l’immagine che, a seconda del tipo di strumento usato, può essere analogica oppure direttamente digitale. In generale, un immagine, è un segnale bidimensionale analogico che deve essere opportunamente elaborato per ottenere la rappresentazione digitale, cioè come matrice limitata MxN. Ogni elemento nella matrice rappresenta una quantità campionata e quantizzata del valore misurato dal sensore e viene detto pixel (picture element).
La conversione dal segnale analogico a quello digitale avviene attraverso tre fasi:

  1. Campionamento Spaziale: questo ha lo scopo di trasformare delle funzioni continue in un insieme di valori detti campioni dell’immagine, se il processo viene effettuato rispettando il vincoli imposti dal Teorema di Shannon non si verificano fenomeni che possono provocare la perdita delle informazioni.
    Campionamento di una immagine
    Campionamento di una immagine
  2. Quantizzazione: ogni campione ottenuto dall’immagine ha una profondità di colore che è continua. Tramite la quantizzazione rappresentiamo i singoli campioni con un numero finito di livelli Q. Dobbiamo ricordare che questa operazione comporta un errore che é proporzionale a Q.
  3. Codifica: dopo aver effettuato la quantizzazione, per poter memorizzare l’immagine su un calcolatore è necessario codificare i livelli Q assegnati ai vari campioni dell’immagine.
    Quantizzazione e codifica di una immagine
    Quantizzazione e codifica di una immagine

2.2 Aliasing

Effetto dell'aliasing su una immagine campionata
Effetto dell’aliasing su una immagine campionata

L’aliasing è un problema derivante sia da operazioni di sotto-campionamento (quando la frequenza di campionamento è inferiore a quella consigliata dal Teorema di Shannon), sia da operazioni di ri-campionamento (quando si campiona un segnale già campionato). Per ridurre gli effetti dell’aliasing si può ricorrere ad un filtro passa-basso, cioè riduciamo, prima di campionare, la massima frequenza presente nell’immagine. Questa operazione risulta necessaria quando la frequenza di
campionamento necessaria è troppo elevata, e quindi per evitare l’aliasing si riduce la frequenza massima dell’immagine. Per evitare di dover usare un filtro passa-basso digitale si può agire anche direttamente sul sistema di acquisizione scegliendo un sistema più adeguato.

2.3 Risoluzione di una immagine

Quando parliamo di risoluzione spaziale dell’immagine intendiamo il numero di campionamenti del piano immagine, e solitamente viene espressa in termini di dimensione della matrice MxN ottenuta dopo il campionamento. La risoluzione può essere espressa anche in termini di densitá di pixel che formano l’immagine (dpi). Più in generale essa dipende direttamente dall’applicazione e dal sistema di acquisizione, ad esempio:

  • Riconoscimento caratteri: 64×64
  • Immagini biomediche: da 512×512
  • Immagini satellitari: da 4096×4096

Ovviamente una stessa immagine può essere rappresentata con un numero differente di pixel, ma è bene ricordare che se il questo numero è troppo basso la risoluzione spaziale può risultare scadente e presentare delle discontinuità nell’immagine. Con l’aumentare della densità di pixel l’immagine presenta sempre meno discontinuità fino a dare l’impressione di essere continua (quando la dimensione dei pixel diventa più piccola della risoluzione spaziale del sistema visivo umano). In generale non è possibile definire a priori il numero di pixel necessari a garantire una buona qualità dell’immagine, ma sicuramente la dimensione dei pixel deve essere piccola in relazione alla scala degli oggetti rappresentati nell’immagine. Il fatto che la qualità sia buona o meno dipende fortemente dall’applicazione.

2.4 Modello di Colore e Profonditá

Un modello di colore è un modello matematico astratto che permette di rappresentare i colori in forma numerica, tipicamente utilizzando tre o quattro valori o componenti cromatiche. Un modello di colore si serve cioè di un’applicazione che associa ad un vettore numerico un elemento in uno spazio dei colori. I modelli di colore più diffusi sono:

  • RGB (Red, Green, Blue): modello di colori è di tipo additivo, unendo i
    tre colori con la loro intensità massima si ottiene il bianco.
  • CMYK (Cyan, Magenta, Yellow, Key black): modello di colori è di tipo
    sottrattivo, i colori ottenibili con la quadricromia sono un sottoinsieme
    della gamma visibile, quindi non tutti i colori che vediamo possono essere realizzati con la quadricromia, così come non tutti i colori realizzati con l’insieme RGB hanno un corrispondente nell’insieme CMYK. Il 100% di tutte e tre le componenti (CMYK 100,100,100,0) non genera solitamente il nero, bensì il bistro, colore simile a una tonalità di marrone molto scura.

La profondità di colore (color depth) è la quantità di bit necessari per rappresentare il colore di un singolo pixel in un’immagine bitmap, questa si misura in bit per pixel (bpp) ed il valore memorizzato per ciascun bit è generalmente un indice in una mappa di colori o tavolozza:

  • 1 bpp (21 = 2 colori)
  • 2 bpp (22 = 4 colori)
  • 8 bpp (28 = 256 colori)

Con l’aumentare del numero di bit per pixel aumenta anche la quantità di colori possibili, rendendo sempre più scomodo l’uso delle tavolozze. Per le profondità più alte si preferisce perciò codificare i colori direttamente nei valori corrispondenti alla luminosità relativa dei canali rosso, verde e blu secondo il modello RGB (oppure seguendo altri modelli di colore).

2.4.1 Immagini Monocromatiche

Il valore dei pixel è rappresentato con valori interi (k bit) che indicano il livello della quantità misurata, adeguatamente campionata e quantizzata. Solitamente si indica con risoluzione a livelli di grigio il numero di livelli distinguibili anche se la quantità misurata non è luminosa.

2.5 Le Telecamere

Le immagini posso derivare dalla digitalizzazione di segnali provenienti da diversi sensori. Uno dei sensori più diffusi sono le telecamere che possono essere classificate in due categorie principali:

  • Analogiche: generano un segnale analogico che fornisce informazioni sull’immagine riga per riga. I segnali devono essere successivamente campionati e quantizzati.
  • Digitali: generano un segnale digitale, cioè codificato in matrici di bit e non sono necessarie le operazioni di campionamento e quantizzazione.
Processo di acquisizione di una immagine
Processo di acquisizione di una immagine

Tra le telecamere digitali sono largamente diffuse quelle basate su sensori
allo stato solido CCD (Charge-Coupled Device) che forniscono una immagine
già campionata spazialmente (e temporalmente) a causa del numero finito di fotorecettori. Un’alternativa nascente sono invece le telecamere basate su sensori CMOS (Complementary Metal-Oxide Semiconductor) che permettono di superare alcuni problemi legati ai sensori CCD come l’interlacciamento ed il consumo, ma la qualità non è ancora comparabile ai primi. Generalmente il segnale video delle telecamere CCD é interlacciato, cioè vengono trasmesse prima le linee dispari e poi quelle pari, questo permette di ridurre il fenomeno del flickering (disturbo elettrico percepito come uno sfarfallio). Mentre il numero N di righe è fissato dallo standard il numero di righe M dipende dal campionamento del frame grabber (strumento che trasforma il segnale video analogico prodotto da una telecamera in un segnale digitale). Esistono tre tipi di standard:

  • NTSC (National Television Standard Committee)
  • SECAM (SÉquentiel Couleur Á Mémoire – colore sequenziale con memoria)
  • PAL (Phase Alternating Line).

Nella tabella successiva sono mostrate le differenze di prestazioni tra le tre codifiche.

  NTSC SECAM PAL
Immagini al secondo 30 29.97 25
ms per immagine 33.37 40 40
linee per immagine 525 625 625
aspect ratio h:v 4:3 4:3 4:3

Analizziamo i pro e contro tra sensori di acquisizione CCD e CMOS.

CCD CMOS
alta qualità minore qualitá
basso rumore alto rumore
molto sensibili ridotta sensibilitá
alto consumo basso consumo
tecnologia matura tecnologia innovativa
elevato numero di pixel numero di pixel ridotto

Un altro aspetto fondamentale da considerare durante la fase di acquisizione è il rumore Questo può essere determinato da vari fattori:

  • Sensori: tipicamente modellato come rumore bianco o gaussiano.
  • Trasmissione.
  • Quantizzazione.
  • Rumore impulsivo (sale e pepe).

TORNA ALL’INDICE