Vai alla Home Page About me Courseware Federica Living Library Federica Federica Podstudio Virtual Campus 3D La Corte in Rete
 
Il Corso Le lezioni del Corso La Cattedra
 
Materiali di approfondimento Risorse Web Il Podcast di questa lezione

Sergio Cavaliere » 9.Quantizzazione: precisione finita di parola


Discretizzazione di un segnale

Per rappresentare un segnale o una immagine in una memoria digitale occorre non soltanto campionare il segnale continuo, nel tempo per segnali unidimensionali e nel piano per segnali bidimensionali, occorre anche discretizzarlo cioè rappresentarlo con un numero finito di bit e quindi con precisione finita.

Nel caso di segnali monodimensionali, ad esempio sonori, gli aspetti da verificare sono due: precisione e dinamica.

  1. Per quanto riguarda la precisione è chiaro che alcuni dettagli del segnale, piccole variazioni che sono al di sotto del passo di quantizzazione non vengono rappresentate nel segnale finale. Questo produce un errore nella rappresentazione, che si dice “rumore” in analogia con l’effetto acustico risultante.
  2. Un secondo aspetto, altrettanto se non più rilevante è quello della dinamica del segnale, cioè del rapporto tra valore massimo e minimo del segnale rappresentabile. Difatti, se il livello minimo di segnale è al di sotto del minimo segnale rappresentabile con il numero di bit prescelto, esso risulterà nullo. Questo costituisce un limite per il range dinamico rappresentabile.

Il segnale audio è un esempio di come la qualità sia affidata ad ambedue gli aspetti:

  1. per il primo il rumore si traduce in una sensazione di sottofondo sgradevole che può arrivare ad alterare la percezione e l’intellegibilità del segnale;
  2. per il secondo aspetto la qualità del segnale audio ad es. musicale è affidata anche alla possibilità di riprodurre fedelmente sia un segnale di basso livello (ad es. il bisbiglio di una voce) si un segnale di alto livello (ad es. grancassa).

Discretizzazione: effetti acustici

Nell’esempio sonoro proposto e nel relativo diagramma si possono valutare ambedue gli aspetti dovuti ad una insufficiente precisione nella quantizzazione del segnale.
Per rendere evidenti gli effetti il segnale è stato quantizzato a 5 bit.

È evidente come negli intervalli di tempo in cui il segnale ha un livello basso, inferiore al passo di quantizzazione, la quantizzazione cancella completamente il segnale che quindi risulta interamente nell’errore, sia graficamente che all’ascolto.

Nelle zone invece in cui il segnale ha livelli alti l’errore di quantizzazione risulta in un fruscio di fondo che rende sgradevole se non intellegibile il segnale.

Segnale, segnale quantizzato ed errore

Segnale, segnale quantizzato ed errore.

Segnale, segnale quantizzato ed errore.


Quantizzazione

Il processo di quantizzazione consiste nel rappresentare il segnale con precisione finita, ad esempio come intero con un numero definito di bit.
Supponiamo di quantizzare a 3 bit in complemento a2, cioè mediante 8 livelli. In particolare per una questione di simmetria tra codici positivi e negativi i livelli sono soltanto 2^n-1 cioè 7 nel caso in esame.

Possiamo quantizzare mediante troncamento della parola che rappresenta il segnale, trascurando le cifre dopo la virgola, ed in tal caso l’errore sarà contenuto tra -1 ed 1.

Possiamo quantizzare per arrotondamento della parola che rappresenta il segnale, cioè approssimando un numero a precisione infinita con l’intero (maggiore o minore) più vicino. In tal caso l’errore sarà contenuto tra -0.5 e 0.5.

I limiti dell’errore nei due casi si riscontarno in figura dalle simulazioni, ottenute mediante round_trunc.m nella sezione materiali.

La quantizzazione si effettua con un dispositivo DAC (Digital to Analg Converter) che confronta un segnale analogico con delle soglie opportune e restituisce il codice binario relativo.

Troncamento e relativo errore.

Troncamento e relativo errore.

Arrotondamento e relativo errore.

Arrotondamento e relativo errore.


Quantizzazione (segue)

Per studiare l’effetto della quantizzazione occorre però usare un segnale in cui tutti i valori assunti abbiano uguale probabilità di occorrenza; useremo quindi come segnale una rampa come in figura e otterremo numericamente la frequenza di occorrenza dell’errore nei due casi ed il limiti di questo errore.

Evidentemente l’arrotondamento introdurrà meno rumore del troncamento e sarà di norma preferito al troncamento.

Gli effetti del rumore nei casi reali di quantizzazione a 12 – 16 ma anche 20 24 bit sono naturalmente molto più contenuti che negli esempi sviluppati, cioònonostante essi possono essere estremamente rilevanti in relazione alla specifica aplicazione.
Nel campo audio, ad esempio i 20-24 bit sono considerati necessari per una buona resa acustica.
La quantizzazione ha però un altro effetto: trattando un segnale ad n bit con un’aritmetica ad n bit, se nella elaborazione sono necessarie 4 somme, per evitare overflow sarà necessario che il segnale di partenza non oltrepassi n-2 bit. Se l’elaborazione diventa più complessa e richiede un numero elevato di operazioni la precisione del singolo campione si ridurrà di un numero di bit pari al log in base 2 del numero di operazioni.

Statistica del rumore di troncamento e di arrotondamento.

Statistica del rumore di troncamento e di arrotondamento.


Errore di quantizzazione e sua statistica

La potenza del rumore si definisce come media del valore quadratico dell’errore, pesato con la sua probabilità di occorrenza

\sigma _n ^2 = {\int _ {-\infty} ^ \infty } e^2 \cdot p(e)de= \int _ {-q/2} ^{q/2} e^2 \cdot p(e)de

Si può dimostrare che questa probabilità è costante tra –q/2 e q/2 e poiché l’area sotto la curva deve essere unitaria, sarà (p(e)=1/q, q è il passo di quantizzazione). L’integrale si può valutare come: \sigma_n ^2= \frac{q^2} {12} (ad es. vedi Wolfram)

Supponiamo ora di quantizzare a b bit; il passo di quantizzazione sarà q=2/2b=2-b+1. Sostituendo avremo:

\sigma _n ^2= \frac {q^2} {12}= \frac {2^{-2b+2}} {12}= \frac {2^{-2b}} { 3}

La potenza del segnale supponendo si tratti di una rampa tra 0 e 1 con valori equiprobabili in questo intervallo si può ricavare allo stesso modo, ottenendo:

P_x=\frac 1 3


Rumore di quantizzazione

Per misurare la degradazione introdotta dalla quantizzazione si introduce allora il parametro rapporto segnale rumore (o il suo inverso) SNR Signal to Noise Ratio, misurato come rapporto tra le due potenze, quella del segnale e quella del rumore. Facendo il rapporto tra le due grandezze appena calcolate avremo:SNR=\frac {P_x} {\sigma {^2}{_n}}= \frac 1 3 \frac 3 {s^{-2b}}= 2^{2b}

Il rapporto SNR viene misurato solitamente in decibel dB, definito per la grandezza X come: X_{dB}=20log (\frac {A_{2}} {A_{1}})=10log ( \frac {P_{2}} {P_{1}})

dove A sono ampiezze e P sono potenze (quindi proporzionali al quadrato delle ampiezze); ricordando poi che log \frac 1 x = -logx

l’inverso di una grandezza qualsiasi viene misurata dal numero opposto in dB. La legge vista, si può esprimere nella relazione lineare:

SNRdb=10log10SNR=10log1022b=20b*log102=6.02·b

Un incremento dunque di un bit nella rappresentazione dei segnali comporta un miglioramento di circa 6dB nel rapporto segnale rumore.

Segnale quantizzato a 4 bit, errore di arrotondamento e statistica del rumore. Si osservi che la distribuzione di probabilità dell’errore non è uniforme: essa è maggiore incorrispondenza dei valori piccoli dell’errore.

Segnale quantizzato a 4 bit, errore di arrotondamento e statistica del rumore. Si osservi che la distribuzione di probabilità dell'errore non è uniforme: essa è maggiore incorrispondenza dei valori piccoli dell'errore.


Simulazioni

La legge vista per cui un incremento di un bit nella rappresentazione del segnali comporta un miglioramento di circa 6dB nel rapporto segnale rumore può essere verificata mediante simulazione a diversi valori per il numero di bit.

Nei diagrammi a fianco vengono riportati questi valori in dB ottenuti sia dalla formula sopra riportata che da una simulazione ottenuta con il file Matlab .
Nel caso di simulazione, le due potenze, del rumore ni e del segnale xi sono calcolate come:

N= \sum _{i} n{_i}{^2}

P= \sum _{i} x{_i}{^2}

Ed il rapporto SNR è

SNR= \frac P N

Rapporto SNR mediante la legge analitica e la simulazione, in buon accordo.
Nel diagramma  sono riportati anche i valori relativi al caso del troncamento, per il quale l’SNR si alza di circa 6 dB (equivalente alla perdita di un bit).

Rapporto SNR mediante la legge analitica e la simulazione, in buon accordo. Nel diagramma sono riportati anche i valori relativi al caso del troncamento, per il quale l'SNR si alza di circa 6 dB (equivalente alla perdita di un bit).


Distribuzione delle ampiezze per diversi segnali

Come già visto nel caso del seno, la statistica dell’errore dipende dal segnale.
Le formule viste si adattano però ad una situazione generale perché su tempi lunghi i valori assunti dal segnale sono praticamente equiprobabili.

Le statistiche riportate per segnali diversi sono ottenute da simulazione e mostrano chiare differenze da segnale a segnale.

Rumore bianco e sua distribuzione di probabilità .

Rumore bianco e sua distribuzione di probabilità .

Segnale sin2 e sua distribuzione di probabilità .

Segnale sin2 e sua distribuzione di probabilità .


La quantizzazione nel caso delle immagini

I risultati visti nel caso dei segnali monodimensionale si estendono semplicemente al caso di immagini e permettono di stabilire il numero di bit necessari alla rappresentazione di immagini, anche in movimento, in relazione al supporto di visualizzazione (stampa, monitor, LCD ed altro).
Nella figura seguente è mostrato il risultato della quantizzazione di una immagine in toni di grigio su 16-8-4-2 livelli, quindi a 4-3-2-1 bit.

Quantizzazione di immagine da 8 fino ad 1 bit. 
L’uso di 1 bit risulta in una quantizzazione su due livelli: bianco e nero.

Quantizzazione di immagine da 8 fino ad 1 bit. L'uso di 1 bit risulta in una quantizzazione su due livelli: bianco e nero.


La quantizzazione nel caso delle immagini (segue)

In questo secondo caso l’immagine di origine è una immagine, Lena, usata frequentemente nella letteratura della elaborazione delle immagini, perché contiene una mescolanza di contorni, textures minute e zone diffuse, utili per mettere alla prova algoritmi di elaborazione di immagine, di compressione e di abbattimento del rumore.
Vedi in rete: Lenna

Citando David C. Munson, editor-in-chief, January 1996 IEEE Transactions on Image Processing:
“First, the image contains a nice mixture of detail, flat regions, shading, and texture that do a good job of testing various image processing algorithms. It is a good test image!

Lena: quantizzazione di immagine a da 16 4 3 1 bit.

Lena: quantizzazione di immagine a da 16 4 3 1 bit.


Quantizzazione di immagine a colori

Nel caso di immagini colorate la quantizzazione va fatta sui singoli colori, separati nei tre piani.
Nelle immagini che seguono la quantizzazione è a ad un solo bit, ciò nonostante la combinazione dei 3 piani di colori permette comunque di creare un numero alto di colori composti (2×2x2=8).

Quantizzazione del piano del rosso.

Quantizzazione del piano del rosso.

Quantizzazione del piano del verde.

Quantizzazione del piano del verde.


Quantizzazione dei piani di colore

Quantizzazione del blu.

Quantizzazione del blu.

L’immagine ricostruita dopo la quantizzazione riproduce una discreta gamma di colori.

L'immagine ricostruita dopo la quantizzazione riproduce una discreta gamma di colori.

Immagine sorgente.

Immagine sorgente.


  • Contenuti protetti da Creative Commons
  • Feed RSS
  • Condividi su FriendFeed
  • Condividi su Facebook
  • Segnala su Twitter
  • Condividi su LinkedIn
Progetto "Campus Virtuale" dell'Università degli Studi di Napoli Federico II, realizzato con il cofinanziamento dell'Unione europea. Asse V - Società dell'informazione - Obiettivo Operativo 5.1 e-Government ed e-Inclusion

Fatal error: Call to undefined function federicaDebug() in /usr/local/apache/htdocs/html/footer.php on line 93