Vai alla Home Page About me Courseware Federica Living Library Federica Federica Podstudio Virtual Campus 3D Le Miniguide all'orientamento Gli eBook di Federica La Corte in Rete
 
I corsi di Ingegneria
 
Il Corso Le lezioni del Corso La Cattedra
 
Materiali di approfondimento Risorse Web Il Podcast di questa lezione

Luigi Paura » 10.Capacità di canale e codifica


Capacità di canale e codifica

Sommario:

  • Caratterizzazione del canale.
  • Capacità di canale.
  • Teorema della codifica di canale (II teorema di Shannon).
  • Capacità per un canale gaussiano.
  • Le potenzialità offerte dalla codifica di canale.

Caratterizzazione del canale

  • Ogni canale è caratterizzato da una relazione tra il segnale d’ingresso e il segnale di uscita, quindi il canale è un sistema.
  • Ci sono molti fattori per i quali l’ingresso x è diverso da y: attenuazioni, non linearità, propagazione multi-percorso, rumore, fading, interferenze.
Canale di trasmissione

Canale di trasmissione


Canale discreto senza memoria

  • La presenza di rumore giustifica il modello di processo aleatorio per l’uscita y(·).
  • Il modello di canale più semplice è quello di canale discreto senza memoria cioè: l’ingresso e l’uscita del canale sono segnali a tempo discreto e i valori appartengono ad alfabeti discreti e finiti e i campioni sono statisticamente indipendenti.
Canale discreto senza memoria

Canale discreto senza memoria


Canale BSC

Canale BSC

Canale BSC


Canale BSC

  • 3 disaccordi
  • 2 accordi
Canale BSC

Canale BSC


Discrete Memoryless Channel (DMC)

Canale senza memoria discreto con K ingressi N uscite

Canale senza memoria discreto con K ingressi N uscite


Canale additivo continuo

Y = X + Z

  • X è l’ingresso
  • Z è il rumore additivo
Canale additivo continuo

Canale additivo continuo


Rumore gaussiano

Densità di probabilità del rumore gaussiano

Densità di probabilità del rumore gaussiano

Vincolo sulla potenza disponibile in TX

Vincolo sulla potenza disponibile in TX


Capacità di canale

Per misurare la quantità di informazione di una sorgente abbiamo introdotto il tasso entropico H ed R(D) se accettiamo una distorsione D.

Esiste un parametro per misurare la potenzialità trasmissiva di un canale? Si, la capacità.

DMC ideale

Il canale DMC ideale è un canale DMC su cui è assente il rumore:

P(ai|bj) = 0 i≠j; P(ai|bj) = 1; i=j => La matrice di transizione è una matrice identità IK.

DMC ideale

DMC ideale


DMC rumoroso

  • Almeno una P(ai|bj) ≠ 0 i≠j cioè P≠IK
  • In questo caso “l’informazione trasferibile” deve essere minore di log K.

DMC rumoroso

  • Se si riceve a può essere stato trasmesso a oppure d.
  • Se si riceve b può essere stato trasmesso a oppure b.

Se TX e RX convengono di usare solo i simboli a e c il trasferimento di simboli è privo di errori.

DMC rumoroso

DMC rumoroso


Capacità di canale

Per un canale BSC possiamo fare ragionamenti simili ma in questo caso dobbiamo considerare blocchi di simboli molto lunghi (n>>1) piuttosto che un singolo simbolo.

Legge dei grandi numeri

Legge dei grandi numeri


Capacità di canale

Capacità di canale

Capacità di canale


Capacità di canale

Schema esplicativo

Schema esplicativo

Massimo numero di blocchi di ingresso per non avere sovrapposizioni

Massimo numero di blocchi di ingresso per non avere sovrapposizioni


Capacità di canale

  • M blocchi di ingresso equiprobabili equivalgono a log M bits.
  • Essendo il canale simmetrico se prendiamo i simboli di ingresso equiprobabili massimizziamo H(Y) cioè H(Y)=1.
Capacità di un BSC

Capacità di un BSC


Capacità di canale

C = 1 – Hb(ε) = f(ε)

E’ l’informazione limite che può essere trasmessa su un BSC di parametro ε in maniera affidabile (reliable) cioè P(e) → 0 per n → ∞

Grafico esplicativo

Grafico esplicativo


Definizione della capacità di un canale DMC

Se il canale non è rumoroso (canale ideale) H(Y|X)=0 e H(Y) è massima per simboli di ingresso equiprobabili.

C = log K

Capacità di un DMC

Capacità di un DMC


Definizione della capacità di un canale DMC

In generale la capacità C per un DMC si calcola numericamente (al calcolatore) con algoritmi iterativi.

Caso particolare: Canale simmetrico

Per un canale simmetrico la matrice di canale è costituita da righe che sono permutazioni della prima riga e da colonne che sono permutazioni della prima colonna.

Capacità di un DMC simmetrico

Per un DMC simmetrico la distribuzione di ingresso C che massimizza I(X,Y) è quella uniforme.

Distribuzione di ingresso uniforme

Distribuzione di ingresso uniforme


Codici a blocco

  • Un codice a blocco (n,k) è una applicazione che associa ad ogni blocco di k simboli binari di informazione (#blocchi=2k) una parola codice di lunghezza n.
  • Nel seguito si assume H(S)=1 => R=k/n

N.B.: se l’alfabeto di codice è binario il tasso R<1 perché introduciamo ridondanza (ad esempio, i “bit di parità”). Più in generale n>k/logL con L cardinalità dell’alfabeto codice.

Tasso del codice (bits/simbolo del canale)

Tasso del codice (bits/simbolo del canale)


Teorema della codifica di canale – II teorema di Shannon

Se il tasso di trasmissione R è minore di C, allora per ogni δ>0 (piccolo a piacere) esiste un codice con lunghezza di blocco n grande sufficientemente per ottenere una P(e) minore di δ.

Teorema inverso

Se R>C allora non esiste alcun codice che consente di avere P(e) piccole a piacere (P(e) → 0 per n → ∞ ).

Capacità di un canale gaussiano

Per blocchi di lunghezza n di ha: y=x+z

Legge dei grandi numeri

Legge dei grandi numeri

Capacità di un canale gaussiano

Capacità di un canale gaussiano


Capacità di un canale gaussiano

Capacità di un canale gaussiano

Capacità di un canale gaussiano


Capacità di un canale gaussiano

Quanti blocchi x possono essere utilizzati in modo che le ipersfere corrispondenti non si sovrappongano?

  • La mancata sovrapposizione, infatti, garantirebbe una trasmissione affidabile.
  • Basta fare il rapporto tra il volume della ipersfera dei blocchi ricevuti e il volume dei blocchi x.
  • Il volume di una ipersfera di raggio R è Vn=KnRn dove Kn è una costante dipendente dal solo n.

Capacità di un canale gaussiano

Capacità di un canale gaussiano

Capacità di un canale gaussiano


Capacità di un canale gaussiano tempo-continuo con banda limitata

Qual’è la capacità in bit/secondo? Poiché si trasmettono 2W campioni/sec, la capacità è Cs (vedi figura 2).

Canale AWGN a banda limitata e potenza per campione disponibile P

Canale AWGN a banda limitata e potenza per campione disponibile P

Capacità di un canale gaussiano tempo-continuo con banda limitata

Capacità di un canale gaussiano tempo-continuo con banda limitata


Capacità di un canale gaussiano tempo-continuo con banda limitata

Esempio: Capacità di un canale telefonico di banda W=3000Hz e SNR=39dB

Soluzione dell’esempio

Soluzione dell'esempio


Bounds sulla comunicazione

Risorse:

  • Banda W
  • Potenza disponibile P

Aumentando la potenza P Cs aumenta ma con il logaritmo!!

Capacità

Capacità


Bounds sulla comunicazione

Come varia la Cs all’aumentare della banda?

Variazione di Cs in base alla banda

Variazione di Cs in base alla banda


Bounds sulla comunicazione

Un impulso spesso utilizzato per le sue proprietà è il coseno rialzato:

Grafico esplicativo

Grafico esplicativo

Efficienza spettrale

Efficienza spettrale


Bounds sulla comunicazione

Bounds sulla comunicazione

Bounds sulla comunicazione


Bounds sulla comunicazione

Grafico esplicativo

Grafico esplicativo


Bounds sulla comunicazione

Per trasmettere in maniera affidabile su un canale AWGN

Per trasmettere in maniera affidabile su un canale AWGN


Esempio: canale telefonico

Consideriamo una canale telefonico: W=3.500 Hz e SNR=37 dB

Cs = 3.500 log(1+1037/10) = 43.020 bit/sec

La raccomandazione V.34 dell’ITU (Intern. Telecom. Union) definisce uno standard che stabilisce i requisiti di un modem operante alla massima velocità di 33.600bit/sec.

Esempio: canale telefonico

Questa velocità di trasmissione prossima alla capacità (43.020 bit/sec) è conseguibile con tecniche di modulazione con memoria sofisticate quali la Trellis Code Modulation (TCM), egualizzazione adattiva e precodifica.

Considerazioni conclusive

Riassunto della lezione:

  • E’ stato introdotto il modello di canale discreto senza memoria.
  • E’ stata calcolato la capacità per i canali DMC simmetrici.
  • E’ stato enunciato il II teorema di Shannon.
  • E’ stata calcolata la capacità del canale gaussiano.
  • Sono stati studiati i limiti della comunicazione su canale gaussiano tempo-continuo.

Prossima lezione

Codifica di Canale a blocchi

  • Codici a blocco
  • Espansione in banda e coding gain

I materiali di supporto della lezione

G.Proakis, M.Salehi, “Communication Systems Engineering”, p. 576-592.

  • Contenuti protetti da Creative Commons
  • Feed RSS
  • Condividi su FriendFeed
  • Condividi su Facebook
  • Segnala su Twitter
  • Condividi su LinkedIn
Progetto "Campus Virtuale" dell'Università degli Studi di Napoli Federico II, realizzato con il cofinanziamento dell'Unione europea. Asse V - Società dell'informazione - Obiettivo Operativo 5.1 e-Government ed e-Inclusion