O=[O1..OM] vettori delle osservazioni
S= [s1 ...sN] insieme degli stati
A =[aij] matrice di probabilità di transizione fra gli stati
B=[bi(k)] matrice di probabilità di emissione dei vettori Oi
P = [Pi] vettore di probabilità iniziali
Vale inoltre:
-Problema di Valutazione (algoritmo Forward):
Dati H e una sequenza O come stimare la probabilità P(O|H)
-Problema di Decodifica (algoritmo di Viterbi):
Dati H e una sequenza O ottenere la sequenza di stati s1 …sT di H che ha la probabilità più alta di produrre la sequenza O
-Problema di Addestramento (algoritmo di Baum-Welch):
Dato un modello H e una sequenza O, come determinare i parametri di H in modo da massimizzare la probabilità che H generi O?
Definiamo la probabilità forward come:
è la probabilità che H si trovi nello stato I avendo generato la sequenza
La probabilità forward, per ogni t si calcola in questo modo:
Inizializzazione: Valuta le α1 per ogni stato:
Ricorsione: valuta le αt(i) per ogni stato i nei vari istanti di tempo:
Terminazione: calcola la probabilità complessiva di forward sommando tutte le probabilità parziali sull’ultimo stato.
La decodifica procede prendendo spunto dall’algoritmo forward: al posto di TUTTE le α, si prendono in considerazione solo quelle massime.
La variabile αt(i) del forward viene sostituita da Vt(i), probabilità che all’istante t l’HMM sia transitato per i migliori t-1 stati precedenti e si trovi in i avendo generato le osservazioni O1…Ot.
Ad ogni passo computazionale viene memorizzata la coppia Vt(j) e j
Inizializzazione : valuta le V1(i) per ogni stato (uguali alle a1(i))
Ricorsione:
a)
b) Memorizza lo stato che massimizza Vt(j)
Terminazione:
Backtracking:
recupera a ritroso i massimi registrati lungo il cammino
Dato un modello di Markov H e una sequenza di osservazioni O, vogliamo determinare i migliori valori per le transizioni di stato A e le probabilità di osservazione B
Introduciamo una nuova probabilità denominata p. di backward
La probabilità di trovarsi all’istante t nello stato i e nello stato j all’istante t+1 è:
Il calcolo di aij si ottiene valutando per tutte le t
bj(k) sono determinati dalle μ eδ delle multigaussiane, si ha che*:
*per semplifcare è riportato il calcolo per singola gaussiana monodimensionale
Dato un modello nascosto di Markov H(πi, O, B, A, S):
Step 1: Inizializzazione-> Definire una configurazione iniziale per A e B in H
Step 2: expectation -> calcolare per ogni t, i e j
Step 3: massimizzazione -> calcolare nuovi valori per A e B
Step 4: iterazione -> ripetere l’algoritmo iterativamente dal passo 2 x volte
Lo scopo dell’algoritmo è quello di massimizzare la probabilità P(O|H) che il modello H produca la sequenza O. Ciò può essere ottenuto per via iterativa, scrivendo P(O|H) in funzione di aij e bi.
Dalla massimizzazione di questa funzione verranno calcolati dei nuovi parametri aij e bi, a partire dai quali verrà rivalutata la funzione f e si procederà con un’ulteriore massimizzazione.
1. Introduzione al corso. Le tecnologie vocali: stato dell'arte e la situazione in Italia
2. Cenni di fonetica articolatoria
3. Digital signal processing applicazioni al segnale vocale – parte prima
4. Digital signal processing applicazioni al segnale vocale – parte seconda
5. Digital signal processing applicazioni al segnale vocale – parte terza
6. Analisi spettrografica del segnale vocale
8. Sintesi vocale da testo - parte prima
9. Sintesi vocale da testo - parte seconda
10. Sintesi vocale da testo - parte terza
11. Riconoscimento del parlato - parte prima
1. Introduzione al corso. Le tecnologie vocali: stato dell'arte e la situazione in Italia
2. Cenni di fonetica articolatoria
3. Digital signal processing applicazioni al segnale vocale – parte prima
4. Digital signal processing applicazioni al segnale vocale – parte seconda
5. Digital signal processing applicazioni al segnale vocale – parte terza
6. Analisi spettrografica del segnale vocale
8. Sintesi vocale da testo - parte prima
9. Sintesi vocale da testo - parte seconda
10. Sintesi vocale da testo - parte terza
11. Riconoscimento del parlato - parte prima
12. Riconoscimento del parlato - parte seconda
I podcast del corso sono disponibili anche su iTunesU e tramite Feed RSS.