Rappresentazione dell’incertezza usando la probabilità.
Percezione = stima dello stato (problema stima).
Azione = massimizzazione utilità (teoria decisioni).
Percezione: mappa misure dei sensori nella rappresentazione interna dello stato del robot e dell’ambiente (stato).
Sensori sono rumorosi, l’ambiente è parzialmente osservabile, non prevedibile, dinamico, modello inaccurato etc.
Belief = Probabilità dello stato date azioni ed osservazioni.
Stima:
Si cerca la stima massima dello stato
X = {x1, x2, … , xm} dato un insieme di misure
Z = {z1, z2, … , zn}
Problema: trovare P(X | Z )
Filtro bayesiano: P(Xt+1 | z1:t+1) a partire da P(Xt | z1:t)
Filtro bayesiano: P(Xt+1 | z1:t+1,a1:t) da P(Xt | z1:t,a1:t-1)
Localizzazione: X è la posizione
Mapping: X è la mappa
SLAM: X è mappa e posizione
Regola 1 (positività):
0 ≤ Pr(A) ≤ 1;
Regola 2 (certezza):
Pr(True) = 1, Pr(False)=0;
Regola 3 (unione):
Pr(A or B) = Pr(A) + Pr(B) – Pr(A and B)
Interpretazione insiemistica:
Pr(A or B) = Pr(A) + Pr(B) – Pr(A and B)
Pr(False) ≤ Pr(A) ≤ Pr(True) = 1
Conseguenze assiomi probabilità
Pr (A ∨ ¬ A) = Pr (A)+Pr(¬ A) – Pr (A ∧ ¬ A)
Pr(True) = Pr (A)+Pr(¬ A) – Pr (False)
1 = Pr (A)+Pr(¬ A) – 0
Pr (¬ A) = 1 – Pr(A)
X è una variable aleatoria che assume valori nell’insieme numerabile {x1, x2, …, xn}.
P(X=xi), o P(xi), è la probabilità che la variable aleatoria X assuma valore xi.
P( ) è la funzione di distribuzione di probabilità (massa o densità).
E.g.
P (Room) = 〈 0.7, 0.2, 0.08, 0.02 〉
X prende valori in un insieme continuo.
p(X=x), o p(x), è la funzione di funzione di densità di probabilità.
Gaussiana
Multivariata:
Σ è la matrice di covarianza, μ vettore dei valori medi.
P(X=x and Y=y) = P(x,y)
Se X e Y sono independenti allora
P(x,y) = P(x) P(y)
P(x | y) è la probabilità di x dato y
P(x | y) = P(x,y) / P(y) P(x,y) = P(x | y) P(y)
Se X e Y sono independenti allora
P(x | y) = P(x)
Caso discreto
Caso continuo
Nel caso di probabilità condizionate vale la proprietà analoga:
Legge delle probabilità totali per probabilità condizionata:
Indipendenza condizionata:
e
P(open|z) prob. diagnostica.
P(z|open) prob. causale.
Spesso la prob. causale è il dato di partenza (modello, dato empirico, frequenze).
La legge di Bayes permette di ottenere la diagnosi dalla legge causale:
z determina la probabilità che la porta sia aperta.
Max A-posteriori: se si conosce il prior p(x) sceglie la x che massimizza: P(z | x) P( x )
Max likelihood: se non si conosce il prior p(x) sceglie la x che massimizza: P(z | x)
Se il robot ottiene un’altra osservazione z2 come la integra?
Come si stima P(x| z1…zn )?
Assunzione di Markov:
dato x, la nuova zn è indipendente da z1,…,zn-1
Due locazioni possibili x1 e x2
z2 abbassa la probabilità che la porta sia aperta.
2. Robotica mobile - parte prima
3. Robotica mobile - parte seconda
4. Robotica Probabilistica - Filtri Bayesiani (parte prima)
5. Robotica Probabilistica - Filtri Bayesiani (parte seconda)
7. Modello Probabilistico dei Sensori
8. Robotica Probabilistica - Filtri Gaussiani
10. SLAM
11. Filtri Discreti
12. FastSLAM
13. SLAM grid-based
14. Esplorazione basata su guadagno di informazione