Nella presente lezione, allo scopo di introdurre le reti neurali RBF, descriveremo
Abbiamo visto come una rete neurale feed-forward, sotto opportune ipotesi, sia capace di approssimare bene quanto si vuole qualunque funzione continua definita su un compatto.
Introdurremmo, ora, un tipo diverso di reti neurali feed-forward dette RBF
(Radial Basis Functions, Funzioni a base radiale).
A tale scopo consideriamo, allora, sempre il medesimo problema di approssimare una funzione, a partire da un insieme di coppie input-target conosciute, utilizzando il metodo della interpolazione esatta.
Si consideri, quindi, un mapping da uno spazio input d-dimensionale X ⊆ Rd ad uno spazio target uno-dimensionale Y ⊆R:
f : x ∈ X → y=f(x) ∈ Y
In generale di tale mapping, come già ampiamente detto, non si conosce l’andamento della funzione f(x) ma solo alcune coppie input-output.
Si supponga, allora, di conoscere n valori di input x1, x2, . . . , xn ∈ X a cui corrispondono n scalari t1, t2, . . . , tn ∈ Y (il Training Set, TS).
Il problema dell’interpolazione esatta consiste nel trovare una funzione h(x) che soddisfi i seguenti n vincoli di interpolazione:
h(xi) = ti,
Con i = 1, . . . ,n.
L’approccio con funzioni a base radiale consiste nel ricercare la funzione h(x) come combinazione lineare di n funzioni, φj(x), che dipendono dalla distanza (in genere euclidea) di x dall’origine o da un centro μj.
La forma di tali funzioni è la seguente:
φj(x) = φ(|| x – μj ||)
con j = 1, . . . ,n
E’ importante sottolineare che:
φ è una funzione, in genere, non lineare.
Una scelta tipica di tali funzioni è la gaussiana φ(x)=exp(-x2/2σ2)
|| x – μj || è, in genere, la distanza euclidea di x da un centro μj.
Dunque h(x) avrà la forma:
h(x) =∑j=1…n wj φj(x)
Il centro della funzione j-esima, nel caso di interpolazione esatta viene scelto uguale
al vettore di input j-esimo, cioè
μj = xj .
Ponendo:
φij = φj (xi)
la condizione di interpolazione prima imposta, cioè
h(xi) = ti
può essere espressa, come:
∑j=1…n wjφij = ti con i=1,2, …,n
Dove:
calcolato nel punto i-simo del Training Set.
Quindi sulla colonna j di φ ci sono i valori di φj(x) calcolati per tutti i punti del TS.
Importante
Una volta scelto il tipo di funzione di base φ da utilizzare,
il problema dell’interpolazione esatta si riduce alla stima
dei valori del vettore w.
Allora dalla formula
φ wT=t
Se φ è invertibile, si deduce che:
wT=φ-1t
Quindi per la i-esima componente di w risulta che:
wi = ∑j=1..n (φ-1)ij tj con i = 1, . . . ,n
Ovviamente è necessario verificare che per il tipo di funzione di base scelta l’inverso della matrice φ esista!
Il caso di un mapping da un insieme multi-dimensione ad uno monodimensionale può essere facilmente esteso al caso di un mapping fra due insiemi multi-dimensionali.
Si consideri, allora, un mapping da uno spazio input d-dimensionale X ⊆ Rd ad uno spazio target c-dimensionale Y ⊆Rc:
f : x ∈ X → y=f(x) ∈ Y
In tal caso ogni vettore di input xi dovrà essere mappato esattamente in un vettore di output ti di componenti ti1, ti2, . . . , tic.
Per cui l’equazione abbiamo:
hk(xi) = tik con i = 1, . . . ,n e k=1,2, …,c
dove hk(xi) è ottenuta sempre come combinazione lineare di funzioni a base radiale:
hk(x) =∑j=1…n wkjφj(x)
La condizione
hk(xi) = tik
diventa
∑j=1…n wkjφj(xi)= tik
con i = 1, . . . ,n e k=1,2, …,c
Che in forma matriciale compatta possiamo scrivere come
φWT=T
Quindi:
Anche in questo caso, allora, se φ è invertibile, abbiamo
WT= φ-1T
Sulla base di quanto detto nella prossima lezione introdurremo:
1. Informazioni generali sul corso
3. Un modello computazionale del neurone biologico
4. Possibili problemi risolvibili con Reti Neurali
5. Problemi di Classificazione ed approccio probabilistico
7. Capacità rappresentativa delle reti neurali - parte prima
8. Capacità rappresentativa delle reti neurali - Parte seconda
9. Apprendimento e generalizzazione
10. Discesa del gradiente e backpropagation
11. Back-Propagation
13. Interpretazione output di una rete neural feed-forward
14. Complessità della rete, generalizzazione e termini di regolari...
15. Cross-entropy e variazioni sulla discesa del gradiente
16. Verso le reti neurali RBF: interpolazione esatta.
17. Reti neurali RBF
18. Addestramento di una rete RBF
19. Parametri delle funzioni a base radiale
20. Un primo modello di reti neurali ricorrenti: formalismo di Caia...