Vai alla Home Page About me Courseware Federica Living Library Federica Federica Podstudio Virtual Campus 3D La Corte in Rete
 
Il Corso Le lezioni del Corso La Cattedra
 
Materiali di approfondimento Risorse Web Il Podcast di questa lezione

Ernesto Burattini » 2.Scoperta dell'artificiale


Precursori

Tra la fine dell’800 e la prima metà del ‘900 si iniziarono a studiare macchine che fossero dotate di capacità di autoregolazione e autocontrollo paragonabili a quelle proprie degli organismi viventi.

Immagine del cane fototropico di Hammond reperebili al sito Lumen.
Immagini della tartaruga di Grey Walt reperebile al sito Extremenxt

La cibernetica

Facciamo una breve rassegna degli sviluppi storici più importanti in tre aree:

  1. la cibernetica;
  2. l’intelligenza artificiale;
  3. la robotica.

Norbert Wiener, alla fine degli anni ‘40, è accreditato come il padre della cibernetica: un matrimonio tra la teoria del controllo, la scienza dell’informazione, e la biologia, tendente a spiegare i principi comuni del controllo e della comunicazione negli animali e nelle macchine, (Wiener 1948), Ashby (1952).
Wiener favorì questa idea di un organismo visto come una macchina ed usò la matematica, sviluppata per i sistemi di controllo a contro-reazione, per esprimere comportamenti naturali.
Venne così introdotta la nozione di situatedness, ovvero, un forte accoppiamento a due vie tra un organismo ed il suo ambiente.

La cibernetica (segue)

Nel 1953, W. Grey Walter applicò questi principi alla progettazione di un robot chiamato Machina Speculatrix che fu successivamente costruito con il nome di tartaruga di Grey Walter.
Alcuni dei principi presenti nel suo progetto includono:

  1. la parsimonia: semplice è migliore (Rasoio d’Occam). I semplici riflessi dei sensori possono servire come la base per il behaviour.
    “Le variazioni di pattern comportamentali esibite anche con tali economiche strutture sono complesse ed imprevedibili” (Grey Walter 1953, p. 126).
  2. l’esplorazione o speculazione: Il sistema non rimane mai fermo eccetto quando si alimenta (ricarica). Questo moto continuo è necessario in circostanze normali per evitargli di essere intrappolato. “Nella sua esplorazione di una qualunque stanza incontra inevitabilmente molti ostacoli; ma a parte i gradini e i tappeti, vi sono poche situazioni dalle quali non può districarsi” (Grey Walter 1953, p. 126).
Guglielmo d’Occam. Refettorio S. Lorenzo Maggiore – Napoli.

Guglielmo d'Occam. Refettorio S. Lorenzo Maggiore - Napoli.


La cibernetica (segue)

3. l’attrazione (tropismo positivo): Il sistema è spinto a muoversi verso alcuni oggetti presenti nell’ambiente. Nel caso della tartaruga, questa è una luce di intensità moderata.
4. l’avversione (tropismo negativo): Il sistema si allontana da certi stimoli negativi, per esempio evitando ostacoli e pendii.
5. il discernimento: Il sistema ha l’abilità di distinguere tra comportamento produttivo ed improduttivo, adattandosi alla situazione corrente.

La cibernetica (segue)

La tartaruga esibiva il seguente behaviour:

  • Ricercare la luce: Il sensore ruota finché una fonte di illuminazione debole viene scoperta mentre il motore contemporaneamente muove il robot per esplorare l’ambiente.
  • Andare verso una luce debole: Una volta che una luce debole viene scoperta, la tartaruga si muove nella sua direzione.
  • Indietreggiare lontano da una luce forte: Un behaviour di tipo avversivo respinge la tartaruga lontano da sorgenti di luci brillanti. Questo behaviour viene usato in particolare dalla tartaruga per la ricerca del carica batterie.
  • Girare e spingere: Usato per evitare ostacoli, questi behaviour annullano la risposta alla luce.
  • Ricaricare la batteria: Quando la potenza della batteria on-board diventa bassa, la tartaruga percepisce una fonte di illuminazione forte come fosse debole. Poiché la stazione di ricarica è indicata da una luce forte, il robot si muove verso di essa e si attacca all’alimentatore. Dopo avere ricaricato, la fonte di illuminazione viene percepita come molto forte, ed il robot viene respinto dalla stazione di ricarica.

La cibernetica (segue)

I behaviours sono gerarchizzati dal basso verso l’alto come segue:

  • cercare la luce;
  • muoversi da/verso la luce;
  • evitare gli ostacoli.

La tartaruga si comporta sempre secondo il behaviour applicabile in priorità più alta, per esempio sceglie di evitare ostacoli rispetto a muoversi verso una luce.

Verso l’Intelligenza Artificiale

Durante la seconda guerra mondiale dirà Norbert Wiener (1894-1964), “il prestigio dell’aviazione tedesca e la posizione difensiva dell’Inghilterra indirizzavano l’attenzione di molti scienziati al potenziamento dell’artiglieria antiarea” un problema era la cooordinazione tra radar-calcolatore-puntatore, nel quale l’informazione sull’obiettivo mobile, captata dal radar ed elaborata dal calcolatore, retroagisse sul sistema di puntamento.

Esempio di sistema con controreazione


Il concetto di reazione (feedback) negativa

Il sistema è aperto allo scambio di informazione con l’ambiente esterno, cosicché il suo comportamento è regolato dal continuo confronto tra lo stato in cui esso si trova e quello fissato come parametro di riferimento, in modo che il sistema non si allontani mai troppo da quest’ultimo. Esso è cioè in grado di autoregolarsi o autogovernarsi. La nozione di macchina, che è all’origine di questi sistemi, non sembra più incompatibile con la nozione di “scopo”, e “il secolo XX appare a Wiener come il secolo delle macchine dotate di autocontrollo, come il secolo XIX fu l’età della macchina a vapore o il XVIII l’età dell’orologio“.

Il concetto di reazione (feedback) negativa (segue)

Anche il sistema nervoso può allora essere visto sotto una luce nuova: non come un semplice congegno stimolo-risposta, secondo una delle visioni prevalenti nella ricerca neurofisiologica precedente a Wiener, ma come un sistema in cui le risposte (muscolari) retroagiscono continuamente rispetto agli stimoli (sensoriali), risultando così sempre modificate e meglio adattate al raggiungimento di uno scopo.

Il concetto di reazione (feedback) negativa (segue)

Agli occhi di Wiener ingegneria e biologia sembrano ruotare entrambe attorno a un nucleo comune di problemi centrato sullo studio dei processi di trasmissione e di controllo dell’informazione, problemi che meritano un’analisi unificata in una nuova disciplina.
È il 1943 quando Wiener firma con Rosenblueth e Bigelow un sintetico articolo per la rivista “Philosophy of science” dal titolo “Comportamento, scopo e teleologia” (Behavior, purpose, and teleology)* che sarà poi considerato il manifesto di questa nuova disciplina.

Lo stesso Wiener l’avrebbe battezzata Cibernetica.

*trad. it. in Somenzi V. e Cordeschi R., a cura di, La filosofia degli automi. Origini dell’intelligenza artificiale. Bollati Boringhieri, Torino, 1994

Il concetto di reazione (feedback) negativa (segue)

Dalla Cibernetica wieneriana possiamo dire che si sono sviluppate diverse linee di ricerca.

Lo studio, attraverso modelli matematici e algoritmici di diversa complessità, delle reti neurali, originato dall’articolo, pubblicato sempre nel 1943 negli Stati Uniti, dallo psichiatra Warren McCulloch (1898-1968) e dall’allora giovane logico Walter Pitts (1923-1969).
Il modello di McCulloch e Pitts ha dato origine a molti altri modelli del sistema nervoso e dei singoli neuroni, attraverso successive rielaborazioni (ricordiamo qui i contributi originali di Eduardo Caianiello).

Immagine di tessuto nervoso. Fonte: V. Guglielmotti, Istituto di Cibernetica “E:R: Caianiello”, CNR

Immagine di tessuto nervoso. Fonte: V. Guglielmotti, Istituto di Cibernetica “E:R: Caianiello”, CNR

Le equazioni di Caianiello . Fonte: Istituto di Cibernetica “E:R: Caianiello”, CNR

Le equazioni di Caianiello . Fonte: Istituto di Cibernetica “E:R: Caianiello”, CNR


Automi

Lo studio degli automi che riproducevano diverse caratteristiche di esseri viventi, come la capacità di muoversi coerentemente in ambienti reali o di apprendere per semplici forme di riflesso condizionato.
Vedi le “tartarughe” elettroniche costruite in Inghilterra negli anni cinquanta dallo psichiatra Walter Grey Walter (1910-1977) o i veicoli pensanti (1984) di Valentino Braitenberg (1926- ) .

Valentino Braitenberg

Valentino Braitenberg riprese il modello di Grey Walter tre decadi dopo la sua presentazione (Braitenberg 1984). Partendo dal punto di vista dello psicologo, egli estese i principi del comportamento dei circuiti analogici ad una serie di gedanken experiments che portarono al progetto di una serie di veicoli.
Questi sistemi usano connessioni inibitorie ed eccitatorie, accoppiando direttamente o in maniera incrociata i sensori ai motori.

Anche in questo caso, behaviour apparentemente complessi emergono da trasformazioni senso-motorie relativamente semplici.

Braitenberg creò molti veicoli, incluso alcuni che immaginava potessero esibire codardia, aggressione ed amore.

Come con la tartaruga di Grey Walter, questi sistemi non sono flessibili, sono macchine personalizzate e non riprogrammabili. Nondimeno, la variabilità del loro comportamento è coinvolgente.

Valentino Braitenberg (segue)

In figura sono riportate tre delle molte possibili connessioni tra sensori luminosi e motori per veicoli con quattro ruote. Nel caso A, il veicolo ha un solo motore connesso su entrambe le ruote posteriori si muove quindi andando sempre avanti a meno che una ruota non slitti ne provocando piccole deviazioni. Quindi qui solo il terreno può modificare la traiettoria. Nel caso B il veicolo ha due motori e due fotosensori per cui la direzione muta a seconda di quale sensore risulta più vicino alla luce provocando una sorta di fuga dalla luce. Nel terzo caso C essendo i fotosensori collegati in maniera inversa a prima il veicolo è attirato dalla luce. Braitenberg in questo caso parla di aggressione.

Valentino Braitenberg (segue)

Altro esempio: Stesso cablaggio come per Veicolo 2 ma ora con collegamenti inibitori. I veicoli rallentano in presenza di una fonte di illuminazione forte e vanno veloce in presenza di luce debole. In entrambi i casi, il veicolo si avvicina e si ferma vicino alla fonte di illuminazione (uno di faccia alla luce ed uno con le spalle alla fonte di illuminazione). Braitenberg dice che il veicolo sulla sinistra “ama” la fonte di illuminazione, poiché resta là indefinitamente, mentre il veicolo sulla destra esplora il mondo, amando di essere vicino al suo attrattore, ma sempre in cerca di qualche cosa altro.

Esempi di veicoli di Braitenberg.

Esempi di veicoli di Braitenberg.


Intelligenza artificiale (segue)

Questo approccio dominò la ricerca robotica per i successivi trenta anni durante i quali la ricerca di AI sviluppò una forte dipendenza dall’uso della rappresentazione della conoscenza e dai metodi di ragionamento deliberativi per la pianificazione robotica.

L’organizzazione gerarchica della pianificazione era una delle correnti principali:
“un piano è un qualunque processo gerarchico nell’organismo che può controllare l’ordine nel quale è compiuta una sequenza di operazioni”. (Miller, Galanter, e Pribram 1960 p.l6).

Esempi di veicoli di Braitenberg.

Esempi di veicoli di Braitenberg.


Intelligenza artificiale: pianificazione

Alcuni degli esempi di pianificazione tradizionale in AI includono:

  • STRIPS: Dimostratore di teoremi che usa la logica del primo-ordine per sviluppare un piano di navigazione (Fikes e Nilsson 1971).
  • ABSTRIPS: Usava una gerarchia di spazi astratti per migliorare l’efficienza di un pianificatore tipo STRIPS, raffinando i dettagli di un piano man mano che divenivano importanti (Sacerdoti 1974).
  • HACKER: Questo sistema ricercava in una biblioteca di procedure un piano da proporre che poi più tardi verificava. Il dominio del mondo dei blocchi (blocchi mossi da un braccio robotico simulato) servì come sede primaria per la dimostrazione (Sussman 1975).
  • NOAH: Questo pianificatore gerarchico di gruppi di robot usava la decomposizione del problema e poi analizzava e criticava i sotto problemi che potenzialmente interagivano, riordinando opportunamente la loro esecuzione già pianificata (Sacerdoti 1975).

Intelligenza artificiale: caratteristiche

La classica metodologia di AI ha due importanti caratteristiche (Boden 1995):

  • l’abilità di rappresentare strutture gerarchiche astratte;
  • l’uso di conoscenza “forte” che assume asserzioni rappresentative simboliche ed esplicite sul mondo.

L’influenza dell’AI sulla robotica consisteva nell’idea che conoscenza e rappresentazione della conoscenza sono centrali per l’intelligenza, e che la robotica non fa eccezione.

Forse questa fu una conseguenza del fatto che l’AI si rifaceva prevalentemente all’intelligenza di livello umano.

Considerare forme di vita più basse, ai ricercatori di AI, sembrava non interessante.
(Weiss op.cit, pp. 28-48)

Robotica

L’approccio alla robotica, detto behaviour-based, fu la reazione contro queste metodologia.

Brooks (1987a) sostenne che:

“Pianificare è solo un modo di evitare di immaginare cosa fare dopo.”

Anche se l’approccio AI inizialmente resistè, come spesso accade i paradigma sono duri a morire, la nozione di sensing ed acting all’interno di un ambiente, cominciò a divenire preminente nella ricerca di robotica collegata all’AI rispetto all’interesse precedente relativo alla rappresentazione della conoscenza e alla pianificazione.

Grossi miglioramenti nella meccanica per la robotica e nell’hardware dei sensori hanno reso poi possibile verificare le ipotesi della comunità behavior-based.

Intelligenza artificiale distribuita

L’inizio e la crescita dell’intelligenza artificiale distribuita (DAI) avvenne in parallelo con questi sviluppi.

All’inizio attraverso il sistema Pandemonium (Selfridge e Neisser 1960), si cominciò a radicare la nozione che molti processi competitivi o cooperativi (detta inizialmente a demoni e più tardi ad agenti) sono capaci di generare behaviour coerenti.

Ad esempio, alcuni sistemi di comprensioni del parlato, come Hersay II (di Erman et. al 1980), fecero riferimento a questi agenti asincroni e indipendenti come fonti di conoscenza, che comunicavano tra loro attraverso una struttura dati globale detta blackboard.

Intelligenza artificiale distribuita

Minsky nel suo libro “La Società della Mente” (Minsky 1986) indicò i sistemi multiagenti come la base per ogni intelligenza, affermando che anche se ogni agente è molto semplice, attraverso l’interazione coordinata e concertata tra semplici agenti, può emergere una intelligenza estremamente complessa.

Behaviours individuali possono essere spesso visti come agenti indipendenti nella robotica behaviour-based, collegandoli così alla DAI.

Robotica

I robotici si sono, per necessità, generalmente più occupati di percezione ed azione di quanto non abbiano fatto le loro controparti che si sono occupate di intelligenza artificiale.

Per fare ricerca in robotica sono necessari i robot.

Quelli che lavorano solo con simulazioni spesso ignorano apparentemente questo punto ovvio. I robot possono essere complessi da costruire e difficili da manutenere.

Alcuni esempi dei primi robot

SHAKEY: Uno dei primi robot mobili, Shakey, fu costruito alla fine del 1960 allo Stanford Research Istitut (Nilsson 1969). Esso abitava un mondo artificiale, l’area di un ufficio con oggetti colorati e sagomati in modo speciale per aiutarlo a riconoscerli usando la visione. Shakey progettava un’azione, come quella di spingere l’oggetto riconosciuto da un luogo ad un altro, e poi eseguiva il piano.
Il sistema di pianificazione STRIPS, prima menzionato, fu sviluppato proprio per essere usato in questo sistema. Il robot fu fornito di due motori controllati indipendentemente ed aveva una telecamera e un optical range finder montato in cima.
La telecamera aveva inclinazione, fuoco e esposizione controllati da un motore. Dei sensori di contatto furono montati alla periferia del robot per la protezione.
Il pianificatore usava le informazioni immagazzinate all’interno di un modello simbolico del mondo per determinare quali azioni doveva intraprendere per raggiungere la meta entro un tempo determinato.
In questo sistema, la percezione forniva le informazioni per mantenere o cambiare le rappresentazioni del modello del mondo.

Ragionamento nei robot

Un robot che impiega un ragionamento deliberativo richiede una conoscenza relativamente completa sul mondo ed usa questa conoscenza per prevedere la conseguenza delle sue azioni, un’abilità che lo rende capace di ottimizzare la sua performance relativamente al suo modello del mondo.

Il ragionamento intenzionale spesso richiede assunzioni forti sul modello del mondo. In primo luogo che la conoscenza sulla quale è basato il ragionamento è consistente, affidabile e certa. Se le informazioni che il ragionatore usa sono imprecise o sono cambiate da quando sono state ottenute, il risultato del ragionamento può essere del tutto errato.

Ragionamento nei robot (segue)

In un mondo dinamico, dove gli oggetti possono muoversi arbitrariamente (per esempio in un campo di battaglia o un corridoio affollato), è potenzialmente pericoloso contare su informazioni vecchie che possono non essere più valide.
I modelli rappresentativi del mondo sono costruiti perciò generalmente sia sulla conoscenza precedente dell’ambiente sia sui dati derivanti dai sensori che sostengono la deliberazione.

Sistemi di ragionamento deliberativi

  • I sistemi di ragionamento deliberativi hanno spesso le seguenti caratteristiche comuni
  • Sono gerarchici nella struttura con una suddivisione chiaramente identificabile delle funzionalità, simile all’organizzazione di società commerciali o di comandi militare.
  • La comunicazione e il controllo avvengono in maniera prevedibile e predeterminata, andando su e giù lungo la gerarchia, con piccole, se ce ne sono, deviazioni.
  • I livelli più alti nella gerarchia offrono subgoals per i livelli subordinati più bassi.
  • La pianificazione dell’obiettivo, sia spaziale che temporale, cambia durante la discesa nella gerarchia. I requisiti di tempo sono via via più brevi e le considerazioni spaziali sono più locali ai livelli più bassi.
  • Confidano fortemente su modelli di rappresentazione simbolica del mondo.

Paradigma gerachico

Il controllo gerarchico va apparentemente bene per ambienti strutturati ed altamente prevedibili.
Molti sono gli inconvenienti associati al paradigma gerarchico tra cui:

  • una mancanza di sensibilità in ambienti non strutturati e incerti dovuta sia ai requisiti di modellazione del mondo sia alle limitate vie di comunicazione;
  • la difficoltà nell’ingegnerizzare sistemi completi con competenze incrementali. In questo caso, infatti, virtualmente l’intero sistema deve essere costruito prima di verificare che sia fattibile.

Sistemi reattivi

Il controllo reattivo è una tecnica per accoppiare strettamente percezione ed azione per produrre una risposta del robot al tempo giusto in maniera dinamica e in mondi non strutturati. Weiss (49-71) definisce:

  • Behaviour individuale: una coppia stimolo/risposta per una data situazione ambientale che è modulato dall’attenzione e determinato dall’intenzione.
  • Attenzione: dà priorità ai task e focalizza le risorse sensorie ed è determinata dal contesto ambientale corrente.
  • Intenzione: determina quale set di behaviours dovrebbe essere attivo sulla base dei goal e degli obiettivi interni dell’agente robotico.
  • Behaviour emergente: il behaviour globale del robot o dell’organismo come una conseguenza dell’interazione dei behaviours individuali attivi.
  • Behaviour riflessivo (alternativamente, behaviour puramente reattivo): behaviour che è generato da behaviours reattivi hardwired con rapporti stretti sensore-effettore, dove le informazioni sensoriali non sono persistenti e non vengono usati modelli del mondo di nessun tipo.

Metodologia behaviour-based

Molti aspetti chiave di questa metodologia behaviour-based includono (Brooks 1991b):

  • Situatedness: Il robot è un’entità situata e circondata dal mondo reale. Non opera su rappresentazioni astratte della realtà, ma piuttosto sulla realtà stessa.
  • Embodiment: Un robot ha una presenza fisica (un corpo). Questa realtà spaziale ha conseguenze nelle sue interazioni dinamiche col mondo che non può essere simulato fedelmente.
  • Emergence: L’intelligenza sorge dalle interazioni dell’agente robotico col suo ambiente. Non è una proprietà dell’agente o dell’ambiente presi isolatamente ma è piuttosto il risultato dell’interazione tra loro.

I materiali di supporto della lezione

R. Cordeschi, La scoperta dell'artificiale, 1998, Dunod.

V. Somenzi e R. Cordeschi, a cura di, La filosofia degli automi. Origini dell'intelligenza artificiale. Bollati Boringhieri, Torino, 1994.

V. Braitenberg , I veicoli pensanti, Garzanti, 1984.

M. Minsky, La società della mente, Adelphi, Milano, 1989

rasoio-occam.doc

  • Contenuti protetti da Creative Commons
  • Feed RSS
  • Condividi su FriendFeed
  • Condividi su Facebook
  • Segnala su Twitter
  • Condividi su LinkedIn
Progetto "Campus Virtuale" dell'Università degli Studi di Napoli Federico II, realizzato con il cofinanziamento dell'Unione europea. Asse V - Società dell'informazione - Obiettivo Operativo 5.1 e-Government ed e-Inclusion

Fatal error: Call to undefined function federicaDebug() in /usr/local/apache/htdocs/html/footer.php on line 93