Tra la fine dell’800 e la prima metà del ‘900 si iniziarono a studiare macchine che fossero dotate di capacità di autoregolazione e autocontrollo paragonabili a quelle proprie degli organismi viventi.
Immagine del cane fototropico di Hammond reperebili al sito Lumen.
Immagini della tartaruga di Grey Walt reperebile al sito Extremenxt
Facciamo una breve rassegna degli sviluppi storici più importanti in tre aree:
Norbert Wiener, alla fine degli anni ‘40, è accreditato come il padre della cibernetica: un matrimonio tra la teoria del controllo, la scienza dell’informazione, e la biologia, tendente a spiegare i principi comuni del controllo e della comunicazione negli animali e nelle macchine, (Wiener 1948), Ashby (1952).
Wiener favorì questa idea di un organismo visto come una macchina ed usò la matematica, sviluppata per i sistemi di controllo a contro-reazione, per esprimere comportamenti naturali.
Venne così introdotta la nozione di situatedness, ovvero, un forte accoppiamento a due vie tra un organismo ed il suo ambiente.
Nel 1953, W. Grey Walter applicò questi principi alla progettazione di un robot chiamato Machina Speculatrix che fu successivamente costruito con il nome di tartaruga di Grey Walter.
Alcuni dei principi presenti nel suo progetto includono:
3. l’attrazione (tropismo positivo): Il sistema è spinto a muoversi verso alcuni oggetti presenti nell’ambiente. Nel caso della tartaruga, questa è una luce di intensità moderata.
4. l’avversione (tropismo negativo): Il sistema si allontana da certi stimoli negativi, per esempio evitando ostacoli e pendii.
5. il discernimento: Il sistema ha l’abilità di distinguere tra comportamento produttivo ed improduttivo, adattandosi alla situazione corrente.
La tartaruga esibiva il seguente behaviour:
I behaviours sono gerarchizzati dal basso verso l’alto come segue:
La tartaruga si comporta sempre secondo il behaviour applicabile in priorità più alta, per esempio sceglie di evitare ostacoli rispetto a muoversi verso una luce.
Durante la seconda guerra mondiale dirà Norbert Wiener (1894-1964), “il prestigio dell’aviazione tedesca e la posizione difensiva dell’Inghilterra indirizzavano l’attenzione di molti scienziati al potenziamento dell’artiglieria antiarea” un problema era la cooordinazione tra radar-calcolatore-puntatore, nel quale l’informazione sull’obiettivo mobile, captata dal radar ed elaborata dal calcolatore, retroagisse sul sistema di puntamento.
Il sistema è aperto allo scambio di informazione con l’ambiente esterno, cosicché il suo comportamento è regolato dal continuo confronto tra lo stato in cui esso si trova e quello fissato come parametro di riferimento, in modo che il sistema non si allontani mai troppo da quest’ultimo. Esso è cioè in grado di autoregolarsi o autogovernarsi. La nozione di macchina, che è all’origine di questi sistemi, non sembra più incompatibile con la nozione di “scopo”, e “il secolo XX appare a Wiener come il secolo delle macchine dotate di autocontrollo, come il secolo XIX fu l’età della macchina a vapore o il XVIII l’età dell’orologio“.
Anche il sistema nervoso può allora essere visto sotto una luce nuova: non come un semplice congegno stimolo-risposta, secondo una delle visioni prevalenti nella ricerca neurofisiologica precedente a Wiener, ma come un sistema in cui le risposte (muscolari) retroagiscono continuamente rispetto agli stimoli (sensoriali), risultando così sempre modificate e meglio adattate al raggiungimento di uno scopo.
Agli occhi di Wiener ingegneria e biologia sembrano ruotare entrambe attorno a un nucleo comune di problemi centrato sullo studio dei processi di trasmissione e di controllo dell’informazione, problemi che meritano un’analisi unificata in una nuova disciplina.
È il 1943 quando Wiener firma con Rosenblueth e Bigelow un sintetico articolo per la rivista “Philosophy of science” dal titolo “Comportamento, scopo e teleologia” (Behavior, purpose, and teleology)* che sarà poi considerato il manifesto di questa nuova disciplina.
Lo stesso Wiener l’avrebbe battezzata Cibernetica.
*trad. it. in Somenzi V. e Cordeschi R., a cura di, La filosofia degli automi. Origini dell’intelligenza artificiale. Bollati Boringhieri, Torino, 1994
Dalla Cibernetica wieneriana possiamo dire che si sono sviluppate diverse linee di ricerca.
Lo studio, attraverso modelli matematici e algoritmici di diversa complessità, delle reti neurali, originato dall’articolo, pubblicato sempre nel 1943 negli Stati Uniti, dallo psichiatra Warren McCulloch (1898-1968) e dall’allora giovane logico Walter Pitts (1923-1969).
Il modello di McCulloch e Pitts ha dato origine a molti altri modelli del sistema nervoso e dei singoli neuroni, attraverso successive rielaborazioni (ricordiamo qui i contributi originali di Eduardo Caianiello).
Lo studio degli automi che riproducevano diverse caratteristiche di esseri viventi, come la capacità di muoversi coerentemente in ambienti reali o di apprendere per semplici forme di riflesso condizionato.
Vedi le “tartarughe” elettroniche costruite in Inghilterra negli anni cinquanta dallo psichiatra Walter Grey Walter (1910-1977) o i veicoli pensanti (1984) di Valentino Braitenberg (1926- ) .
Valentino Braitenberg riprese il modello di Grey Walter tre decadi dopo la sua presentazione (Braitenberg 1984). Partendo dal punto di vista dello psicologo, egli estese i principi del comportamento dei circuiti analogici ad una serie di gedanken experiments che portarono al progetto di una serie di veicoli.
Questi sistemi usano connessioni inibitorie ed eccitatorie, accoppiando direttamente o in maniera incrociata i sensori ai motori.
Anche in questo caso, behaviour apparentemente complessi emergono da trasformazioni senso-motorie relativamente semplici.
Braitenberg creò molti veicoli, incluso alcuni che immaginava potessero esibire codardia, aggressione ed amore.
Come con la tartaruga di Grey Walter, questi sistemi non sono flessibili, sono macchine personalizzate e non riprogrammabili. Nondimeno, la variabilità del loro comportamento è coinvolgente.
In figura sono riportate tre delle molte possibili connessioni tra sensori luminosi e motori per veicoli con quattro ruote. Nel caso A, il veicolo ha un solo motore connesso su entrambe le ruote posteriori si muove quindi andando sempre avanti a meno che una ruota non slitti ne provocando piccole deviazioni. Quindi qui solo il terreno può modificare la traiettoria. Nel caso B il veicolo ha due motori e due fotosensori per cui la direzione muta a seconda di quale sensore risulta più vicino alla luce provocando una sorta di fuga dalla luce. Nel terzo caso C essendo i fotosensori collegati in maniera inversa a prima il veicolo è attirato dalla luce. Braitenberg in questo caso parla di aggressione.
Altro esempio: Stesso cablaggio come per Veicolo 2 ma ora con collegamenti inibitori. I veicoli rallentano in presenza di una fonte di illuminazione forte e vanno veloce in presenza di luce debole. In entrambi i casi, il veicolo si avvicina e si ferma vicino alla fonte di illuminazione (uno di faccia alla luce ed uno con le spalle alla fonte di illuminazione). Braitenberg dice che il veicolo sulla sinistra “ama” la fonte di illuminazione, poiché resta là indefinitamente, mentre il veicolo sulla destra esplora il mondo, amando di essere vicino al suo attrattore, ma sempre in cerca di qualche cosa altro.
Questo approccio dominò la ricerca robotica per i successivi trenta anni durante i quali la ricerca di AI sviluppò una forte dipendenza dall’uso della rappresentazione della conoscenza e dai metodi di ragionamento deliberativi per la pianificazione robotica.
L’organizzazione gerarchica della pianificazione era una delle correnti principali:
“un piano è un qualunque processo gerarchico nell’organismo che può controllare l’ordine nel quale è compiuta una sequenza di operazioni”. (Miller, Galanter, e Pribram 1960 p.l6).
Alcuni degli esempi di pianificazione tradizionale in AI includono:
La classica metodologia di AI ha due importanti caratteristiche (Boden 1995):
L’influenza dell’AI sulla robotica consisteva nell’idea che conoscenza e rappresentazione della conoscenza sono centrali per l’intelligenza, e che la robotica non fa eccezione.
Forse questa fu una conseguenza del fatto che l’AI si rifaceva prevalentemente all’intelligenza di livello umano.
Considerare forme di vita più basse, ai ricercatori di AI, sembrava non interessante.
(Weiss op.cit, pp. 28-48)
L’approccio alla robotica, detto behaviour-based, fu la reazione contro queste metodologia.
Brooks (1987a) sostenne che:
“Pianificare è solo un modo di evitare di immaginare cosa fare dopo.”
Anche se l’approccio AI inizialmente resistè, come spesso accade i paradigma sono duri a morire, la nozione di sensing ed acting all’interno di un ambiente, cominciò a divenire preminente nella ricerca di robotica collegata all’AI rispetto all’interesse precedente relativo alla rappresentazione della conoscenza e alla pianificazione.
Grossi miglioramenti nella meccanica per la robotica e nell’hardware dei sensori hanno reso poi possibile verificare le ipotesi della comunità behavior-based.
L’inizio e la crescita dell’intelligenza artificiale distribuita (DAI) avvenne in parallelo con questi sviluppi.
All’inizio attraverso il sistema Pandemonium (Selfridge e Neisser 1960), si cominciò a radicare la nozione che molti processi competitivi o cooperativi (detta inizialmente a demoni e più tardi ad agenti) sono capaci di generare behaviour coerenti.
Ad esempio, alcuni sistemi di comprensioni del parlato, come Hersay II (di Erman et. al 1980), fecero riferimento a questi agenti asincroni e indipendenti come fonti di conoscenza, che comunicavano tra loro attraverso una struttura dati globale detta blackboard.
Minsky nel suo libro “La Società della Mente” (Minsky 1986) indicò i sistemi multiagenti come la base per ogni intelligenza, affermando che anche se ogni agente è molto semplice, attraverso l’interazione coordinata e concertata tra semplici agenti, può emergere una intelligenza estremamente complessa.
Behaviours individuali possono essere spesso visti come agenti indipendenti nella robotica behaviour-based, collegandoli così alla DAI.
I robotici si sono, per necessità, generalmente più occupati di percezione ed azione di quanto non abbiano fatto le loro controparti che si sono occupate di intelligenza artificiale.
Per fare ricerca in robotica sono necessari i robot.
Quelli che lavorano solo con simulazioni spesso ignorano apparentemente questo punto ovvio. I robot possono essere complessi da costruire e difficili da manutenere.
SHAKEY: Uno dei primi robot mobili, Shakey, fu costruito alla fine del 1960 allo Stanford Research Istitut (Nilsson 1969). Esso abitava un mondo artificiale, l’area di un ufficio con oggetti colorati e sagomati in modo speciale per aiutarlo a riconoscerli usando la visione. Shakey progettava un’azione, come quella di spingere l’oggetto riconosciuto da un luogo ad un altro, e poi eseguiva il piano.
Il sistema di pianificazione STRIPS, prima menzionato, fu sviluppato proprio per essere usato in questo sistema. Il robot fu fornito di due motori controllati indipendentemente ed aveva una telecamera e un optical range finder montato in cima.
La telecamera aveva inclinazione, fuoco e esposizione controllati da un motore. Dei sensori di contatto furono montati alla periferia del robot per la protezione.
Il pianificatore usava le informazioni immagazzinate all’interno di un modello simbolico del mondo per determinare quali azioni doveva intraprendere per raggiungere la meta entro un tempo determinato.
In questo sistema, la percezione forniva le informazioni per mantenere o cambiare le rappresentazioni del modello del mondo.
Un robot che impiega un ragionamento deliberativo richiede una conoscenza relativamente completa sul mondo ed usa questa conoscenza per prevedere la conseguenza delle sue azioni, un’abilità che lo rende capace di ottimizzare la sua performance relativamente al suo modello del mondo.
Il ragionamento intenzionale spesso richiede assunzioni forti sul modello del mondo. In primo luogo che la conoscenza sulla quale è basato il ragionamento è consistente, affidabile e certa. Se le informazioni che il ragionatore usa sono imprecise o sono cambiate da quando sono state ottenute, il risultato del ragionamento può essere del tutto errato.
In un mondo dinamico, dove gli oggetti possono muoversi arbitrariamente (per esempio in un campo di battaglia o un corridoio affollato), è potenzialmente pericoloso contare su informazioni vecchie che possono non essere più valide.
I modelli rappresentativi del mondo sono costruiti perciò generalmente sia sulla conoscenza precedente dell’ambiente sia sui dati derivanti dai sensori che sostengono la deliberazione.
Il controllo gerarchico va apparentemente bene per ambienti strutturati ed altamente prevedibili.
Molti sono gli inconvenienti associati al paradigma gerarchico tra cui:
Il controllo reattivo è una tecnica per accoppiare strettamente percezione ed azione per produrre una risposta del robot al tempo giusto in maniera dinamica e in mondi non strutturati. Weiss (49-71) definisce:
Molti aspetti chiave di questa metodologia behaviour-based includono (Brooks 1991b):
1. Introduzione
4. Esempi di applicazione del paradigma gerarchico
11. Schema Theory
13. Architetture Reattive a Sussunzione
14. Architetture a Campi di Potenziale
15. Architetture a Campi di Potenziale e Sussunzione
16. Progettazione di un sistema Reattivo - 1
17. Progettazione di un sistema Reattivo - 2
18. Progettazione di un sistema Reattivo - 3
R. Cordeschi, La scoperta dell'artificiale, 1998, Dunod.
V. Somenzi e R. Cordeschi, a cura di, La filosofia degli automi. Origini dell'intelligenza artificiale. Bollati Boringhieri, Torino, 1994.
V. Braitenberg , I veicoli pensanti, Garzanti, 1984.
M. Minsky, La società della mente, Adelphi, Milano, 1989