DOCUMENTS

elab.immagini
galileo
realtà virtuale
vrml
biomeccanica
esapodi
formula1
intelligenza







Papers
meccanica
sistemi
robotica


LA FABBRICA DEL PENSIERO
L'ingegneria della mente

[Indietro]-[Avanti]

Le macchine

Fin dai tempi degli antichi greci l'umanita' ha ambito a trovare un modo per derivare nuove verita' dalle verita' gia' note. I teoremi della Geometria consentono, per esempio, di scoprire certe proprieta' delle figure geometriche date certe altre loro proprieta' (se un triangolo ha tre lati uguali allora ha anche tre angoli uguali). Il sillogismo di Aristotele consente di derivare nuove proposizioni da certe premesse. Il fascino sembra essere quello delle verita' che la mente non riesce ad afferrare sull'istante benche' in qualche modo sia possibile conoscerle. E allora e' utile sviluppare sistemi di derivazione delle verita', che aiutino in questo compito. L'intera disciplina matematica dei sistemi formali discende da quel presupposto.

Le macchine, inventate per automatizzare tutti i compiti che e' possibile automatizzare, possono aiutare anche in questo caso; senonche' non fu banale capire che una macchina poteva servire a produrre verita', oltre che forza o moto. La macchina, in effetti, non fa altro che trasformare una verita' in un'altra, esattamente come i teoremi della Geometria, ma le macchine del secolo scorso agivano su entita' come il vapore e i circuiti idraulici, la cui relazione con il pensiero non e' cosi' ovvia. Cio' nonostante trasformavano un tipo di energia (per esempio, termica) in un altro tipo di energia (per esempio, cinetica) basandosi sulle equazioni matematiche della Fisica.

Man mano che la struttura e la funzione delle macchine divennero piu' complesse, si fece largo l'intuizione che ci fosse di piu'. Una macchina agisce anche su qualcosa che non e' immediatamente visibile, ma che e' insito in ogni processo: l'informazione. Qualunque azione compiuta da una macchina puo' sempre essere espressa anche sotto forma di informazione consumata e prodotta.

Un passo decisivo fu poi quello di capire che l'informazione poteva essere utilizzata per rappresentare e manipolare simboli. Visto che questo e' proprio, in ultima analisi, il compito della Logica dei sistemi formali, la macchina costituisce di fatto il suo complemento ideale.

All'inizio la scuola dei sistemi formali si era proposta solamente di automatizzare il piu' possibile la dimostrazione dei teoremi, cosi' come per le operazioni aritmetiche esistono delle procedure automatiche di calcolo (la moltiplicazione a piu' righe, la divisione con i resti, il riporto della sottrazione, la regola del nove e cosi' via). Ma quella scuola fini' per sfociare nel progetto di costruire la macchina pensante.

I sistemi formali

La disciplina dei sistemi formali ebbe origine dall'ambizione di ricostruire l'Aritmetica su basi logiche. Frege e Russell usarono la "proposizione" come l'unita' elementare di verita', che puo' essere unicamente vera o falsa ("vero" e "falso" sono i due possibili "valori di verita'" di una proposizione). Per esempio, "L'autore di questo libro si chiama Piero Scaruffi" e' una proposizione vera, mentre "Piero Scaruffi e' ricco" e' una proposizione falsa.

Una volta definiti degli assiomi (ovvero delle proposizioni assunte come vere a priori) e delle regole di inferenza (ovvero delle norme su come derivare altre proposizioni vere dalle proposizioni gia' vere), si meccanizzava l'intero processo di ricerca e dimostrazione della verita'. Per esempio, tramite la piu' ovvia delle regole di inferenza e' possibile dedurre dalle due proposizioni precedenti (e dai loro valori di verita') che una terza proposizione, "L'autore di questo libro e' ricco", e' falsa.

Usando i predicati, che, rispetto alle proposizioni, consentono di distinguere fra concetti ("uomo") e oggetti ("Vincenzo"), divenne possibile ragionare in maniera formale su tutti i fatti dell'universo, e non solo su quelli della Geometria. Il fatto che Vincenzo e' un uomo viene espresso dicendo che il predicato uomo(Vincenzo) e' vero.

In questo modo risulta anche piu' immediato cosa siano l'estensione e l'intensione: l'estensione di un concetto e' l'insieme di tutti gli oggetti che lo rendono vero (l'estensione di "uomo" e' l'insieme dvi tutti gli X come "Vincenzo" che rendono vera l'espressione "uomo(X)"), mentre l'intensione e' cio' che comunemente chiamiamo "senso" (per esempio, il senso di essere un uomo).

Il prezzo da pagare e' la rinuncia del linguaggio ordinario: invece di scrivere "Vincenzo e' un uomo", dobbiamo scrivere "uomo (Vincenzo)"; e non possiamo certamente scrivere "Vincenzo, per inciso, e' un uomo" o "Vincenzo, credimi, e' un uomo" o "Vincenzo, perbacco, e' un uomo".

La sintassi della logica dei predicati e' proprio cio' che mancava per poter automatizzare il ragionamento: quella sintassi fornisce lo strumento deterministico per trasformare qualsiasi frase del nostro linguaggio ordinario in una proposizione formale. Le regole di inferenza della logica dei predicati forniscono poi anche lo strumento per derivare nuove proposizioni dalle proposizioni esistenti (e cioe' per compiere "deduzioni"). Quelle nuove proposizioni formali andranno poi nuovamente interpretate per essere trasformate in frasi del linguaggio ordinario ed essere comprensibili da tutti. Il prezzo da pagare e' pertanto quello di dover ragionare in un linguaggio formale che non e' quello a cui siamo abituati.

Questo fatto e' stato giustificato a posteriori da diversi pensatori ipotizzando che la nostra mente impieghi effettivamente la logica matematica, ovvero che le leggi della logica dei predicati siano davvero le leggi del pensiero.

Al tempo stesso molti hanno pensato che la logica matematica debba costituire le fondamenta per tutto il pensiero umano. In particolare Russell lancio' il programma "logistico" di rifondare tutte le scienze sul calcolo logico. In effetti i sistemi formali si prestano a costruire e manipolare astrazioni di qualsiasi natura.

Un sistema formale e' pero' in se' soltanto un ammasso di proposizioni, predicati e formule varie, che, guarda caso, puo' essere sottoposto a certe regole di trasformazione e dar luogo a simpatici risultati. Ma come "interpretare" questi risultati?

Tarski spiego' come un sistema formale possa "significare" qualcosa, ovvero come possa far riferimento al mondo reale: dato un insieme di formule (una "teoria"), l'"interpretazione" di quella teoria e' una funzione che assegna a ogni sua formula un riferimento nel mondo reale. Ogni "interpretazione" che renda vere tutte le formule della teoria e' un "modello" di tale teoria. E questo e' quanto si fa con tutte le scienze moderne: alle formule di una teoria scientifica si associano le corrispondenti leggi della natura e l'universo degli oggetti di quella scienza diventa un modello della teoria.

Le ambizioni del programma di formalizzazione del pensiero umano hanno pero' incontrato diversi ostacoli. Alcuni sono stati superati, come i paradossi di Russell: quello del barbiere (se un barbiere fa la barba a tutti i barbieri che non si fanno la barba da se', quel barbiere si fa la barba da se'?) e quello del bugiardo (se dico che "questa frase e' falsa", questa frase e' vera o falsa?), in entrambi i quali bisogna sostanzialmente evitare che una proposizione faccia riferimento a una proprieta' di se stessa.

Altri non sono stati superati, come il teorema di Godel: ogni sistema formale (contenente la teoria dei numeri) contiene sempre almeno un'affermazione che non puo' essere dimostrata ne' vera ne' falsa in base al sistema stesso (un'affermazione "indecidibile"); un tale sistema deve infatti necessariamente contenere una proposizione del tipo "io non sono dimostrabile", che non e' dimostrabile facendo ricorso soltanto a quel sistema. Per esempio, la logica dei predicati del primo ordine non e' decidibile (la logica delle proposizioni e' ovviamente decidibile con le comuni tavole di verita').

Godel dimostro', in pratica, che la logica ha un limite come strumento per conoscere l'universo: in nessun sistema e' possibile definire il concetto di verita' (ovvero definire tutte le proposizioni che sono vere in tale sistema).

I programmi

I sistemi formali forniscono un metodo meccanico per stabilire se una sequenza di formule e' una dimostrazione (le regole di inferenza), ma non un metodo per stabilire se esiste la dimostrazione di un teorema (uno potrebbe continuare ad applicare regole di inferenza all'infinito senza mai pervenire a una soluzione).

Il "problema della decidibilita'" e' proprio quello di trovare un metodo per determinare se una formula qualsiasi e' un teorema (e' dimostrabile) in un dato sistema formale.

Questo problema e' legato a quello della computabilita' tramite "algoritmo", detta anche "ricorsivita'" (una funzione ricorsiva e' in pratica una funzione che puo' essere programmata): un predicato e' decidibile (ovvero esiste un algoritmo che puo' decidere in un tempo finito se quel predicato applicato a un certo valore della sua variabile e' vero o falso) se e solo se la corrispondente funzione e' ricorsiva.

Il problema della decisione puo' essere allora riformulato in questi termini: derivare procedure puramente meccaniche per trovare soluzioni a tutti i problemi matematici. Di fatto i problemi che soddisfano il problema della decisione sono risolubili da una macchina, gli altri non lo sono. C'e' pero' un piccolo inconveniente in tutto cio': il problema della decisione e' impossibile, in quanto il teorema di Godel sancisce che non e' possibile dimostrare se un programma generico giungera' a una conclusione.

Vale egualmente la pena di esaminare come debba essere fatto il metodo, la procedura, l'algoritmo che lo soddisferebbe. Fu in tal modo, infatti, che Turing pervenne a una delle invenzioni fondamentali del nostro secolo.

Una "macchina di Turing" e' una macchina in grado di compiere le operazioni che servono per operare con la logica matematica: leggere i simboli di un'espressione, elaborare i simboli, scrivere nuovi simboli, passare ad esaminare nuovi simboli. A seconda del simbolo che legge e dello stato in cui si trova, la macchina di Turing decide se spostarsi avanti, indietro, scrivere un simbolo, cambiare stato o fermarsi. La macchina di Turing e' un sistema formale automatico: un sistema per manipolare automaticamente un alfabeto di simboli secondo un insieme finito di regole. In parole piu' semplici, sa fare esattamente cio' che fa uno studente del liceo quando deve risolvere un problema di algebra. Macchine di Turing ne possono esistere tante, infinite, a seconda di come esattamente svolgono le funzioni simboliche di cui sopra.

La macchina di Turing "universale" e' qualcosa di piu': e' una macchina di Turing particolare, che funziona come le altre ma che e' anche in grado di simulare tutte le possibili macchine di Turing. E' una macchina che puo' cioe' essere trasformata in questa o quella macchina di Turing, in quanto contiene al suo interno una sequenza di simboli che descrive la specifica macchina di Turing da simulare. Insomma prima le si dice quale macchina di Turing simulare (come agire) e poi la si fa agire come farebbe quella macchina di Turing. In pratica per ogni procedura computazionale (per ogni problema che si debba risolvere) la macchina di Turing universale e' in grado di simulare la macchina che esegue quella procedura (che risolve quel problema).

La macchina di Turing universale e' pertanto in grado di calcolare qualsiasi funzione computabile: se fosse dimostrato che i processi della mente sono solamente quelli computazionali, allora la macchina di Turing universale sarebbe "equivalente" alla mente. Questa tentazione e' venuta a diversi Filosofi.

Il funzionalismo nacque di fatto quanto Putnam suggeri' di identificare lo stato psicologico di una persona ("credere che", "desiderare che", etc) con uno stato della macchina di Turing. Lo stato psicologico causerebbe allora altri stati psicologici in accordo con le operazioni della macchina. Putnam non credeva che lo stato mentale fosse dovuto unicamente allo stato fisico del cervello e ambiva a trasformare in scienza la psicologia dei desideri e delle convinzioni. Usando il paradigma della macchina di Turing, ovvero del computer, Putnam poteva ipotizzare che desiderio e convinzione corrispondessero a formule depositate in due registri della macchina e che appositi algoritmi usassero quelle formule come input per produrre come output delle azioni. I concetti sarebbero divenuti in tal modo delle entita' che possono essere descritte e manipolate scientificamente, esattamente come la massa o la quantita' di moto. (In seguito, forse anche per aver meglio compreso cos`e` un computer, Putnam cambiera' idea: capita spesso che i Filosofi cambino idea dopo aver capito di cosa stanno parlando).

Turing, definendo una macchina astratta che e' in grado di calcolare una funzione generica (e che esprime di fatto soltanto un modo diverso di rappresentare un sistema formale, con tanto di assiomi e di regole di inferenza), progetto' di fatto il computer. Semplificando un po', il computer e' la macchina che puo' meglio soddisfare il problema della decisione. Il computer ha una proprieta' importante, che gli consente di risolvere "qualsiasi" problema: divide l'universo delle informazioni in istruzioni e dati (una separazione che Von Neumann trasferi' nell'architettura dei computer). La stessa sequenza di istruzioni (lo stesso "programma") puo' operare su dati diversi, e risolve pertanto non un problema solo ma un'intera classe di problemi.

Secondo la tesi di Church tutto cio' che e' computabile in natura deve essere anche Turing-computabile (computabile dalla macchina di Turing). A differenza di qualsiasi altra macchina, pertanto, il computer (ovvero la macchina universale di Turing) puo' essere programmato per calcolare qualsiasi funzione. Fu questa proprieta' a far pensare che il computer potesse essere programmato anche, in particolare, per esibire un comportamento intelligente.

Gli automi

L'intuizione fondamentale di Turing non fu tanto, o solo, quella di come si potesse costruire una macchina in grado di dimostrare i teoremi di un sistema formale, ma quella di concepire un sistema formale come un sistema di simboli e le dimostrazioni dei suoi teoremi come processi di manipolazione di simboli.

Anche qui c'e' pero' un prezzo da pagare. Cosi' come la Logica riusciva ad automatizzare il calcolo della verita', ma obbligando ad utilizzare un linguaggio ad hoc che non era quello ordinario, cosi' Turing e Von Neumann automatizzano la dimostrazione di teoremi ma obbligano ad utilizzare un linguaggio ancora piu' ostico e innaturale: quello della macchina. Proprio in quanto cosi' difficile da ricondurre ai nostri standard di comunicazione quotidiani, quel linguaggio sarebbe stato usato per definire linguaggi piu' semplici e naturali, i "linguaggi di programmazione", che peraltro conservano la sintassi rigida tipica delle cose meccaniche. Ancora una volta il linguaggio ordinario utilizzato quotidianamente da miliardi di esseri umani doveva essere ripudiato per affrontare il tema della verita'. Esiste una chiara analogia fra i linguaggi di programmazione dei computer e i linguaggi della logica matematica: entrambi sono linguaggi artificiali inventati per poter rappresentare il mondo ed eseguire ragionamenti su tale rappresentazione. McCarthy, inventando il primo linguaggio di programmazione che consentisse di elaborare simboli (il LISP), trasformo' l'analogia in un'equivalenza.

Ad ampliare gli orizzonti della logica matematica, applicando i sistemi formali al di fuori del suo contesto originario, fu Post. Post invento' un altro metodo per rappresentare un sistema formale: le regole di produzione. Una regola di produzione stabilisce semplicemente che, se si sono verificate certe precondizioni, allora e' lecito assumere anche certe conseguenze (per esempio, "se Vincenzo e' il marito di Giusi, allora Giusi e' la moglie di Vincenzo"). Le regole di produzione costituiscono uno strumento molto potente e intuitivo per dimostrare teoremi, ma, piu' ancora, le regole di produzione possono costruire qualunque stringa di caratteri in qualunque sistema di simboli. Non sono, cioe', limitate ai sistemi formali. Per l'esattezza un sistema di regole di produzione e' computazionalmente equivalente a una macchina di Turing.

Chomsky estese l'idea dei sistemi formali alla linguistica, postulando che la grammatica del linguaggio possa essere espressa tramite il formalismo logico. Le regole secondo sui si combinano verbi, aggettivi, articoli e cosi' via possono essere viste delle regole di produzione che costruiscono simboli corretti a partire da altri simboli corretti. All'inizio del processo ci sono soltanto le parole del vocabolario, ma applicando regola dopo regola si possono ottenere anche frasi complicate come questa che avete appena finito di leggere. Grazie a questa innovazione la linguistica si trasformo' da una classificazione di eventi linguistici, da una disciplina essenzialmente tassonomica, in una scienza.

Tanto i sistemi di produzione di Post quanto le grammatiche generative di Chomsky sono esempi di un processo piu' generale di rappresentazione dei fenomeni naturali. Per esempio, gli ingranaggi di un orologio non fanno altro che eseguire una complessa sequenza di istruzioni per calcolare il tempo, ma l'orologio in realta' non segna il tempo: la meridiana, che rappresenta il tempo in maniera continua, puo' dirsi che "segna" il tempo, mentre l'orologio, che avanza di secondo in secondo, lo conta soltanto. L'orologio e' un "automa" che scimmiotta la Natura grazie a un "algoritmo". Che l'algoritmo si presti particolarmente bene a descrivere la Natura alla nostra mente e' dimostrato dal fatto che persino quando lo strumento riproduce esattamente il corso della Natura, per esempio il termometro, trasformiamo quell'informazione in qualcosa di meno fedele (leggiamo la temperatura a gradi discreti, anche se la scala del termometro e' continua), ovvero costruiamo mentalmente uno strumento virtuale che non "segna" ma "conta".

In questo modo l'attenzione si ando' spostando verso gli "automi finiti" che erano in grado di eseguire algoritmi (Kolmogoroff fu probabilmente il primo ad affermare che gli uomini stessi fossero automi finiti). La parola "automa" smise pertanto di rappresentare un congegno antropomorfo, e divenne il nome di qualsiasi meccanismo, concreto o astratto, in grado di eseguire un algoritmo.

Da questo punto di vista l'intuizione piu' importante di Church fu quella di determinare un modo per confrontare due funzioni. In generale un concetto puo' essere classificato secondo la sua intensione o secondo la sua estensione: l'unicorno ha estensione vuota e pertanto e' sottoinsieme di qualsiasi concetto che non sia vuoto, mentre ha un'intensione ben precisa che ne fa un sottoinsieme di "animale", ma non di "pianta". Per le funzioni vale qualcosa di analogo. Una funzione puo' essere definita dal punto di vista intensionale sulla base della procedura computazionale che ne calcola il valore oppure dal punto di vista estensionale sulla base dell'insieme di coppie input/output. Due funzioni possono essere definite uguali sulla base della definizione estensionale (esibiscono lo stesso comportamento) oppure sulla base della definizione intensionale. Church invento' il primo modo formale di confrontare definizioni intensionali: l'astrazione "lambda". L'astrazione lambda fornisce delle regole per trasformare qualsiasi funzione in una forma canonica: una volta espresse in quella forma canonica, e' possibile confrontarle.

E' grazie all'astrazione lambda che il computer puo' trattare simboli, e' grazie all'astrazione lambda che McCarthy pote' sviluppare un linguaggio di programmazione simbolica (il LISP), e' grazie all'astrazione lambda che il computer pote' diventare un elaboratore simbolico.

I sistemi auto-organizzantesi

In parallelo al programma logistico, il cui obiettivo mascherato era di fatto quello di costruire la macchina in grado di compiere automaticamente dimostrazioni matematiche, si sviluppo' un programma meccanicistico che aveva come obiettivo dichiarato quello di studiare aspetti del comportamento delle macchine e di applicarli allo studio degli organismi viventi. L'idea scaturiva dall'osservazione che fenomeni come l'informazione (Shannon), la retroazione o "feedback" (Ashby) e la comunicazione (Wiener) emergono tanto nello studio della Natura quanto nello studio dell'intelligenza.

Il feedback e' il fenomeno per cui l'output di un organismo viene restituito in input all'organismo stesso. E' il feedback che consente l'"omeostasi", il fenomeno per cui un organismo (tanto il corpo umano quanto una qualsiasi macchina) tende a compensare le variazioni nell'ambiente esterno per mantenere una propria stabilita' interna; e' al feedback, in altre parole, che si deve la capacita' di adattamento di un organismo all'ambiente. Il feedback, per inciso, implica una forma di intenzionalita': cio' che l'organismo fa a fronte del feedback riflette inevitabilmente lo stato dell'ambiente, e pertanto "si riferisce" a qualcosa che si trova nell'ambiente. Sia gli organismi biologici sia quelli meccanici hanno in comune qualche meccanismo di feedback che e' vitale per il loro funzionamento (e, in ultima analisi, per la loro sopravvivenza). Si puo' affermare (principio di Pfluger) che ogni processo avente un fine tende ad utilizzare il feedback per raggiungere quell'obiettivo.

Ashby riformula infine questi concetti all'interno di un panorama piu' ampio, quello di un sistema auto-organizzantesi: un insieme (presumibilmente grande) di unita' elementari (presumibilmente molto simili fra di loro) dotato di una struttura (presumibilmente molto complessa) capace di evolversi autonomamente e di adattarsi all'ambiente. I sistemi auto-organizzantesi potrebbero essere cosi' diffusi da costituire una proprieta' generale dell'universo; e, naturalmente, il loro processo di evoluzione e adattamento sarebbe quello di feedback.

Le macchine intelligenti

Turing propose un celebre test per verificare se una macchina sia diventata intelligente: il test di Turing considera "intelligente" una macchina in grado di rispondere a qualsiasi domanda nello stesso modo in cui risponderebbe un essere umano; insomma quando non sia piu' possibile distinguerne il comportamento da quello di un essere umano.

Searle ha attaccato l'idea che sia possibile costruire macchine intelligenti sulla base del loro comportamento con il suo paradosso della "sala cinese": se venisse dotato di regole appropriate che stabiliscono quali simboli scrivere a fronte di certi altri simboli, un trascodificatore che non sa il cinese saprebbe rispondere in cinese a domande in cinese, e, secondo il criterio di Turing, saprebbe allora il cinese. sapendo il cinese.

La sua manipolazione di simboli non puo' essere considerata "intenzionale" poiche' non fa riferimento agli oggetti menzionati nelle sue risposte (anzi non ha neppure idea di quali siano questi oggetti). Analogamente il calcolatore simbolico non sa cosa sta facendo e pertanto non esibisce vera intenzionalita'.

Il paradosso di Searle presenta comunque un paio di scorrettezze logiche. Primo, Searle assume che il trascodificatore non capisca il cinese, mentre e' cio' che dovrebbe dimostrare: se gli chiedesse in cinese "capisci il cinese"?, il trascodificatore risponderebbe di si'. In realta' Searle non ha modo di dimostrare che l'uomo non capisce il cinese, a meno di postularlo fin dall'inizio. Secondo, il trascodificatore potra' anche non essere intelligente, ma il trascodificatore "piu'" le regole di trascodifica (ovvero "la stanza" nel suo insieme) lo sono.

Non solo: quell'insieme di regole, che Searle tratta come qualcosa di poco edificante, se davvero gli consentono di rispondere in cinese a qualsiasi domanda in cinese, costituiscono in realta' proprio cio' che viene comunemente chiamato "capire il cinese"; e cio' che Searle fa manipolando simboli in quel modo, ammesso che in quel modo possa davvero rispondere in cinese a qualsiasi domanda in cinese, e' proprio capire il cinese; in altre parole, se Searle imparasse tutte le regole che servono per poter rispondere in cinese a qualsiasi domanda in cinese, avrebbe semplicemente imparato il cinese.

Il nocciolo dell'obiezione di Searle e' l'intenzionalita': un sistema che si limiti ad elaborare simboli, ma senza capire cio' che sta capendo, non puo' essere considerato equivalente a un essere pensante, anche se la sua performance lo fosse. Come ha scritto Dretske: un computer non sa "cio'" che sta facendo, pertanto "quello" non e' cio' che sta facendo. Persino quando un computer calcola che due piu' due fa quattro, non ha calcolato che due piu' due fa quattro, perche' non sa di averlo fatto: ha soltanto manipolato dei simboli che, per noi umani ma solo per noi umani, significano che due piu' due fa quattro.

A tale proposito Jackson ha proposto un altro paradosso: supponiamo che un brillante neurofisiologo cieco sveli nei minimi dettagli come il cervello riesce a percepire i colori; benche' sappia tutto sui processi del cervello che presiedono a quel fenomeno, il neurofisiologo non sapra' mai cosa si provi a vedere un colore.

D'altro canto quando noi investighiamo il computer, benche' ne capiamo il funzionamento nei minimi dettagli, non possiamo certo sapere cosa si provi ad essere un computer. Per cui l'inferiorita' del computer nei confronti della mente umana non e' diversa da quella della mente umana nei confronti del computer.

In ogni caso sarebbe difficile definire quando un computer ha coscienza di cio' che e', di cio' che sta facendo. E forse dalla sua prospettiva un computer, osservando noi, giungerebbe alla conclusione che noi non siamo coscienti e non sappiamo cio' che stiamo facendo, e non siamo pertanto davvero intelligenti.

Un'altra linea di pensiero ancora e' quella "olistica": riallacciandosi a Husserl, Dreyfus sostiene che la comprensione non puo' mai prescindere dal contesto in cui avviene e tale contesto socio-storico-culturale non e' possibile rendere disponibile a una macchina. In altre parole: c'e' dell'informazione nell'ambiente, fuori dalla mente, che e' cruciale per l'intelligenza. Simon ha pero' fatto notare che la formica reagisce all'ambiente senza avere alcuna rappresentazione interna dell'ambiente; eppure riesce a compiere operazioni molto complesse.

Il secondo Putnam e' scettico circa la possibilita' che la mente umana possa comprendere se stessa, o, in termini computazionali, che un automa possa spiegare il proprio funzionamento. Putnam e' ancora del parere che lo stesso stato mentale possa essere realizzato tramite due stati fisici diversi (per esempio, due sistemi che non hanno la stessa struttura fisica), ma aggiunge che lo stesso stato mentale puo' essere realizzato tramite due stati "computazionali" (funzionali) diversi (per esempio, due computer possono trovarsi nello stesso stato "mentale" benche' abbiano due programmi diversi), e pertanto gli stati mentali non possono essere programmi. Di piu': ogni organismo risulta essere la realizzazione di tutti i possibili automi finiti. Non e' che non esista un'organizzazione funzionale: ne esistono troppe! Se ne deve concludere che nessun essere mentale e' in grado di scoprire cosa sia un essere mentale. Come in Meccanica Quantistica esiste il principio di indeterminatezza di Heisenberg, e in Matematica esiste il teorema di incompletezza di Godel, cosi' in Filosofia andrebbe formulato un principio di "inconoscibilita'".

Un'altra linea di pensiero, quella di Lucas e di Penrose, riprende il teorema di Godel, facendo notare come esso stabilisca un chiaro primato della mente umana sulla macchina: alcune operazioni matematiche non sono computabili, eppure la mente umana riesce a trattarle, o quantomeno a dimostrare che non sono computabili. Ergo la mente umana puo' calcolare cose che la macchina non puo' calcolare. Sono possibili diverse risposte: 1. una macchina potrebbe compiere quella dimostrazione relativamente a ogni altra macchina, e pertanto essere equivalente alla mente umana (come ha scritto Putnam, il computer potrebbe agevolmente dimostrare la proposizione "se la teoria e' coerente, allora la proposizione che esista almeno una proposizione non decidibile e' vera", e questo e' esattamente tutto cio' che la nostra mente riesce a fare); 2. il teorema di Godel dimostra al massimo che l'uomo non potra' mai costruire una macchina che pensa, non che tale macchina sia impossibile; 3. dalla dimostrazione di Penrose si puo' anche dedurre che una macchina non puo' verificare la validita' delle prove matematiche, il che' e' contraddetto dalla nostra esperienza.

Penrose sostiene che noi umani possiamo renderci conto che questo teorema e' vero, anche se nessuno strumento matematico (compreso il computer) potrebbe mai dimostrare che e' vero (appunto perche' e' matematicamente indecidibile). Noi possiamo intuire che quel teorema e' vero, anche se non lo possiamo dimostrare matematicamente; ma il computer, che usa soltanto la Matematica, non riuscirebbe mai a dimostrare che e' vero e pertanto a "rendersi conto" che e' vero.

Se applicassimo il teorema di Godel a un sistema matematico che descriva non soltanto l'aritmetica, ma il mio intero modo di pensare, quel teorema "indecidibile" sarebbe vero (perche' Godel lo ha dimostrato), pur non essendo dimostrabile (per definizione) da nessun computer. Morale: io so di pensare (qualunque cosa dica in proposito il signor Godel), ma nessun sistema matematico (compreso il computer piu' potente dell'universo) potrebbe esprimere completamente il modo in cui penso.

Sloman ha risposto a Penrose facendo notare che possono esistere diversi "modelli" di un sistema matematico (cioe' diverse sue interpretazioni) e in alcuni di questi modelli (quelli cosiddetti "non-standard") la formula di Godel e' falsa, semplicemente falsa. Per l'esattezza Sloman fa notare che una delle condizioni che Godel pone alla sua dimostrazione e' che il sistema matematico non contenga contraddizioni, ovvero che sia "coerente"; ma cio' capita soltanto se al sistema matematico viene aggiunto il teorema indecidibile, assumendo che esso sia vero o falso. Se si assume che sia vero, allora Penrose ha ragione. Se si assume che sia falso, allora siamo nel caso dei modelli non standard e Penrose ha torto. Se non assumiamo ne' che sia vero ne' che sia falso, allora non abbiamo un sistema coerente e pertanto Penrose non puo' dire nulla.

Il teorema di Godel, per come Godel lo strutturo' (usando insiemi infiniti di numeri e di formule), da' l'illusione di dimostrare una verita' che in realta' non viene dimostrata, non puo' essere dimostrata e deve essere decisa arbitrariamente.

Puo' darsi che il computer non possa mai diventare intelligente, ma, se esistesse, un computer intelligente cadrebbe probabilmente nello stesso equivoco in cui e' caduto Penrose e penserebbe esattamente cio' che Penrose ha pensato a proposito del teorema di Godel. Il teorema di Godel non dimostra l'impossibilita' di costruire una macchina intelligente: dimostra una limitazione intrinseca di qualsiasi forma di intelligenza, compresa quella di Penrose!

Si tenga infine presente che tanto il cervello quanto il computer hanno una durata finita nel tempo, e pertanto ogni dimostrazione che presupponga un numero molto elevato di passi, di termini o altro, non ha molto senso pratico; e in ogni caso chi ha probabilita' di durare piu' a lungo e' il computer.

I sistemi esperti

Una rivoluzione di pensiero fondamentale e' quella dovuta a Craik. Secondo Craik il cervello umano, visto come un tipo particolare di macchina, e' in grado di costruire modelli interni (o rappresentazioni interne) del mondo, elaborando i quali (le quali) produce azioni. Il tradizionale automa cartesiano, capace soltanto di rispondere con delle azioni meccaniche a certi stimoli esterni, diventa un automa "craikiano", che trasforma invece gli stimoli esterni in una rappresentazione interna, elabora tale rappresentazione e poi produce l'azione. Mentre l'automa cartesiano non ha alcun bisogno di "conoscere" e di "ragionare", l'automa craikiano ha conoscenza e compie inferenze; essendo l'inferenza una manipolazione di simboli, la conoscenza dev'essere una rappresentazione di simboli. L'intelligenza deve consistere, in qualche modo, nell'elaborare la conoscenza.

Le idee di Craik sono all'origine del programma dei sistemi esperti, che sono spesso, mutatis mutandis, dei semplici sistemi di produzione. Spinte agli estremi, esse indicano infatti nella conoscenza la vera chiave dell'intelligenza: un sistema dotato di conoscenza in un certo dominio e' in grado di risolvere i problemi che si verificano in quel dominio anche utilizzando mezzi logici molto limitati, mentre un sistema privo di conoscenza del dominio, pur se dotato di mezzi logici strepitosi, non e' praticamente in grado di risolvere neppure i problemi piu' banali, anzi spesso sono proprio quelli piu' "banali" a richiedere maggior conoscenze (come ben sa qualunque straniero, ignaro dell'esistenza di obliteratrici e tabacchini, che abbia tentato di pagare un biglietto su un autobus italiano).

L'ambizione di Newell e Simon, di costruire il "risolutore di problemi generale" reso possibile dagli sviluppi della Logica, non e' realistica. E' invece realistico costruire risolutori di problemi di dominio, ovvero sistemi "esperti" in un certo dominio. Proprio il dominio studiato da Newell e Simon si presta per esemplificare la differenza: un dimostratore generale di teoremi e' l'equivalente di un matematico che conosca benissimo le regole di inferenza e le applichi meccanicamente, una dopo l'altra, in tutte le combinazioni possibili; i Matematici piu' bravi, invece, sono proprio quelli che, forti di intuito ed esperienza, riescono a trovare quelle regole che porteranno rapidamente a una soluzione. Il dimostratore generale di teoremi, siccome prova tutte le strade possibili, trovera' certamente la soluzione (se esiste), mentre il piu' bravo dei Matematici potrebbe fallire; ma in generale il dimostratore generale impieghera' dei secoli per risolvere i teoremi, anche quelli che uno studente del primo anno liquiderebbe in pochi minuti. La conoscenza del dominio (o l'esperienza, o il buon senso, o comunque la si voglia chiamare) e' ancor piu' cruciale quando si tratta di risolvere problemi in campi come la Medicina, la progettazione, la consulenza.

La disciplina dei sistemi esperti puo' allora essere definita come lo studio formale del comportamento umano in ogni dominio: dato un dominio, dato un agente di quel dominio, e data una situazione in quel dominio, determinare l'azione dell'agente a fronte di tale situazione. Per realizzare questo programma in un dato dominio, e' necessario ricavare l'insieme di leggi che governano il comportamento di un agente in quel dominio, la cosiddetta "conoscenza del dominio". Non a caso la disciplina dei sistemi esperti viene talvolta chiama "ingegneria della conoscenza", lasciando intuire l'ambizione di costruire una scienza esatta di come si acquisisca, rappresenti ed elabori conoscenza.

Una macchina dotata di conoscenza e' intrinsecamente piu' potente di una macchina dotata soltanto di informazione: nel secondo caso la macchina sa "come" deve risolvere il problema, mentre nel primo sa "cosa" serve per risolvere il problema; il vantaggio del secondo caso e' che la macchina, una volta dotata di quella conoscenza, e' in grado di risolvere non soltanto uno specifico problema, ma un'intera classe di problemi: tutti quelli che sono risolvibili con quella conoscenza, e quindi anche problemi che non erano stati previsti originariamente.

Secondo McCarthy la disciplina dei sistemi esperti deve soddisfare tre requisiti fondamentali: (1) adeguatezza ontologica, ovvero consentire di descrivere i fatti rilevanti; (2) adeguatezza epistemologica, ovvero consentire di esprimere la conoscenza rilevante; (3) adeguatezza euristica, ovvero consentire di compiere le inferenze rilevanti. Cosi' l'Intelligenza Artificiale puo' essere definita come la disciplina che studia cosa puo' essere rappresentato in modo formale (epistemologia) e come cio' possa essere elaborato da una macchina (euristica). McCarthy, in particolare, ritiene che il linguaggio della Logica soddisfi questi requisiti, ovvero che consenta di esprimere tutto cio' che conosciamo e che consenta di eseguire calcoli su cio' che viene cosi' espresso. In effetti la conoscenza cosi' "rappresentata" costituisce di fatto un sistema formale di assiomi, a partire dai quali e' possibile dimostrare dei teoremi. Ogni insieme di conoscenza diventa pertanto una teoria.

McCarthy postula pero' che la forma di questa teoria sia indipendente dai teoremi che essa deve essere in grado di dimostrare e dal contesto (per esempio, gli indexicali "qui" e "adesso" non sono permessi). L'obiezione di Green a questo programma e' che la conoscenza non puo' essere indipendente dal contesto, ovvero che esiste una profonda interdipendenza fra ontologia e funzione: modi logicamente equivalenti di rappresentare il mondo possono non essere funzionalmente equivalenti. La rappresentazione del mondo dipende da quale problema si deve risolvere. Per esempio, a seconda dell'ordine in cui sono elencati gli assiomi di una teoria un teorema puo' essere dimostrabile o meno all'interno di tale teoria.

La Conoscenza, fra l'altro, non e' meno elusiva dell'Intelligenza. Anche per la conoscenza esistono diverse definizioni, tutte piu' o meno vaghe.

Newell definisce "conoscenza" cio' che puo' essere utilizzato da un agente per determinare il proprio comportamento in base al principio di razionalita'.

Dretske dice che un agente A "conosce" che p se avere l'informazione che p lo porta a "credere" che p. Il concetto di informazione a cui si ispira Dretske e' quello di Shannon. Dretske mette pertanto in relazione "informazione", "conoscenza" e "credenza" (o convinzione, comunque si voglia tradurre "belief").

Secondo Barwise, invece, per il quale alcune credenze contengono informazione per l'agente che le crede, mentre altre no, e' meglio parlare di credenze che "contengono" informazione piuttosto che di credenze che sono causate dall'informazione. Pertanto: A conosce che p se A ha una credenza che p e quella credenza che contiene informazione su p. Io ho conoscenza che Vincenzo e' sposato con Giusi perche' credo che Vincenzo sia sposato con Giusi e li ho visti sposarsi: la mia credenza contiene l'informazione che Vincenzo si e' sposato e costituisce pertanto conoscenza. La differenza fra conoscere e credere e' cruciale: se io non avessi l'informazione che Vincenzo e Giusi si sono sposati, continuerei ovviamente a credere che lo sono come l'ho sempre creduto, ma non ne avrei la conoscenza.

La cognizione come esperienza

Riprendendo un po' della fenomenologia di Heidegger e un po' della biologia cognitiva di Maturana, Winograd nega che l'intelligenza sia dovuta a processi come quelli dei sistemi di produzione. I sistemi "intelligenti" non possono permettersi il lusso di riflettere quando devono prendere decisioni nella vita quotidiana: agiscono, e basta. Se e quando l'azione non da' il risultato atteso, allora e solo allora ha senso riflettere sulla situazione, decomporla nei suoi costituenti elementari, e tentare di derivare l'azione da un ragionamento; ma questo e' un atteggiamento piu' tipico del novizio che non dell'esperto.

Ryle distingueva fra conoscenza "di come" e conoscenza "che": so che Cinzia e' la moglie di Dario; so come scrivere libri. I sistemi di produzione tentano di assimilare il secondo tipo di conoscenza al primo: tramite un insieme di "so che" generano il "so come". Dreyfus obietta che soltanto i novizi si comportano cosi'. L'esperto e' invece colui che ha sintetizzato la sua esperienza in un comportamento inconscio che reagisce istantaneamente a una situazione nel suo complesso; l'esperto sa "come" fare, e quel "come fare" dell'esperto non e' decomponibile in tanti "so che".

Smolensky distingue fra un "interprete di regole" che agisce a livello conscio e un "elaboratore intuitivo" che agisce a livello inconscio: per esempio, un giocatore di scacchi alle prime armi usa principalmente le regole che gli sono state insegnate, ma con l'esperienza costruisce un processore intuitivo che gli consente invece di "vedere" subito quale mossa compiere.

Sulla base di esperimenti neurologici e psicologici, Neisser sostiene che esistono due sistemi percettivi distinti, uno per la percezione "diretta" (dedicato a determinare la posizione e la forma degli oggetti circostanti in funzione del movimento che essi consentono di compiere) e uno per il riconoscimento (che classifica gli oggetti sulla base di una loro rappresentazione mentale). Il primo funziona come una risonanza a delle caratteristiche che sono invarianti; il secondo accumula invece evidenza finche' individua la categoria corretta.

I sistemi di produzione pongono l'enfasi sulla "conoscenza", non sull'"esperienza": e' l'esperienza, invece, ad essere un fenomeno biologico ben definibile, mentre "conoscenza" e' un termine vago e probabilmente improprio per definire uno dei prodotti dell'esperienza.

La cognizione come razionalita'

Parafrasando Claparede, la razionalita' e' l'insieme dei modi in cui l'organismo si adatta al proprio ambiente.

Cio' che comunemente intendiamo con "istinto" non e' spesso il bagaglio genetico ereditario, ma piu' semplicemente, da un punto di vista comportamentale, la capacita' di reagire istantaneamente a una situazione. E' il rapporto fra percezione e azione che definisce quando il comportamento viene considerato "istintivo": quando la percezione sembra dar luogo direttamente a un'azione, si tende a usare l'espressione "agire d'istinto".

Il buon senso, per esempio, non provoca necessariamente un'azione d'istinto. Spesso siamo combattuti fra cio' che ci consiglia il buon senso e cio' che desideriamo fare. Il buon senso mi consigliava di non prendere in giro i Filosofi, la cui sportivita' e' proverbiale, ma la tentazione di scrivere un'introduzione sarcastica era troppo forte: non solo ho compiuto l'azione opposta a quella che il buon senso mi consigliava, ma per decidere di compierla ho dovuto meditare a lungo.

In altri casi, invece, la percezione di una situazione da' subito luogo a un'azione.

Selz, come Peirce, e' un inmportante precursore dell'Intelligenza Artificiale. A lui si deve infatti l'intuizione dello "schema": nel mondo reale risolvere un problema significa riconoscere che quel problema e' descritto da uno schema e colmare le lacune di tale schema. Dato il problema, il sistema cognitivo cerca nella memoria a lungo termine uno schema che lo rappresenti; trovato lo schema giusto, l'informazione in eccesso contiene la soluzione. Per Selz uno schema e', pertanto, una rete di concetti che organizza le esperienze passate. La rappresentazione dell'esperienza presente e' uno schema parzialmente completo. Dal confronto fra le due rappresentazioni si puo' "inferire" qualcosa relativamente alla situazione presente. Per esempio, un mio schema puo' essere relativo a come viene l'idea di scrivere un libro: "1. l'argomento e' suggestivo; 2. io sono al corrente delle ricerche in questo campo; 3. manca un libro che riassuma i risultati piu' recenti di queste ricerche; 4. c'e' un editore interessato a un libro che tratti di questo argomento; 5. io scrivo il libro"; qualche settimana fa mi sono reso conto che 1. la musica classica degli ultimi anni ha prodotto delle opere straordinarie; 2. io sono un appassionato di musica moderna; 3. non esiste un libro che tratti la musica degli ultimi cinquant'anni; 5. io sono interessato a scrivere il libro; se ne puo' concludere che sto cercando l'editore interessato a pubblicare un simile libro.

Grazie al carattere "anticipatorio" dello schema (nel senso che permette di "prevedere" come la situazione si debba completare), "risolvere" un problema equivale a "comprenderlo"; e "comprendere" significa, in ultima analisi, ricondurre la situazione presente a una situazione gia' nota del passato.

Lo schema, come ha osservato Neisser, puo' anche spiegare come l'organismo raccolga nell'ambiente l'informazione disponibile. Fra percezione e azione esiste una relazione diretta molto esplicita.

Lo schema rende conto del comportamento adattativo pur conservando la preminenza dei processi cognitivi.

Un tipo particolare di schema e' il "frame" di Minsky, tramite il quale e' possibile rappresentare una situazione stereotipato. Minsky fa notare che il cervello utilizza scorciatoie che esulano dalla Logica Matematica, e che anzi spesso ne violano gli stessi principi fondamentali; ma cio' non toglie che il cervello riesca a trovare soluzioni perfettamente funzionali in tempi brevissimi a problemi di grande complessita', come quello di riconoscere il mio amico Vincenzo che sta passeggiando in mezzo alla folla, indossa un vestito nuovo e si e' tagliato la barba.

L'idea di Minsky e' che in ogni situazione la memoria reperisca un "pacchetto" di informazioni tale da consentirle di "comprendere" quella situazione. "Comprendere" significa pertanto "riconoscere".

Minsky porta l'esempio di una persona che entri per la prima volta in una stanza: dopo qualche secondo di incertezza incomincera' a compiere con disinvoltura le azioni che e' normale compiere in una stanza (entrare, uscire, guardare dalla finestra e cosi' via). Tutto cio' che deve fare e' reperire il pacchetto appropriato per la situazione "stanza": in quel pacchetto e' "scritto" cosa capita e come ci si comporta in una stanza. In altre parole la memoria conterrebbe un reticicolo di "pacchetti", o "frame", ciascuno relativo a una delle categorie note. Ogni percezione seleziona un frame (classifica la situazione corrente in una categoria) che deve poi essere "adattato" a quella percezione; e cio' equivale a "interpretare" la situazione e decidere quale azione compiere. Il "ragionamento" consiste pertanto nell'adattare un frame a una situazione: la conoscenza impone coerenza all'esperienza.

A conferma dell'idea di Minsky, Bartlett aveva fatto notare quanto piu' facile sia riconoscere un oggetto nel suo contesto tipico che in un contesto anomalo (per esempio, un pallone in un negozio di articoli sportivi piuttosto che un pallone in un negozio di frutta): nel primo caso la situazione e' stereotipica, ovvero e' codificata in un pacchetto ed e' facile da comprendere.

Il primo vantaggio dell'approccio di Minsky e' computazionale: il frame consente di ragionare sulla situazione senza prendere in considerazione l'intero scibile dell' universo, ma soltanto le informazioni rilevanti alla situazione, e senza impiegare complesse tecniche di Logica Matematica, bensi' soltanto banali operazioni di confronto fra pacchetti; e questo spiegherebbe la rapidita' della mente umana.

Il modello di Minsky e' poi anche biologicamente plausibile poiche' non separa fenomeni cognitivi che non sembrano infatti essere separati: siccome classificare una percezione in una categoria significa riconoscere quella percezione ed equivale a comprendere quella situazione, e siccome confrontare su una percezione con il prototipo di quella categoria significa ragionare su quella percezione, i fenomeni di "percepire", "riconoscere", "comprendere" e "ragionare" risultano essere aspetti diversi dello stesso fenomeno. Anche il fatto che la capacita' inferenziale di cui e' dotato il sistema sia distribuita all'interno del sistema stesso (in tutti i suoi frame), piuttosto che essere concentrata in un "motore" logico, e' piu' coerente con i dati neurofisiologici.

Un frame e' la descrizione di una categoria tramite un suo membro prototipo (ovvero le sue proprieta', comprese le relazioni con altri prototipi) e tramite un elenco di azioni che possono essere compiute per i membri di quella categoria.

Ogni altro membro della categoria puo' essere descritto da un frame che ricopia le proprieta' del prototipo e ne personalizza alcune. Un prototipo puo' essere visto come un insieme di proprieta' stereotipiche, o "di default", che sono vere salvo controindicazioni: per esempio, Vincenzo ha la barba, a meno che' non se la sia tagliata. I valori stereotipici esprimono indirettamente una mancanza di informazione: mentre nella Logica classica la conoscenza del sistema e' irreversibile e l'ignoranza del sistema da' luogo a una falsita', nel mondo dei frame la conoscenza del sistema puo' aumentare (un valore incognito puo' essere specificato in qualsiasi momento) e l'ignoranza del sistema viene ovviata con valori stereotipici.

Un frame fornisce di fatto rappresentazioni multiple dell'oggetto che rappresenta: quella tassonomica (espressa sostanzialmente tramite una congiunzione di regole di classificazione), quella descrittiva (espressa tramite la congiunzione di proposizioni sui valori di default), quella funzionale (espressa tramite una proposizione sui predicati ammessibili).

Data una situazione non basta, in generale, un solo frame e deve peranto esistere un criterio per determinare l'insieme "migliore" di frame relativo a una data situazione. Secondo Wilensky vengono impiegati diversi criteri: di coerenza (non devono esservi contraddizioni fra la situazione e i prototipi dei vari frame), concrezione (ciascun frame deve essere il piu' "particolare" possibile di quelli che sono coerenti con la situazione), completezza (i frame nel loro complesso devono rendere conto dell'intera situazione) e minimalita' (devono essere il piu' piccolo insieme possibile che soddisfa i criteri precedenti).

In realta' Hayes ha dimostrato che il linguaggio dei frame (escluso il ragionamento stereotipico) puo' essere ridotto a una variante notazionale della logica dei predicati. Un frame e' infatti una mini-logica (una microteoria) concepita su misura per una situazione e, relativamente a quella situazione, consente pertanto di compiere inferenze in maniera molto rapida. Il ragionamento stereotipico dei default contraddice invece la monotonicita' della Logica classica.

Lo script di Schank e' una variante "sociale" del frame di Minsky. Anche lo script rappresenta conoscenza stereotipica relativa a situazioni, ma la specializza in due tipi di conoscenza: una sequenza di azioni e un insieme di ruoli. Una volta riconosciuta la situazione, ovvero il relativo script, tramite la sequenza di azioni e' possibile "prevedere" cosa succedera', e tramite i ruoli e' possibile determinare gli oggetti presenti nella situazione e la loro funzione. Il ragionamento e' pertanto "anticipatorio", ovvero consiste nell'"aspettarsi che succedano certe cose", nel mettersi in attesa di certi eventi. Ancora una volta il primo vantaggio di questo modello e' computazionale: sapendo cosa sta per succedere, sara' ovviamente piu' facile comprendere cosa succedera'.

Uno script puo', per esempio, specificare la sequenza di azioni per pubblicare un libro (avere l'idea, sottoporre l'idea, ottenere un contratto, scrivere, consegnare il manoscritto, correggere le bozze, stampare, distribuire, vendere, leggere) e l'insieme di ruoli relativi (autore, editore, distributore, libraio, lettore). Nel momento in cui entro in uno script di questo tipo sapro' ad ogni passo come mi aspetta dopo, e sara' pertanto facile capire cosa sta succedendo. La prima volta che scrissi un libro fu certamente piu' difficile capire cosa succedeva intorno a me e perche' dovevo fare cio' che mi si chiedeva di fare.

Rispetto a Minsky, Schank spiega anche come abbiano origine gli script, ovvero come funzioni la "memoria degli eventi": ogni evento "compreso" contribuisce a riorganizzare le astrazioni relative agli eventi passati, in modo che gli script da esse prodotte siano sempre piu' efficaci nel riconoscere quel tipo di evento. Questa forma di apprendimento graduale procede per "somiglianze": cio' che viene ricordato sono le somiglianze fra eventi diversi, le quali, opportunamente astratte, formano gli script e altre strutture di memoria piu' complesse. Viene creata una nuova struttura di memoria quando nessuna delle strutture esistenti e' capace di interpretare l'evento.

La memoria del modello di Schank e' pertanto sintattica (episodica) e dinamica (adattativa). La memoria ha due funzioni: una passiva, che e' quella di ricordare, e una attiva, che e' quella di prevedere. La comprensione del mondo e la sua categorizzazione procedono simultaneamente.

Tanto il frame di Minsky quanto lo script di Schank sono compatibili con l'ipotesi dei moduli di Fodor.

La cognizione come manipolazione di modelli

Non tutte le teorie rappresentazionali assumono che la rappresentazione mentale del mondo avvenga tramite un linguaggio. Sia Johnson-Laird sia Kosslyn, ispirandosi alle idee di Craik, suppongono che la mente rappresenti e manipoli (rispettivamente) "modelli" del mondo oppure immagini mentali. Entrambi ritengono che normalmente la mente risolva i problemi senza far uso di inferenze, e pertanto una rappresentazione linguistica sarebbe soltanto d'impaccio.

Secondo Johnson-Larid, un'inferenza e' valida se, quando le sue premesse sono vere, le sue conclusioni non possono essere false; pertanto per costruire un'inferenza valida occorre immaginare la situazione descritta dalle premesse, ovvero costruire un modello mentale di tale situazione sulla base del significato delle premesse (e non soltanto della loro forma sintattica); poi formulare una conclusione che sia vera in quella situazione; e infine verificare se esiste un modello mentale della stessa situazione in cui quella conclusione e' falsa. Se non esiste, la conclusione e' valida. In generale, quando la situazione e' complessa, e' difficile costruire tutti i modelli possibili, e pertanto la conclusione non sara' "certamente" valida, ma "forse" valida. E questo riflette il comportamento della gente comune.

I modelli che la mente formula sono delle utili semplificazioni della realta'. Che quelle semplificazioni possano rendere conto di un comportamento razionale, benche' trascurino molta dell'informazione presente nel mondo, e' dimostrato da alcuni esempi ben noti di modelli. Si pensi al caso dei numeri: l'umanita' usa comunemente i numeri senza bisogno di conoscere tutte le proprieta' dei numeri, senza avere in testa un modello formale dell'intera aritmetica (che, tra l'altro, non sarebbe in ogni caso possibile per il teorema di Godel).

Johnson-Laird studia in particolare l'inferenza deduttiva, quella su cui riposa la gloria della Logica Matematica; ma non tanto il fatto che la gente sappia compiere deduzioni, quanto il fatto che la gente le sbagli spesso (e diverse persone possono persino sbagliare in modo diverso). Se la mente avesse al suo interno una "logica mentale", come postulato un po' da tutti da Frege a Piaget, non si farebbero errori. In realta' e' facile dimostrare che le gente non usa la logica quando compie ragionamenti: a parte qualche matematico che soffre di deformazione professionale, quasi tutti siamo piu' bravi a risolvere un quiz espresso con una storia (per esempio, se un biglietto per il cinema costa diecimila lire e ne compro sei pagando con un biglietto da centomila, e' facile calcolare che mi aspetto quarantamila lire di resto) che non l'equivalente problema matematico espresso in formule (quanto fa 100.000-(10.000x6)?).

La gente costruisce modelli del mondo, e nel costruire quei modelli puo' dimenticare qualcosa che e' cruciale per spiegare la situazione. Da un lato il possedere dei modelli rende piu' rapida la soluzione dei problemi, dall'altro puo' indurre in errore.

Johnson-Laird prova che la mente non puo' avere una logica mentale (o perlomeno che nessuno sa spiegare ne' come quella logica mentale sorga nella mente ne' come sia realizzata ne' come possa sbagliare ne' perche' persone diverse sbagliano in modo diverso) e che invece un ragionamento basato sui modelli sarebbe coerente con il comportamento della gente.

In particolare Johnson-Laird risolve il paradosso dell'acquisizione delle capacita' inferenziali: come fanno i bambini ad imparare a ragionare se non sanno ancora ragionare? Soltanto ragionando e' possibile imparare gli elementi che servono per poter ragionare! Nella logica dei modelli mentali non servono regole di inferenze, e pertanto non c'e' bisogno di spiegare come queste vengano acquisite. I bambini ragionano costruendo modelli del mondo, e con il tempo imparano a costruire modelli sempre piu' complessi. E questo rende conto dello sviluppo cognitivo.

Estendendo un'intuizione di Paivio, secondo il quale devono esistere due tipi di rappresentazione diversi, uno verbale e uno visivo (in corrispondenza isomorfa con la percezione visiva), Johnson-Laird ipotizza che la mente utilizzi in realta' tre tipi di rappresentazione: "proposizioni" (che rappresentano il mondo attraverso sequenze di simboli), modelli mentali (che sono strutturalmente analoghi al mondo) e "immagini" (che sono i correlati percettivi dei modelli).

I modelli mentali consentono di rappresentare le situazioni e di ragionare senza far uso della logica; ma per costruire interpretazioni alternative e' necessario far ricorso alle proposizioni. Il significato di una frase non puo' prescindere da quello dell'intero discorso, e questo e' dato dal modello mentale che ha costruito. Una frase non e' altro che una procedura per costruire, modificare, estendere un modello mentale. il modello mentale di un discorso esibisce una struttura che corrisponde direttamente alla struttura del mondo descritto dal discorso.

Le immagini sono semplicemente un modo particolare di "guardare" ai modelli: rappresentano le caratteristiche percepibili dei corrispondenti oggetti del mondo reale.

Modelli, immagini e proposizioni sono funzionalmente e strutturalmente diversi: per esempio, una rappresentazione proposizionale ha una struttura sintattica arbitraria, mentre un modello rispecchia la struttura del mondo; i modelli e le immagini sono specifici (posso immaginare un triangolo, ma non il "triangolo" in generale), mentre le proposizioni possono essere universali; e cosi' via.

Le espressioni linguistiche vengono trasformate in rappresentazioni proposizionali, ovvero in espressioni del linguaggio mentale; la semantica del linguaggio mentale fa poi corrispondere rappresentazioni proposizionali a modelli mentali, ovvero le rappresentazioni proposizionali vengono interpretate rispetto a modelli mentali.

In questo schema Johnson-Laird riesce a spiegare anche le inferenze "implicite", che sono quelle compiute piu' o meno irrazionalmente e istantaneamente e sono forse la maggioranza. Per esempio, se sto male di stomaco dopo aver mangiato in un certo ristorante e' probabile che attribuiro' al cuoco di quel ristorante la responsabilita' del mio malore, e lo faro' nel momento stesso in cui comincio a stare male. E' possibile che esistano molte altre spiegazioni razionali che assolverebbero il cuoco, ma e' per me "istintivo" assumere che quella sia la spiegazione. Queste inferenze "implicite" fanno riferimento a un modello mentale unico, a differenza di quelle "esplicite", come i problemi di aritmetica, nelle quali occorre riflettere, ovvero costruire diversi modelli e integrarli fra di loro. Nella teoria di Johnson-Laird inferenze esplicite (ragionamento classico) e implicite (ragionamento del senso comune) trovano pertanto una naturale unificazione.

La cognizione come adattamento all'ambiente

I sistemi che sono capaci di un comportamento razionale in ambienti dinamici e imprevedibili, ovvero di calcolare le proprie azioni con risorse computazionali limitate, ovvero di complementare la propria conoscenza con l'informazione che e' disponibile nell'ambiente, vengono chiamati "agenti situati". Il compito piu' difficile per un agente situato e' quello di reagire al cambiamento, e di reagire in un modo che sia razionale (tempestivo ed appropriato), pena l'estinzione. Per compiere le operazioni piu' banali della vita quotidiana, un agente dovrebbe in effetti possedere una quantita' spaventosa di conoscenza e al tempo stesso riuscire a elaborare quella conoscenza in una frazione di secondo; questi due requisiti sono ovviamente conflittuali. L'unico modo di ovviare a tale inconveniente e' di conferire maggiore enfasi sull'interazione fra un agente e il suo ambiente, come hanno fatto prima Rosenschein e poi Brooks.

A differenza dei sistemi di produzione, gli agenti situati non sono dotati di conoscenza. La loro memoria non e' piu' il luogo delle rappresentazioni, ma e' semplicemente il luogo in cui viene generato il comportamento.

Brooks ha proposto una architettura "subsumzionale" (subsumption architecture) nella quale il comportamento dei sistemi cognitivi e' dettato prevalentemente dalla struttura dell'ambiente in cui tali sistemi agiscono. Cio' che viene rappresentato non e' il mondo, ma come operare nel mondo. La mente non ha bisogno di rappresentare un certo problema, ma soltanto di rappresentare come si risolve quel particolare problema.

Nell'architettura di Brooks non esiste un posto di comando centralizzato che coordini le attivita' del sistema cognitivo, ma esistono tanti centri decisionali che operano in parallelo, ciascuno adibito a svolgere un compito ben preciso. Il sistema non possiede pertanto la rappresentazione esplicita di cosa stia facendo: possiede diversi processi che operano in parallelo, ciascuno dei quali rappresenta soltanto il proprio, limitatissimo, obiettivo. Il sistema si decompone, cioe', in strati di comportamenti orientati ad eseguire dei compiti (ovvero ogni strato e' una rete di automi a stati finiti), e si compone in maniera incrementale attraverso una verifica con il mondo reale. Nella teoria rappresentazionale, invece, un sistema viene decomposto secondo le funzioni cognitive (memoria, ragionamento, apprendimento, etc).

Per esempio, una delle "Creature" (robot) costruite da Brooks esplora il mondo in cui vive: il primo strato e' costituito da tutti i comportamenti necessari per evitare ostacoli, il secondo strato e' costituito da tutti i comportamenti necessari per andare a visitare luoghi visibili. I due strati sono attivi contemporaneamente, e del tutto ignari l'uno dell'altro, ma la loro azione combinata risulta in un'attivita' di esplorazione "intelligente" da parte del robot.

Un organismo artificiale deve saper rispondere in tempi ragionevoli e nel modo appropriato a cambiamenti nel suo ambiente; deve sapersi adattare a cambiamenti delle proprieta' di quel suo ambiente; deve saper approfittare di circostanze favorevoli; deve avere uno scopo.

Brooks critica qualunque tentativo di costruire sistemi intelligenti che siano isolati dal mondo. Ha senso soltanto costruire sistemi che vivono nel mondo, che elaborano percezioni e compiono azioni. Per questi sistemi rappresentare il mondo costituisce addirittura un ostacolo alla sopravvivenza! L'unico modo di sopravvivere nel mondo e' quello di usare il mondo cosi' com'e', e non una sua rappresentazione. Nel mondo reale non esiste una chiara divisione fra percezione, ragionamento e azione.

Brooks si ispira all'ecologismo di Gibson, secondo il quale l'ambiente corretto per una teoria dell'azione non e' quello astratto degli oggetti e delle loro relazioni, ma quello reale delle forme e dei colori che il sistema percettivo ci propone. Anzi: percezione e azione non sono processi distinti. Gli organismi si muovono nel mondo usando l'informazione che e' presente nel mondo. Il sistema percettivo si e' adattato a quei cambiamenti che sono rilevanti ai fini dell'azione.

Cosi' un organismo che deve evitare un ostacolo non ha bisogno di rappresentare internamente la situazione del mondo con se stesso e quell'ostacolo per rendersi conto che si trova in rotta di collisione e per calcolare poi come cambiare traiettoria; puo' semplicemente calcolare che deve spostarsi sulla base della propria velocita', senza alcun bisogno di costruire un modello del mondo. Il modello del mondo e' dato dal mondo stesso. Per esempio, per afferrare un oggetto, l'organismo non ha bisogno di costruire un modello matematico del mondo e di calcolare la sequenza di azioni da compiere per spostare la mano in modo che alla fine la mano afferri l'oggetto; basta allungare la mano fino a quando entri in contatto con l'oggetto e poi lasciare che sia la mano a determinare come afferrare l'oggetto.

Quella che Brooks propone e' una rivoluzione tolemaica: invece di mettere la mente al centro dell'universo, la mente diventa uno dei tanti agenti immerso nell'ambiente, e l'ambiente diventa uno spazio di possibili azioni. L'ambiente non e' una struttura statica composta di oggetti e relazioni fra oggetti, ma una struttura dinamica che cambia man mano che l'organismo agisce/reagisce in essa; azione e percezione sono due facce della stessa medaglia. Al tempo stesso l'organismo non possiede un sistema centralizzato di controllo, la mente, ma un insieme di sistemi di controllo, ciascuno capace di svolgere autonomamente la propria funzione.

Per Brooks il comportamento "intelligente" puo' essere partizionato in un insieme di attivita' che vanno dal camminare al mangiare, ciascuna delle quali necessita di un proprio meccanismo di percezione e di controllo e puo' funzionare in parallelo e asincronamente con tutte le altre. Un organismo (o "creatura") puo' essere costruito in maniera incrementale aggiungendo gradualmente nuove attivita'. Nel mondo e' presente tutta l'informazione necessaria per svolgere un'attivita', e pertanto non e' necessario (e' anzi dannoso) conservare una rappresentazione del mondo. Il mondo e' una specie di memoria esterna dell'organismo, dalla quale l'organismo puo' reperire attraverso la percezione tutta l'informazione che gli serve. Ogni attivita' necessita soltanto di qualche informazione, fra tutta quella disponibile nel mondo, e la percezione e' in grado di reperire proprio quella e solo quella senza dover analizzare tutto il mondo.

La cognizione sarebbe pertanto una specie di cinematica razionale.

In un certo senso Brooks ha semplicemente fatto notare che tutti i sistemi intelligenti di cui siamo a conoscenza hanno un corpo! Grazie al corpo possono percepire il mondo e possono agire sul mondo in maniera diretta.

La cognizione come interazione con l'ambiente

Per Maturana e' la relazione con l'ambiente a determinare la configurazione del sistema cognitivo di un organismo. E' allora fondamentale il processo tramite il quale ogni organismo e' in grado di riorganizzare di continuo la propria struttura: l'"autopoiesi". L'adattamento, per esempio, consiste nel rigenerare la struttura dell'organismo in modo che il suo rapporto con l'ambiente rimanga costante. Un organismo e' pertanto una struttura in grado di rispondere all'ambiente, e lo stimolo e' la parte di ambiente che viene assimilata nella sua struttura.

Maturana pensa che il comportamento intelligente sia originato da processi estremamente semplici e per nulla intelligenti: la cellula vivente non e' nulla di speciale, ma molte cellule viventi a contatto diventano un sistema complesso per via dell'autopoiesi. Secondo Kuppers tutti i fenomeni della vita, come il metabolismo e l'ereditarieta', possono essere ricondotti all'interazione fra macromolecole biologiche, ovvero alle leggi della Fisica e della Chimica, e, in particolare, la cellula vivente ha avuto origine dall'applicazione iterativa delle stesse regole fondamentali che presiedono a tutti i fenomeni chimici e fisici. Maturana suppone che gli organismi multi-cellulari nascano quando due o piu' unita' autopoietiche (a cominciare da due o piu' cellule) entrano in una interazione che avviene piu' sovente delle interazioni di ciascuna con il resto dell'ambiente (quando cioe' si verifica un "accoppiamento strutturale"). E' in questo modo che elementi inerti diventano macromolecole, che le macromolecole diventano cellule organiche, e cosi' via fino agli organismi cellulari e poi agli esseri intelligenti. Tutto cio' che serve sono soltanto le leggi della Fisica e della Chimica e la legge dell'evoluzione di Darwin. Le strutture che vengono effettivamente costruite sono quelle che hanno senso nell'ambiente.

Nell'ottica di Maturana la cognizione e' un fenomeno puramente biologico: gli organismi non fanno alcun uso di strutture rappresentazionali, bensi' il loro comportamento "intelligente" e' dovuto unicamente al cambiamento continuo del sistema nervoso indotto dalla percezione. L'intelligenza e' azione. Il ricordo, per esempio, non e' qualcosa di astratto, ma semplicemente la capacita' di generare il comportamento che meglio si accoppia con una situazione ricorrente dell'ambiente.

Anche Prirogine ha spostato l'enfasi dai processi di organizzazione a quelli di auto-organizzazione, sottolineando come questi processi siano fondamentali per l'intero universo fisico. In questo scenario non e' piu' lo stato di equilibrio a determinare la dinamica del sistema, ma quegli stati stazionari che fungono da stati di equilibrio relativo, suscettibili di sempre ulteriore evoluzione nell'ambito di un disordine perenne. E' il disordine a causare l'auto-organizzazione spontanea. La vita sarebbe allora perfettamente inserita nello schema generale: in condizioni di non equilibrio la vita risulta essere quasi una conseguenza inevitabile delle leggi fisiche, tanto quanto il fatto che la Terra giri attorno al Sole. Mentre i processi reversibili della Fisica sono riconducibili alla termodinamica degli stati d'equilibrio, fenomeni altrettanto naturali come la costruzione di forme e la creazione di ordine necessitano pertanto di una termodinamica dei processi irreversibili lontani dagli stati di equilibrio. Processi come quello della vita non sarebbero possibili se non venissero sempre mantenuti lontano dallo stato d'equilibrio. La scienza tradizionale (quella dell'equilibrio, dei processi reversibili) ha per oggetto tutto cio' che e' morto. Una scienza dei sistemi "dissipativi" potrebbe invece rendere conto di tutto cio' che e' vivo.

Bibliografia:


 Ashby R. (1956): An introduction to cybernetics (Chapman & Hall)
 Barwise J. (1983): Situations and attitudes (MIT Press)
 Brooks R. (1991): Intelligence without representation (Artificial Intelligence n.47 p. 139)
 Brooks R. (1991): Intelligence without reason (Proc IJCAI)
 Chomsky N. (1975): Reflections on language (Pantheon)
 Church A. (1941): Calculi of lambda conversion (Princeton Univ Press)
 Craik K. (1943): The nature of explanation (Cambridge Univ Press)
 Dretske F. (1981): Knowledge and the flow of information (MIT Press)
 Dretske F. (1985): Machines and the mental (Proc. American Philosophical Association p.23)
 Dreyfus H. (1979): What computers can't do (Harpers & Row)
 Fodor J. (1983): Modularity of mind (MIT Press)
 Gibson J. (1979): The ecological approach to perception (Houghton Mifflin)
 Green C. (1969): Application of theorem proving to problem solving (Proc. IJCAI p.219)
 Hayes P. (1981): The logic of frames (in Brachman R.:
    Readings in Knowledge Representation, ed. Morgan Kaufman)
 Jackson F. (1982): Epiphenomenal qualia (Philosophical Quarterly n.32 p.127)
 Johnson-Laird P. (1983): Mental models (Harvard Univ Press)
 Kosslyn S. (1983): Ghosts in the mind's machine (W. Norton)
 Lucas J. (1961): Minds, machines and Godel (Philosophy n.36 p.112)
 Maturana H. (1980): Autopoiesis and cognition (Reidel)
 Maturana H. e Varela F. (1987): The biological roots of human understanding (New Science Library)
 McCarthy J. (1958): Programs with common sense (in Minsky M.: Semantic information processing, ed. MIT Press)
 McCarthy J. (1969): Some philosophical problems from the standpoint of Artificial Intelligence (Machine Intelligence n.4 p.463)
 McCarthy J. (1956): Inversion of functions defined by Turing machines (Automatic Studies)
 Minsky M. (1968): Semantic information processing (MIT Press)
 Neisser U. (1966): Cognitive psychology (Appleton-Century-Crofts)
 Neisser U. (1987): Concepts and conceptual development (Cambridge Univ Press)
 Neisser U. (1975): Cognition and reality (Freeman)
 Newell A. & Simon H. (1972): Human Problem Solving (Prentice-Hall)
 Newell A. (1990): Unified theories of cognition (Harvard Univ Press)
 Paivio A. (1971): Imagery and verbal processes (Holt Rinehart & Winston)
 Penrose R. (1989): The emperor's new mind (Oxford Univ Press)
 Putnam H. (1988): Representation and reality (MIT Press)
 Rosenschein S. (1985): Formal theories of knowledge (SRI Report)
 Ryle G. (1949): The concept of mind (Barnes & Noble)
 Schank R. (1975): Conceptual information processing (North Holland)
 Schank R. (1982): Dynamic memory (Cambridge Univ Press)
 Schank R. (1989): Inside case-based reasoning (Lawrence Erlbaum)
 Searle J. (1984): Mind, brains and science (BBC Publications)
 Shannon C. & Weaver W. (1949): The mathematical theory of communication (Univ of Illinois Press)
 Simon H. (1962): The architecture of complexity (Proc of the American Philosophical Society n.26 p.467)
 Simon H. (1969): The sciences of the artificial (MIT Press)
 Smolensky P. (1988): On the proper treatment of connectionism (Behavioral and brain sciences n.11 p.1)
 Turing A. (1992): Mechanical Intelligence (Elsevier Science)
 Von Neumann J. (1958): The computer and the brain (Yale Univ Press)
 Wiener N. (1948): Cybernetics (John Wiley)
 Wilensky R. (1983): Planning and understanding (Addison Wesley)
 Winograd T. & Flores F. (1986): Understanding computers and cognition (Ablex)
[Indietro]-[Avanti]