DOCUMENTS

elab.immagini
galileo
realtà virtuale
vrml
biomeccanica
esapodi
formula1
intelligenza







Papers
meccanica
sistemi
robotica


LA FABBRICA DEL PENSIERO
La fine della ragione

[Indietro]-[Avanti]

Verita' e realta'

La verita' e' la relazione che esiste fra una proposizione sul mondo e lo stato del mondo; o, se si preferisce la versione di James, la verita' e' una relazione fra un'idea e la realta'. La missione della Scienza e' quella di scoprire la verita' del mondo.

Le verita' che il mondo ci rende note tramite i sensi sono relativamente poche, soprattutto perche' sono sempre le stesse: il Sole sorge tutti i giorni da Est. Un cieco vissuto in isolamento che acquisisse di colpo la facolta' della vista andrebbe certamente in visibilio nel vedere per la prima volta l'astro sorgere da Oriente, e ne ricaverebbe una verita' importante. Ma i mille giorni successivi non aggiungerebbero nulla di nuovo alle verita' note circa il moto relativo di Terra e Sole.

Se ci limitassimo a catalogare le verita' presentateci dall'esperienza, sapremmo ben poco del mondo. Abbiamo invece la facolta' di generare nuove verita' da quelle note. Questa facolta' e' l'inferenza. L'inferenza e' il processo tramite cui elaboriamo delle verita' (o presunte tali) per ottenere delle altre verita' (o presunte tali). E' grazie all'inferenza che abbiamo potuto costruire modelli dell'universo sempre piu' raffinati. E' grazie all'inferenza che abbiamo capito come guarire le malattie e come costruire i grattacieli, tutte cose che in Natura non avevamo potuto osservare.

Non tutto e' cosi' semplice, pero'. Gia' James faceva notare che, siccome la realta' cambia nel tempo, la verita' e' a sua volta una proprieta' variabile nel tempo.

Churchland e Rorty preferiscono in effetti pensare alla "verita'" come a una sorta di convenzione sociale, come a una dichiarazione di consenso. Nelle parole di Putnam "la verita' e' accettabilita' razionale idealizzata".

L'inferenza e' il processo tramite il quale si genera della nuova verita', o, meglio, il processo che consente di stabilire qualche proprieta' di un insieme date le proprieta' di un altro insieme. Seguendo Collins, possiamo allora catalogare i tipi di inferenza sulla base di come inferiscono la proprieta' di un insieme: dall'insieme che lo contiene (deduzione), da un insieme simile (analogia), da un altro sottoinsieme dello stesso insieme (induzione), dai suoi sottoinsiemi (generalizzazione), da un suo sottoinsieme che puo' essere inferito da quell'insieme (abduzione). Questa non e' altro che un'estensione della classificazione dovuta a Peirce in abduzione (o formazione di ipotesi), deduzione (inferenza analitica) e induzione (inferenza sintetica).

Dimostrare la verita'

Il progetto di ogni teoria computazionale della mente e' quello di ridurre l'intelligenza all'inferenza e l'inferenza alla manipolazione di simboli, i quali vengano manipolati in funzione della propria struttura. Se l'inferenza necessaria a rendere conto dell'intelligenza fosse soltanto quella deduttiva, il problema sarebbe gia' stato elegantemente risolto con l'uso della Logica Matematica, il nostro principale sistema di manipolazione di simboli, che usa per l'appunto la deduzione.

La logica classica esibisce invece diverse limitazioni, che sono evidenziate da questi esempi:

La deduzione della logica classica non e' pertanto l'unica inferenza possibile. Anzi, nella vita quotidiana per ricavare le verita' che ci servono a muoverci nel mondo reale usiamo dei tipi di inferenza molto diversi.
Il pregio e il fascino della deduzione e' che e' "esatta". Ogni verita' dimostrata tramite la deduzione soddisfa una serie spettacolare di proprieta', tra cui quella di essere vera per sempre. Il difetto della deduzione e' che in realta' non crea nessuna nuova verita': ogni verita' dimostrata dalla deduzione era gia' implicita nelle verita' note. La deduzione "dimostra", e non "costruisce", verita'. Altri tipi di inferenza non dimostrano, ma costruiscono, nuove verita' (o presunte tali).
La teoria degli insiemi non e' meno sospetta. La mereologia di Lesniewski (lo studio delle parti e degli interi e degli assiomi che servono per mettere in relazione gli une con gli altri), il calcolo degli individui di Goodman e la teoria degli ensemble di Bunt sono alternative alla teoria degli insiemi che rispettano il comandamento di Goodman: "nessuna distinzione di entita' senza distinzione di contenuto." La teoria degli insiemi non soddisfa questo principio poiche' l'elemento "Piero" l'insieme "{Piero}" (che ha come unico elemento Piero), l'insieme "{{Piero}}" (che ha come unico elemento un insieme che ha come unico elemento Piero), e cosi' via all'infinito, sono tutti diversi fra di loro pur rappresentando sostanzialmente la stessa cosa. La mereologia, in particolare, consente di rappresentare i plurali in maniera piu' naturale (nel calcolo dei predicati il plurale richiede la quantificazione di due variabili, una che rappresenta un insieme e una che svaria su tutti gli elementi di quell'insieme, e questa notazione non e' certamente intuitiva).
Il processo di inferire la verita' puo' essere sintetico o analitico: nel primo caso viene prodotta una verita' che non era ancora nota, nel secondo viene riformulata una verita' che era gia' nota. La deduzione e' un esempio di inferenza analitica: la verita' di un teorema e' gia' contenuta implicitamente nel sistema formale, e si tratta soltanto di usare le regole di inferenza per dimostrarla. L'induzione e' invece un esempio di inferenza sintetica, poiche' la verita' che viene prodotta non era gia' nota.
Un problema secolare dell'induzione e' che conserva la falsita', non la verita'; ma questo e' oggi secondario rispetto a un altro problema: l'induzione viene usata per costruire concetti precisi e rigidi, mentre i concetti usati nella vita quotidiana sono imprecisi e flessibili. Michalsky ha fatto notare che questo fatto, lungi dall'essere un'imperfezione della mente umana, ha la funzione di aumentare l'economia cognitiva delle nostre descrizioni. Per esempio, "triangolo" ha un significato ben preciso in Geometria che nella pratica non viene quasi mai usato: "triangolo" e' un certo tipo di isolato, uno strumento musicale o persino la relazione sessuale fra tre persone. Cio' e' possibile in quanto, fra le altre cose, il concetto di triangolo non e' cosi' rigido da permettere soltanto il triangolo geometrico.
Talvolta considerata un caso particolare dell'induzione, l'abduzione e' in realta' tutt'altro. La proprieta' piu' importante dell'abduzione e' quella di essere in grado di giungere a una conclusione anche in mancanza di informazione. Tale conclusione non e' necessariamente nella "chiusura deduttiva" del sistema formale, ovvero non e' implicita nelle verita' gia' note.
Per gli scopi pratici l'abduzione e' sempre riconducibile a una forma di diagnosi, il cui scopo ultimo e' quello di determinare quale sia la teoria migliore per spiegare un certo insieme di dati. L'abduzione e' l'inferenza piu' usata per costruire teorie scientifiche, ed e' anche quella usata dal dottore per inferire dai sintomi la malattia (il dottore deve trovare una malattia che sia coerente con i sintomi).
Seguendo Levesque, possiamo distinguere l'abduzione dalla deduzione tramite la regola di inferenza:
.ce se B e' vero e inoltre A implica B, allora A "spiega" B
in contrapposizione con quella della deduzione:
.ce se A e' vero e inoltre A implica B, allora A "convalida" B
L'abduzione e' coerente, in quanto, una volta abdotto A, posso verificare che da esso consegue B, ma non e' necessariamente esatta, in quanto B potrebbe non essere dovuto ad A. In altre parole l'abduzione risale alla causa di un effetto e formula un'ipotesi che sia coerente con tale effetto; ma, naturalmente, possono esistere piu' cause dello stesso fenomeno.
Un tipo di ragionamento ancora piu' comune (e che alcuni ritengono piu' comune anche della deduzione) e' quello analogico. A partire dai modelli psicologici di Spearman e da quelli matematici di Polya, il ragionamento analogico e' stato considerato uno dei processi fondamentali per spiegare come la mente riesca a risolvere problemi complessi in tempi brevissimi.
L'analogia puo' essere definita come la capacita' di risolvere un problema essendo noto come si risolve un problema simile, ovvero di trasformare la soluzione di un problema nella soluzione di un altro problema.
In generale l'"analogia" puo' essere interpretata come una "corrispondenza" fra le descrizioni di due situazioni. Tale corrispondenza puo' essere piu' o meno parziale, a seconda del criterio di confronto prescelto. Una volta stabilito che essa supera un dato limite, e che pertanto fra le due situazioni sussiste una relazione di analogia, puo' aver luogo il ragionamento analogico, che consiste nell'inferire alcune proprieta' di una delle due situazioni sulla base delle proprieta' dell'altra situazione. Le proprieta' inferite per analogia possono essere qualsiasi cosa: attributi di un oggetto, aspetti di un concetto, modi di risolvere un problema, e cosi' via.
Carbonell distingue due tipi di ragionamento analogico, quello "trasformazionale", che consiste nel "trasferire" le proprieta' da una situazione a un'altra (seguendo Winston) tenendo conto delle diverse "metriche" delle due situazioni, e quello "derivazionale", che consiste nel "derivare" le proprieta' di una situazione da quelle di un'altra situazione sulla base dell'esperienza collegata a questa. Quest'ultimo tipo di ragionamento analogico ricorda il meccanismo delle K-Line di Minsky, quello di ricostruire gli aspetti rilevanti di un'esperienza passata.
Schank ha sviluppato una forma di analogia "per casi" (case-based reasoning) nella quale una "memoria episodica" archivia tutti i "casi" incontrati sotto forma di loro generalizzazioni e ogni nuovo "caso" che si presenta provoca la ricerca di un caso "simile" sia per guidare l'interpretazione del nuovo caso (guidata dall'aspettarsi che succedano certi fatti che successero nel caso precedente) sia per compilare nuove generalizzazioni di casi. Rispetto allo spazio di problema dei sistemi deduttivi (come i sistemi di produzione) la memoria episodica contiene non "soluzioni" ma "esempi di soluzione". Sia il ragionamento a regole di produzione sia quello a casi appartengono alla categoria dei ragionamenti "template-based", dove il template e' un'espressione logica nel primo caso e un caso nel secondo; ma il primo seleziona regole i cui antecedenti concordano con la situazione corrente, e pertanto non puo' trattare situazioni nuove e non puo' incrementare la propria memoria, mentre il secondo seleziona casi che corrispondono alla situazione corrente, tratta situazioni nuove "per analogia" e incrementa la propria memoria "per validazione".

 

Intendere la verita'

La Logica e' "estensionale" nel senso che la verita' di un'espressione dipende unicamente dagli oggetti a cui si riferisce (dalla sua estensione), non dal suo significato (dalla sua intensione). In altre parole i simboli di un linguaggio "estensionale" rappresentano oggetti o proprieta' di oggetti, e ogni frase composta di tali simboli esprime una verita' o una falsita' relativa a tali oggetti o a tali proprieta'. "Piero Scaruffi e' italiano" esprime una proprieta' di Piero Scaruffi che e' vera.
I linguaggi estensionali soddisfano la cosiddetta "legge di Leibniz": se in una frase si sostituisce un termine con un altro termine che fa riferimento allo stesso oggetto si conserva la verita' (o la falsita') della frase. Se al posto di "Piero Scaruffi", scriviamo "L'autore di questo libro" otteniamo ancora una frase vera: "L'autore di questo libro e' italiano".
Che esistano dei problemi con le estensioni era gia' noto a Russell: "L'unicorno vola" e' falsa perche' l'unicorno non e' tra gli oggetti che volano, ma il suo opposto "L'unicorno non vola" e' anche falsa, in quanto l'unicorno non e' neppure fra gli oggetti che non volano, e cio' contraddice la legge secondo cui una frase e' vera se il suo opposto e' falso.
Russell fece anche notare quanto poco conti l'estensione: siccome non sono sposato, l'espressione "la moglie di Piero Scaruffi" non ha alcuna estensione, ma ha un significato intuitivo, eppure la logica la tratta alla stregua di qualsiasi altra espressione priva di estensione ("l'elefante con le ali", "il politico non corrotto", "Babbo Natale" e cosi' via), per cui l'una vale l'altra. Esiste una differenza intuitiva fra "la moglie di Piero Scaruffi e' bella" e "il politico non corrotto e' bello", ma per la Logica Matematica queste frasi sono equivalenti.
Frege studio' anche un caso che viola la legge di Leibniz: i verbi "sapere", "credere" e "pensare" seguiti da una frase non permettono piu' di sostituire un termine con un termine dallo stesso referente. Per esempio, se "Cinzia sa che Giusi ha trent'anni", e Giusi e' la moglie di Vincenzo, non e' necessariamente vera la frase, apparentemente equivalente: "Cinzia sa che la moglie di Vincenzo ha trent'anni". Cinzia potrebbe non sapere che Giusi e' la moglie di Vincenzo e in tal caso non saprebbe rispondere alla domanda "Quanti anni ha la moglie di Vincenzo?" pur sapendo rispondere alla domanda "Quanti anni ha Giusi?" La legge di Leibniz viene violata in tutti i casi di "contesto opaco", come quelli di "sapere", "credere" e "pensare".
Insomma la logica estensionale non sa trattare frasi assai comuni nel linguaggio corrente come quelle che usano i contesti opachi ("sapere", "credere", "pensare") e come quelle che usano gli operatori modali (tutte le parole che si possono ricondurre alle forme "e' possibile che" e "e' necessario che", dal verbo "dovere" all'avverbio "forse").
Queste frasi non sono "estensionali", nel senso che non soddisfano la legge di Leibniz.
Queste frasi sono invece interpretabili nella semantica dei modelli ("model-theoretic") di Kripke. Il primo a concepire il nostro mondo come uno dei mondi possibili fu Leibniz, ma il primo a dare un rigoroso fondamento logico a questa intuizione fu Kripke. Un'affermazione che e' falsa in questo universo puo' benissimo essere vera in un altro mondo. Pertanto i valori di verita' di una frase sono sempre relativi a un particolare mondo.
Nella semantica dei mondi possibili una proprieta' e' necessaria se in tutti i mondi e' vera, una proprieta' e' possibile se esiste almeno un mondo in cui e' vera. "Piero Scaruffi e' italiano" e' possibile, non necessaria; "Piero Scaruffi e' Piero Scaruffi" e' necessaria. Queste definizioni sono estremamente utili nel diagnosticare i cosiddetti "controfattuali", ovvero frasi ipotetiche del tipo "Se non fossi Piero Scaruffi, sarei francese" (non ha molto senso domandarsi se questa frase sia "vera" o "falsa": e' pero' "possibile").
Mentre la teoria dei modelli di Tarski e' puramente estensionale (per ogni modello il significato di un predicato e' determinato dall'elenco degli oggetti per cui e' vero), la logica "modale" di Kripke e' intensionale: primo perche' tratta possibilita' che non esistono e potrebbero non esistere mai, e poi perche' nella semantica dei mondi possibili le definizioni estensionali sono impossibili in quanto l'insieme di oggetti e' infinito.
Nella logica modale di Lewis una proposizione e' necessaria se e' vera in ogni mondo possibile, e' possibile se e' vera in almeno un mondo possibile. "Necessita'" e "possibilita'" sono operatori modali, nel senso che operano su espressioni logiche esattamente come i comuni connettivi logici. I due operatori modali sono duali (l'uno puo' essere espresso in funzione dell'altro), e in cio' riflettono semplicemente il dualismo dei due quantificatori (anche l'esistenziale e l'universale possono essere espressi in funzione l'uno dell'altro). Una logica modale viene costruita aggiungendo agli assiomi di una logica non-modale alcuni assiomi contenenti gli operatori modali. Per esempio, e' comune aggiungere gli assiomi modali cosiddetti "di Kripke" (se e' necessario che A implichi B, allora se A e' necessario anche B e' necessario) e "di verita'" (se A e' necessario, A e' vero). .sp 5
FIGURA 10 .sp 5
Gli operatori modali possono in realta' stare per qualsiasi coppia di concetti duali. Per esempio, potrei costruire una logica modale i cui operatori sono "A Dario piace..." e "A Cinzia piace..." ( i loro gusti sono praticamente incompatibili, per cui possono essere derivati gli uni dagli altri).
Sono possibili infiniti tipi di logiche modali. Tutto dipende da quali assiomi modali si decide di introdurre. E' chiaro che questi assiomi devono riflettere l'accezione comune di quelle proprieta' modali (per esempio, di "necessita'" e "possibilita'", per esempio di "A Dario piace..." e "A Cinzia piace..."). In particolare, le logiche intensionali rappresentano attitudini proposizionali, attitudini mentali verso una proposizione. Se l'intensionalita' e' limitata alle attitudini di conoscere e credere, la logica e' quella epistemica.
In questo caso gli operatori modali della logica sono quelli di "conoscenza" (l'operatore epistemico) e "credenza" (l'operatore doxastico). Le due entita' sono distinte dall'assioma di verita', che alla luce dei nuovi operatori si puo' leggere cosi': se conosco qualcosa, quel qualcosa e' vero; se credo in qualcosa, quel qualcosa non e' necessariamente vero. Il problema e' che non e' chiaro quali altri assiomi siano coerenti con l'accezione di conoscenza e di credenza. L'assioma di Kripke, per esempio, applicato agli operatori epistemico e doxastico, afferma la mia onniscienza matematica: se conosco A, allora conosco anche tutto cio' che consegue da A; e siccome io conosco gli assiomi di Peano, vuol dire che conosco tutto cio' che e' dimostrabile in Matematica; il che', ahime', non e'.

 

Costruire la verita'

Il fatto che la logica classica "dimostri" e non "costruisca" verita' puo' dar adito anche a un altro genere di critica. Le sue regole di inferenza si prestano infatti a dei grossolani paradossi: l'implicazione, per esempio, non corrisponde al "se" del linguaggio comune ("P implica Q" non e' identico a "se P, allora Q"). Per esempio, "Vincenzo e' scapolo implica Vincenzo e' piemontese" non corrisponde a "Se Vincenzo e' scapolo, allora Vincenzo e' piemontese", tant'e' che la seconda non ha alcun senso mentre la prima, secondo la logica classica, risulta persino vera; ancora, "ogni figlio di Vincenzo si chiama Alfredo" risulta vera nella logica classica, poiche' il mio amico Vincenzo non ha figli, mentre non ha senso nel linguaggio comune, appunto in quanto Vincenzo non ha figli.
Per ovviare a questi paradossi della logica classica, la logica "intuizionista" limita il suo campo d'azione a cio' che puo' essere costruito mentalmente. Cosi' non ha senso prendere la negazione di una verita', un espediente che e' invece spesso utilizzato nel calcolo logico. Il significato di un'espressione non sta nelle sue condizioni di verita', ma nel modo di dimostrarla.
La teoria del significato di Dummett e' una variante della logica intuizionista che sostituisce verifica e falsificazione a verita' e falsita'.
Anche la semantica "dei giochi" di Hintikka assume che la verita' possa essere ottenuta soltanto attraverso un processo di "falsificazione" e di "verifica": la verita' di un'espressione viene determinata attraverso un insieme di regole, dipendenti dal dominio, che definiscono una sorta di "gioco" fra due agenti, il primo intenzionato a "convalidare" e il secondo a "confutare" l'espressione. L'espressione e' vera se vince il primo agente. La differenza fra Hintikka e Dummett e' che la teoria del primo (verificazionista come quella del secondo) e' ancora una semantica "truth-conditional".
Affine a questi "giochi" di verita' e' il ragionamento "opportunistico" coniato da Hayes-Roth, nel quale un certo numero di agenti indipendenti cooperano per giungere alla soluzione. La metafora e' quella di un "consulto" di medici specialisti: a turno ciascuno specialista esamina sia la diagnosi parziale degli altri specialisti sia il paziente, e aggiunge a sua volta qualcosa alla diagnosi parziale. A forza di alternarsi gli specialisti dovrebbero prima o poi trasformare quella diagnosi parziale nella diagnosi finale. Nel modello "a lavagna" (blackboard) di Hayes-Roth ogni agente legge le conclusioni degli altri agenti, ragiona e poi scrive a sua volta le conclusioni a cui e' pervenuto. Ogni agente e' specializzato in qualche tipo di ragionamento, o nel ragionare in qualche specifico dominio, in modo che il lavoro collettivo sia ben distribuito. Questo e' pertanto un modo di ragionare "incrementale" (nel senso che la soluzione viene costruita poco alla volta) e "opportunistico" (in quanto gli agenti sfruttano di volta in volta le opportunita' che si presentano).
In ogni istante questo sistema di agenti ha a disposizione due "agende" di azioni: quelle che il sistema "desidera" compiere (cioe' le azioni che almeno un agente ha bisogno di compiere per continuare il proprio ragionamento, ma non puo' compiere per mancanza di informazione), ovvero l'agenda delle azioni necessarie; e quelle che il sistema puo' compiere (cioe' le azioni per le quali si sono verificate le condizioni), ovvero l'agenda delle azioni possibili. Dal confronto fra le due agende il sistema determina quali azioni sono al tempo stesso necessarie e possibili, e pertanto quali agenti devono riprendere il proprio ragionamento. Il vantaggio computazionale di questo tipo di ragionamento e' proprio dovuto al fatto che prende in considerazione soltanto le azioni che sono possibili e necessarie, ovvero quelle e solo quelle che sono rilevanti ai fini della risoluzione del problema.

Infine un altro modo di "costruire" la verita' e' quello di partire da un'ipotesi e raffinarla di passo in passo. Secondo la teoria "revisionista" della verita' di Gupta, infatti, la verita' non andrebbe stabilita tramite una regola di applicazione, ma tramite una regola di revisione. Per esempio, si voglia determinare tutte le frasi di un dato linguaggio che sono vere quando quel linguaggio comprende un predicato di verita' (un predicato che fa riferimento al concetto di "vero"). Per poter valutare quel predicato di verita' e' necessario sapere qual'e' l'estensione di "vero", ma l'estensione di "vero" e' proprio cio' che si deve stabilire. L'unico modo di uscire da questa circolarita' e' di assumere inizialmente un'estensione di "vero" e applicare una regola di revisione il cui risultato sara' un'estensione di "vero" migliore della precedente. La "verita'" viene pertanto ottenuta attraverso un processo incrementale di raffinamento progressivo. La scelta di questa regola di revisione puo' avvenire in diversi modi, ma e' ovviamente fondamentale che a un certo punto l'estensione di "vero" converga verso un'estensione stabile, e Belnap propone una "politica di scelta" che dovrebbe essere ottimale.

 

L'incertezza

Nel 1927 Heisenberg diede una svolta storica non solo alla scienza ma al concetto stesso di verita' enunciando il suo principio di indeterminatezza. Da allora l'"incertezza" e' divenuta, in un modo o nell'altro, una delle poche certezze della Scienza moderna. Da allora e' entrato nell'uso comune di ritenere che esista un limite alla capacita' della Scienza di capire l'universo.
In ballo c'e' il principio di causalita', e cioe' che ogni effetto sia preceduto da una causa e una sola. Per esempio, nella meccanica newtoniana la posizione e la velocita' in un certo istante di una particella non soggetta a forze determinano in modo univoco dove si trovera' la particella in un istante successivo. In pratica il principio di causalita' asserisce che, se e' noto il presente, si puo' calcolare il futuro.
Il principio di indeterminatezza di Heisenberg rimette in discussione le stesse premesse del principio di causalita', ovvero che possano essere note simultaneamente la posizione e la velocita' di una particella: esse possono essere misurate simultaneamente soltanto con un margine di incertezza (piu' precisa e' la misura della prima piu' imprecisa e' quella della seconda). Di conseguenza anche il "futuro" della particella ha un margine di incertezza, ovvero sono possibili diversi futuri, ciascuno con una certa probabilita'.
Nonostante la Meccanica Quantistica abbia ricevuto un numero impressionante di conferme sperimentali, molti pensatori sono sempre stati riluttanti ad accettare l'idea che tutto sia affidato al caso. Uno di questi, Albert Einstein, parlo' per tutti noi (credenti e non) quando disse che Dio non gioca a dadi. E Einstein aveva la tendenza ad avere sempre ragione, anche quando pensava di avere torto. Quella celebre frase aleggia ancora come una minaccia sul principio di indeterminatezza e su tutta la Scienza e la Filosofia che ne sono seguite.

 

La Probabilita'

Il mondo della logica e' un mondo ideale, semplice e chiaro, in cui e' possibile compiere ragionamenti esatti. Il mondo reale e' molto diverso, in quanto la maggioranza delle informazioni sono incerte, inesatte, vaghe.
Una prima forma di incertezza e' quella relativa a quanto un soggetto crede che qualcosa sia vero. Seguendo Savage, questa incertezza, o, meglio, questo "grado di convinzione", puo' essere espresso in termini di probabilita', le quali hanno il pregio di soddisfare un insieme di regole matematiche (benche' fossero state inventate per esprimere una misura della frequenza con cui un evento si verifica, e non per esprimere una misura dell'attesa che un evento si verifichi, ovvero per un compito descrittivo e non normativo: ancora una volta la Matematica e il suo mondo ideale finiscono per prevalere sulla Psicologia e sul mondo reale).
Tversky ha invece dimostrato che la teoria matematica della probabilita' non si presta a descrivere e prescrivere il comportamento umano, il quale e' soggetto ad aberrazioni di prospettiva (i cosiddetti "framing effects", che influenzano convinzioni, e pertanto le probabilita'). Per esempio, quando Vincenzo doveva decidere se acquistare la casa o meno, era entusiasta tutte le volte che pensava al risparmio dell'affitto, ma terrorizzato ogni volta che pensava al proprio conto in banca. A seconda di come il problema viene presentato, la propensione al rischio puo' essere completamente diversa, come ogni agente immobiliare ben sa. In generale questo fenomeno e' riconducibile al fatto che ben pochi hanno l'esperienza necessaria per stabilire esattamente l'"utilita'", e pertanto le probabilita' di riuscita, di un certo corso d'azione. Tversky ne deduce che nessuna teoria "normativa" adeguata puo' essere anche una teoria "descrittiva" accurata.
Tversky e Shafer ovviano a questo inconveniente (o, piuttosto, vizio bello e buono) con una teoria "costruttivista" delle probabilita', nella quale la probabilita' descrive una situazione ideale che deve in qualche modo essere posta in relazione di analogia con la situazione reale, e cio' puo' avvenire in diverse maniere. Secondo Shafer, in accordo con gli esperimenti di Tversky, il modo in cui assegniamo probabilita' a un evento e' una sorta di esperimento mentale tramite il quale tentiamo di costruire una situazione immaginaria, e il risultato a cui perveniamo dipende proprio dal processo di costruzione, dal "come" ci siamo arrivati. Seguendo due strade diverse, possiamo pervenire a due risultati diversi. Secondo Shafer la gente non ha preferenze, le costruisce.
Savage baso' la sua teoria delle probabilita' su argomenti pragmatici che riguardavano la presa di decisioni. Cox tento' invece di fondare una teoria dell'inferenza probabilistica su basi assiomatiche: i suoi assiomi non fanno riferimento ad alcun criterio pragmatico, bensi' soltanto alle relazioni fra evidenza ("evidence") e convinzione ("belief"). Qualunque fenomeno che possa essere descritto dagli assiomi di Cox puo' essere ricondotto al calcolo delle probabilita'. In tal modo Cox dimostra anche che qualunque formalismo numerico per ragionare sull'incertezza e' un travestimento della teoria delle probabilita'. E Aleliunas sosterra' qualcosa di simile per i formalismi non numerici, da cui si potrebbe dedurre che qualunque teoria dell'incertezza e' in un'ultima analisi una variante della teoria delle probabilita'.
Un'assiomatizzazione piu' coerente con i risultati sperimentali e' quella di Pearl. Pearl comincia con l'osservare che una proprieta' dell'informazione e' quella di essere rilevante per qualche altro tipo di informazione, altrimenti non sarebbe informazione. La proprieta' duale della rilevanza e' la dipendenza: se, dato quel che e' noto, un'informazione e' rilevante per un'altra informazione, allora quest'altra e' dipendente dalla prima. Per l'esattezza la rilevanza puo' essere identificata con la "indipendenza condizionale", ovvero con la proprieta' che la probabilita' condizionale di due eventi rispetto a quanto e' noto sia pari al prodotto delle probabilita' condizionali dei singoli eventi rispetto a quanto e' noto. Pearl fornisce poi una formulazione assiomatica dell'indipendenza condizionale.
E' possibile anche una rappresentazione grafica della dipendenza condizionale, sotto forma di "diagrammi di influenza", detti anche "reti causali". Le reti causali di Pearl sono grafi aciclici diretti, nei quali i nodi sono variabili casuali (che possono avere qualsiasi valore, il valore di uno dei "casi" che si possono presentare) e gli archi esprimono le dipendenze fra tali variabili. Un grafo causale consente di calcolare le probabilita' condizionali di tutti i nodi nella rete, una volta che siano dati i valori di alcuni nodi. Man mano che piu' informazione diventa disponibile, ovvero che i valori di altri nodi vengono vengono definiti, le probabilita' condizionali dei nodi liberi cambiano, in accordo con la cosiddetta "formula di inversione" di Bayes. Il grafo che rappresenta una situazione reale puo' essere molto complesso, ma esiste una tecnica matematica per semplificarlo (basata sul concetto di "d-connessione", che stabilisce quali variabili sono dipendenti e quali no).

Una rete causale ha anche la facolta' di essere "isotropa", nel senso che puo' essere usata per compiere inferenze in entrambe le direzioni: scorrendo il grafo dall'alto verso il basso si compie un'inferenza di tipo "predittivo", nel senso che si puo' inferire con quante probabilita' un certo evento causera' un altro evento; mentre scorrendo invece il grafo dal basso verso l'alto si compie un'inferenza di tipo "diagnostico", nel senso che si puo' inferire con quanta probabilita' un evento e' dovuto a un altro evento.
Secondo Pearl l'esperienza viene trasformata in modelli causali affinche' sia poi possibile prendere delle decisioni. Le reti causali, infatti, o meglio i diagrammi di influenza, possono essere "risolti" tramite tecniche matematiche (formalizzate da Shachter) per ottenere dei consigli su quale "decisione" prendere. La tecnica di prendere decisioni e' diventata una disciplina a se stante con l'"analisi delle decisioni" di Raiffa, la quale, sull'esempio di Savage, mutua molte idee dall'Economia (principalmente quella di "utilita'" di von Neumann, ovvero di calcolare i pro e i contro di una decisione) e ha come fine ultimo quello di definire cosa sia una decisione "buona" (siccome una decisione "buona" non da' necessariamente un risultato "buono", un risultato cattivo non significa necessariamente che la decisione fosse anche cattiva).
L'intero fenomeno del "prendere decisioni" esiste in quanto esiste l'incertezza; se non esistesse l'incertezza, esisterebbe sempre una sola decisione sensata.
Le reti causali non devono usare necessariamente le probabilita'.
Uno dei pilastri ideologici della teoria delle probabilita' e' che la probabilita' di un evento e' uguale a uno meno la probabilita' del suo opposto, o, equivalentemente, che la somma delle probabilita' di tutti gli eventi sia uno. Per esempio, se la probabilita' che io scriva degli altri libri e' il 90%, la probabilita' che io smetta di scrivere deve essere il 10%.

La "funzione di convinzione" ("belief function") di Dempster e' una generalizzazione della probabilita' a tutti i possibili sotto-insiemi di eventi. Per esempio, nel caso di un dado gli eventi possibili sono sei (le sei facce del dado), ma i possibili sotto-insiemi di eventi sono 64 (i sei di cui sopra, piu' le varie combinazioni di due facce, come "pari" e "dispari", quelle di tre facce, di quattro e cosi' via). La somma delle probabilita' di tutti i sotto-insiemi vale uno, ma la somma delle probabilita' di tutti i singoli eventi vale meno di uno. Dempster consente pertanto di assegnare una probabilita' a un gruppo di eventi nel suo insieme, senza assumere che sia nota anche la probabilita' dei singoli eventi. Indirettamente Dempster consente di rappresentare l'"ignoranza", come lo stato in cui la convinzione di un evento non e' nota (anche se e' nota quella di un insieme a cui quell'evento appartiene).
Dal punto di vista semantico Pearl ha dimostrato che una funzione di convinzione relativa a una proposizione rappresenta la probabilita' di dimostrare che, dati i vincoli imposti dall'evidenza disponibile, quella proposizione e' vera; secondo Pearl la funzione di convinzione misura quanto la proposizione si avvicina alla "necessita'". La probabilita' classica, invece, misura quanto la proposizione si avvicina alla "verita'". La teoria di Bayes considera l'evidenza disponibile alla stregua di assunzioni riguardo le probabilita', mentre la teoria di Dempster considera l'evidenza disponibile alla stregua di probabilita' per scegliere le assunzioni; nel primo caso una proposizione e' credibile quando e' dimostrabilmente probabile, nel secondo caso una proposizione e' credibile quando e' probabilmente dimostrabile; nel primo caso la teoria delle probabilita' e' il linguaggio oggetto e la logica e' il meta-linguaggio, nel secondo caso i ruoli sono invertiti. Il vantaggio della teoria di Dempster e' che non richiede un modello probabilistico completo del dominio.

La "formula di combinazione" di Dempster esibisce la proprieta' che due evidenze a favore si rinforzano l'un l'altra, mentre due evidenze contrarie si indeboliscono l'un l'altra. Di conseguenza una rete causale basata sulla funzione di convinzione restringe progressivamente il campo delle ipotesi e pertanto meglio rappresenta il senso comune. Sfortunatamente la formula di inversione di Dempster ha anche un'altra proprieta': quella di crescere esponenzialmente in complessita', e di essere pertanto computazionalmente impraticabile.

 

La Possibilita'

E' dubbio, inoltre, se il senso comune calcoli probabilita' di necessita' o probabilita' di verita'.
La logica delle possibilita' (per esempio, nella versione di Dubois) assegna a ogni assioma un grado di possibilita' e un grado di necessita'. Per esempio, "Dio esiste" ha per me necessita' zero e possibilita' uno, ovvero sono del tutto ignorante sulla verita' o falsita' di questa proposizione. Viceversa la necessita' uno significa che l'assioma e' vertamente vero e la possibilita' zero che e' certamente falso. La principale differenza fra la logica modale e la logica delle possibilita' e' che nella prima non esistono gradi di necessita' e di possibilita' ("Vincenzo e' a casa" e' possibile, punto e basta), nella seconda si' ("Vincenzo e' a casa" e' possibile con grado X). La logica delle possibilita' ammette un solo insieme di assiomi, mentre quella modale ne ammette molti.
Le possibilita' sono state usate anche come un'alternativa alle probabilita', per esempio da Shackle. La possibilita' si distingue dalla probabilita' in quanto consente di trattare anche quei casi in cui tutti gli eventi sono incerti allo stesso modo. La possibilita' puo' in effetti trattare l'intero spettro dell'incertezza, dall'informazione completa all'ignoranza totale.

 

L'ambiguita'

Non bisogna confondere l'imprecisione (Dario ha guardato la partita con il 99% di probabilita') e la vaghezza ("Vincenzo e' molto simpatico"). Nel primo caso la proposizione e' vera o falsa, ma per mancanza di informazione possiamo soltanto fornire una stima della sua verita'. Nel secondo caso l'informazione e' completa e la proposizione e' precisissima, ma non e' ne' vera ne' falsa, bensi' qualcosa di intermedio.
Il linguaggio ordinario e' vago. Questo non e' un problema, come i logici "bivalenti" (quelli che ammettono soltanto il vero e il falso) hanno sempre sostenuto, ma una soluzione. E' grazie al suo essere vaga che una asserzione viene creduta vera; all'aumentare della sua precisione diminuisce la certezza della sua verita'. Per esempio, "I libri di Piero Scaruffi sono interessanti" mi sembra ovviamente vera; ma se cerco di precisare che "I libri di Piero Scaruffi sono interessanti con un grado di interesse di 0,76" non sono piu' sicuro di quello 0,76: perche' non 0,77? L'essere vago e' una proprieta' cruciale del linguaggio, senza la quale la nostra capacita' di comunicare e di percepire il mondo sarebbe gravemente limitata. Il computer su cui sto scrivendo e' "rumoroso", il tempo oggi e' "bello" ed e' gia' "tardi" per andare al cinema: questo mondo e' facile da esprimere e da capire; se dovessi riformulare ogni frase in termini precisi (magari usando decibel, gradi centigradi e minuti) non riuscirei ad essere altrettanto chiaro ed efficace.
Persino quando dico di essere alto un metro e settanta, o di avere trentotto anni, o di avere gli occhi azzurri dico qualcosa che non e' del tutto vero: sono tutte approssimazioni grossolane (in realta' sono alto m. 1,704325332; ho trentotto anni, 192 giorni, 7 ore, 42 minuti e 12 secondi di vita; la frequenza di colore dei miei occhi e'...). Ma alla domanda "quanti anni hai?" la gente si aspetta di sentirsi rispondere "trentotto" e non "trentotto anni, 192 giorni, 7 ore...".
Non bisogna eliminare la vaghezza, come tentano di fare i logici, ma fornire una teoria della vaghezza. Esistono due tipi di vaghezza, una estensionale e una intensionale: la prima e' quella relativa all'appartenenza di un oggetto a un certo concetto (la vaghezza di "I libri di Piero Scaruffi sono interessanti" esprime un grado di incertezza sul fatto che quei libri appartengano al concetto di "interessante"), mentre la seconda e' relativa all'appartenenza di un concetto a un altro concetto (la vaghezza di "I libri sono mezzi di comunicazione"). L'esattezza (l'essere o vero o falso e mai nulla di intermedio) e' un limite dell'approssimato.
Nel caso delle teorie dell'incertezza, il grado di verita' e' la misura della coerenza che esiste fra una proposizione sul mondo e lo stato del mondo. Il significato di una proposizione e' il vincolo che limita i valori delle variabili presenti (esplicitamente o implicitamente) in quella proposizione. Zadeh definisce una procedura per "calcolare" il significato, ovvero quel vincolo, tramite tecniche di programmazione non lineare. Una proposizione puo' cosi' risultare vera, falsa, parzialmente nota oppure vaga con un certo grado di vaghezza.
La teoria delle quantita' "fuzzy" di Zadeh afferma che non esistono cose vere e cose false, ma soltanto gradi di verita'. Questa e' una concezione del mondo molto piu' vicina a quella del senso comune: non e' che un oggetto sia rosso o meno; puo' essere piu' o meno rosso. La logica matematica e' una grossolana approssimazione del nostro mondo, un'approssimazione in cui gli oggetti possono soltanto essere rossi o non essere rossi, ma non possono essere "molto rossi" o "poco rossi" o "quasi rossi".
Kline ha dimostrato che non solo questa concezione e' piu' intuitiva, ma puo' anche risolvere i celebri paradossi causati dalla legge di non contraddizione ("non e' possibile che una proposizione e il suo opposto siano contemporaneamente veri") e dalla legge del medio escluso ("o una proposizione e' vera o e' vero il suo opposto"): tanto il paradosso del barbiere quanto quello del mentitore sono risolvibili ammettendo un grado di verita' di 0,5.
La logica fuzzy e' una logica a piu' valori, come quella di Lukasiewicz, nel senso che un termine puo' avere piu' dei due valori, vero e falso, della logica classica. Non si oppone, pero', a quella classica, ma la amplia.
La logica fuzzy rende persino conto di un problema ontologico che ha assillato i Filosofi per secoli: se da un mucchio di sabbia tolgo un granello, ho ancora un mucchio di sabbia? Se si', allora posso ripetere questa procedura e ottenere sempre un mucchio di sabbia; ma i granelli sono in numero finito, e prima o poi mi ritrovero' con nulla. Nella logica fuzzy, invece, ogni volta che rimuovo un granello ottengo un oggetto che e' sempre di meno un mucchio di sabbia: ogni applicazione di una regola di inferenza fa perdere un po' di verita' alla proposizione risultante.
Addirittura nella logica fuzzy e' possibile che un insieme appartenga (parzialmente) a una delle sue parti. Ogni insieme puo' essere sottoinsieme di un altro insieme con un certo grado di appartenenza e nulla proibisce che "alto" sia sottoinsieme parziale di "basso" mentre "basso" e' sottoinsieme parziale di "alto".

L'idea di fondo e' un derivato del principio di indeterminatezza di Heisenberg, che precisione e certezza siano inversamente proporzionali, e del principio "di incompatibilita'" di Duhem, secondo cui la convinzione che una asserzione vaga sia vera discende dal suo essere vaga. Entrambi dicono la stessa cosa: all'aumentare della precisione di una proposizione diminuisce la certezza che quella proposizione sia vera. Un aspetto di questo principio e' un fenomeno ben noto ad ogni politico: e' facile essere certi di qualcosa in termini qualitativi, visto che non si puo' essere precisi, mentre e' difficile essere certi di qualcosa in termini quantitativi, poiche' allora si dovrebbe essere molto precisi.
Un insieme "fuzzy" e' un insieme di elementi che appartengono all'insieme soltanto in parte, ovvero ogni elemento e' caratterizzato da un certo grado di appartenenza all'insieme fuzzy (o grado di esistenza). Per esempio, nell'insieme fuzzy degli amici di Dario ci sono amici piu' amici e amici meno amici. Questi gradi di appartenenza sono espressi come numeri reali compresi fra zero e uno. Un amico di Dario che abbia grado di appartenenza uno e' l'amico perfetto; un amico di Dario che abbia grado di appartenenza zero e' il nemico perfetto. Su queste quantita' fuzzy e' allora possibile operatore con "modificatori fuzzy" come "molto" e "poco", "quasi" e "alquanto" e con "quantificatori fuzzy" come "molti" e "pochi".
Nella teoria classica degli insiemi un oggetto e' membro di un insieme oppure non lo e'. Nella teoria degli insiemi fuzzy un oggetto puo' essere membro di piu' insiemi con un certo grado di appartenenza ("membership"), il quale puo' variare da zero a uno. Di conseguenza anche i valori di verita' non sono piu' zero e uno ma variano in quello stesso intervallo continuo. La logica non e' piu' bivalente, ma ha valori multipli. Una frase fuzzy (come "I libri di Piero sono interessanti") puo' allora avere un valore di verita' di 0,65 o 0,72 o 0,38.
A proiettare l'universo di discorso (relativo a una certa variabile) nell'intervallo dei valori compreso fra zero e uno e' una "distribuzione di possibilita'" (relativa a quella variabile), la quale specifica di fatto cio' che si ritiene essere epistemicamente possibile (i valori ammissibili per quella variabile). Il valore della distribuzione per un certo termine T del discorso esprime il grado di preferenza che si attribuisce all'espressione "il valore della variabile e' T", ovvero il grado di possibilita' di T per quella variabile. Per esempio, se la variabile in questione e' la statura di Dario, quanto ritengo che sia possibile che "Dario e' alto".
Gli esperimenti di Rosch sul modo in cui gli individui classificano oggetti in categorie sembrano confermare che le categorie non sono necessariamente esclusive, ovvero che uno stesso oggetto puo' appartenere parzialmente a piu' categorie.
I sistemi fuzzy (per esempio quelli di Yager) sono sistemi di produzione in cui le regole di produzione impiegano termini (predicati e modificatori) fuzzy. (Di fatto questo significa che sono insiemi di vincoli elastici su un insieme di variabili; e l'inferenza e' allora un processo di propagazione di tali vincoli). A differenza delle regole di produzione classiche, che sono attive o meno, le regole fuzzy sono sempre attive. Ogni regola e' sempre parzialmente soddisfatta. Cio' che cambia e' il grado di soddisfazione. Dworkin ha fatto notare che cio' e' piu' coerente con il modo in cui si evolve la nostra societa'. Non e' vero che una legge e' in vigore o meno; e' vero che certe leggi sono piu' o meno in vigore. Le leggi cambiano nel tempo in accordo con i principi del vivere sociale. E ogni giudice che si rispetti deve prendere in considerazione diverse leggi e applicare secondo il relativo grado di rilevanza.
I sistemi fuzzy si prestano anche per rappresentare il significato di un discorso i linguaggio ordinario. Secondo la semantica "test-score" di Zadeh, che risulta essere una generalizzazione delle semantiche verita'-condizionale, dei modelli e dei mondi possibili, il significato di una proposizione e' la procedura che porta a calcolare il valore di "test-score" sulla base del grado di soddisfazione dei vincoli elastici.
Kosko ha introdotto una formalizzazione della logica fuzzy in cui un insieme fuzzy e' un punto in un ipercubo unitario (l'equivalente dell'"universo di discorso" di Zadeh) e un insieme non fuzzy e' uno dei vertici di tale ipercubo. Tutti i paradossi della logica classica si verificano nei punti medi di questo ipercubo. L'entropia di un insieme fuzzy (e in un certo senso la sua "ambiguita'") risulta definita dal numero di violazioni della legge di non contraddizione rapportato al numero di violazioni della legge del medio escluso; l'entropia e' nulla proprio quando queste leggi valgono entrambe, e' massima nel centro dell'ipercubo. Alternativamente, e in maniera equivalente, l'entropia di un insieme fuzzy puo' anche essere definita come una misura di quanto un insieme e' sottoinsieme di un sottoinsieme di se stesso.
Un sistema fuzzy risulta allora una relazione fra ipercubi, e, piu' precisamente, una relazione che porta famiglie di insiemi fuzzy in famiglie di insiemi fuzzy. Un genere particolare di sistemi fuzzy e' quello delle "memorie associative fuzzy", che portano "palle" di insiemi fuzzy in "palle" di insiemi fuzzy (dove una "palla" esprime la continuita' del sistema fuzzy).
In tal modo Kosko potrebbe anche dimostrare che la logica fuzzy si presta meglio della teoria delle probabilita' a descrivere il mondo. La logica fuzzy, che e' in grado di replicare tutti i risultati della teoria delle probabilita', anzi persino di renderne conto senza postulare l'esistenza del caso (per esempio, la frequenza relativa e' una misura di quanto un insieme e' sottoinsieme di un altro insieme), si presta meglio a descrivere il mondo. Per esempio, se la probabilita' che in un frigorifero ci sia una mela e' 50% e in un altro frigorifero c'e' mezza mela e' ovvio che i due frigoriferi si trovano in due stati diversi, anche se quegli stati sono equivalenti dal punto di vista della loro incertezza numerica: il primo e' uno stato casuale, il secondo e' uno stato fuzzy (ambiguo, ma ancora deterministico). Kosko si domanda se la Meccanica Quantistica tratta la casualita' o l'ambiguita' dell'universo: un'onda di probabilita' misura la probabilita' che una particella si venga a trovare in una certa regione dello spazio oppure il grado in cui una nuvola di elettroni copre quella regione? L'universo e' casuale o deterministico? Einstein avrebbe probabilmente preferito una Meccanica Quantistica basata sulla fuzzy logic.
Uno dei fatti piu' antipatici della Scienza moderna e' la netta e rigida separazione fra le scienze della mente e le scienze del resto dell'universo. Mentre da un lato Meccanica Quantistica e Relativita' Generale sembrano convergere sempre piu' verso una formulazione unificata delle leggi della Natura, la Neurofisiologia e la Psicologia stanno pervenendo a un modello altrettanto solido e coerente, ma di tutt'altra forma. Sembrerebbe che l'essenza dell'universo e delle sue leggi cambi drasticamente nel momento in cui si varca la soglia del nostro cranio. D'altro canto i due mondi appaiono separati da un abisso incolmabile.
Se fosse possibile ricostruire la Meccanica Quantistica utilizzando un principio di "ambiguita'", invece che un principio di "incertezza", potremmo descrivere il mondo con la logica fuzzy. Al tempo stesso abbiamo scoperto delle relazioni matematiche fra sistemi fuzzy e sistemi neurali, ovvero dovrebbe essere possibile descrivere anche il cervello con la logica fuzzy. Allora avremmo trovato il ponte che colma quell'abisso.
Kosko fa notare che molte leggi della Fisica dovrebbero essere reversibili, ma non lo possono essere perche' altrimenti si viola proprio il postulato della sua casualita': se nel passare da uno stato X a uno stato Y esisteva un certo grado di probabilita', una volta che quella transizione di stato si sia verificata quel grado di probabilita' non esiste piu', in quanto e' diventato certezza; nel tornare indietro pertanto la probabilita' e' uno. Se si usa la logica fuzzy, invece, l'"ambiguita'" di un evento rimane sempre la stessa, prima e dopo il suo essersi verificato, e un'ipotetica ripetizione alla rovescia sarebbe perfettamente coerente.
Forse e' l'uomo, nella sua immane ignoranza delle cause fondamentali dell'universo, a giocare a dadi, e non Dio. .sp 5

 

Bibliografia:

 Aleliunas R. (1988): A new normative theory of probabilistic logic (Proc Biennial Conference of the CSCSI p.67)
 Belnap N. (1982): Gupta's rule of revision theory of truth (Journal of Philosophical Logic n.11 p. 103)
 Bunt H. (1985): Mass-terms and model-theoretic semantics (Cambridge Univ Press)
 Carbonell J. (1983): Derivational analogy (Proc AAAI)
 Churchland P. (1979): Scientific realism and the plasticity of mind Cox R. (1961): The algebra of probable inference (John Hopkins Press)
 Dempster A. (1968): A generalization of Bayesian inference (Journal Royal Statistical Society n.B30 p.205)
 Dubois D. & Prade H. (1988): Possibility theory (Plenum Press)
 Dummett M. (1978): Truth and other enigmas (Harvard Univ Press)
 Dworkin R. (1977): Taking rights seriously (Harvard Univ Press)
 Goodman N. (1972): Problems and projects (Bobbs-Merrill)
 Gupta A. (1981): Truth and paradox (Journal of Philosophical Logic n.11 p. 1)
 Hayes-Roth B. (1985): A blackboard architecture for control (Journal of Artificial Intelligence n.26 p.251)
 Hintikka J. (1983): The game of language (Reidel)
 Kline M. (1980): The loss of certainty (Oxford Univ Press)
 Kosko B. (1992): Neural networks and fuzzy systems (Prentice Hall)
 Kripke S. (1963): Semantical considerations on modal logic (Acta Philos. Fenn. n.16 p.83)
 Levesque H. (1989): A knowledge-level account of abduction (Proc. IJCAI p.1061)
 Lewis C.I. (1932): Symbolic Logic (Mineola)
 Michalsky R. (1983): Machine Learning I (Morgan Kaufman)
 Michalsky R. (1986): Machine Learning II (Morgan Kaufman)
 Michalsky R. (1990): Machine Learning III (Morgan Kaufman)
 Pearl J. (1988): Probabilistic reasoning in intelligent systems (Morgan Kaufman)
 Peirce C. (1965): Collected Papers (Harvard Univ Press)
 Polya G. (1954): Mathematics and plausible reasoning (Princeton Univ Press)
 Putnam H. (1981): Reason, truth and history (Cambridge Univ Press)
 Raiffa H. (1968): Decision Analysis (Addison-Wesley)
 Rorty R. (1979): Philosophy and the mirror of nature (Princeton Univ Press)
 Savage L. (1954): The foundations of statistics (John Wiley)
 Schank Roger (1982): Dynamic memory (Cambridge Univ Press)
 Schank R. (1989): Inside case-based reasoning (Lawrence Erlbaum)
 Shachter D. (1986): Evaluating influence diagrams (Stanford Univ Report)
 Shackle G. (1961): Decision, order and time (Cambridge Univ Press)
 Shafer G. (1976): A mathematical theory of evidence (Princeton Univ Press)
 Shafer G. & Tversky A. (1985): Languages and designs for probability judgement (Cognitive Science n.9. pag.309)
 Tversky A. & Kahneman D. (1986): The framing of decisions and the psychology of choice (Science n.211 p.453)
 Von Neumann J. & Morgenstern O. (1953): Theory of games and economic behavior (Princeton Univ Press)
 Winston G. (1979): Learning and reasoning by analogy (Communications ACM vol.23 n.12 p.689)
 Yager R. (1992): An introduction to fuzzy logic applications (Kluwier Academic)
 Zadeh L. (1975): Fuzzy sets and their applications (Academic Press)
 Zadeh L. (1978): A theory of approximate reasoning (Machine Intelligence n.9 p.149)
 Zadeh L. (1978): Fuzzy sets as a basis for a theory of possibilities (Systems n.1 p.3)
 Zadeh L. (1986): test-score semantics (Literary and Linguistic Computing, n.1 p.24
[Indietro]-[Avanti]