DOCUMENTS

elab.immagini
galileo
realtà virtuale
vrml
biomeccanica
esapodi
formula1
intelligenza







Papers
meccanica
sistemi
robotica


GLI INEDITI
La macchina della vita

[Indietro]-[Avanti]

La vita

Qualche miliardo di anni fa un fenomeno chimico diede origine a molecole dotate di una proprieta' singolare: sfruttando il materiale disponibile nel suo ambiente, ciascuna di queste molecole era in grado di catalizzare una sequenza di reazioni chimiche che produceva una sua copia esatta. Una classe particolare di tali molecole, la "cellula", riusci' a sopravvivere in quanto si doto' anche di strutture atte a proteggersi dai mille pericoli dell'ambiente e a procacciare il materiale necessario alla catalisi di cui sopra. La cellula e' il complesso apparato fisico che consente alla molecola di DNA di eseguire le sue funzioni replicanti. Semplificando un po', la cellula estrae energia dall'ambiente e la usa per costruire copie di se stessa.

Il corpo e la mente non sono che appendici a questa funzione, in quanto estendono le capacita' di protezione e approvvigionamento della cellula. Un insieme di cellule e' piu' "adatto" della singola cellula, ovvero ha piu' probabilita' di sopravvivere, in quanto ogni cellula puo' eseguire un compito specifico, ogni cellula puo' avere una "riserva", e cosi' via. Non si sa da cosa abbia avuto origine la vita sulla Terra, ma, una volta originata, sarebbe stata soggetta a un processo di evoluzione che avrebbe portato gradatamente da forme di vita piu' primitive a forme di vita piu' complesse.

Al crescere della complessita' del sistema, sarebbe emersa la necessita' di disporre di un sistema per coordinare le cellule: un sistema per comunicare, e quindi delle cellule specializzate a trasmettere messaggi, e un sistema per controllare, e quindi delle cellule specializzate a dirigere il lavoro delle altre cellule. Negli animali piu' evoluti si sono sviluppati soprattutto il sistema nervoso e il cervello, e, all'interno del cervello, i due emisferi cerebrali e il cerebellum. La cellula che domina questo scenario e' il neurone.

Ma e' vita questa? Basta la proprieta' di auto-replicazione a stabilire lo status di "vivente"? Ed e' proprio necessaria la proprieta' di auto-replicazione? Un uomo sterile non e' forse vivo? Se no, perche' la Terra nel suo insieme non potrebbe essere "viva", come sostengono certi movimenti mistico-ecologici? Churchland ha definito "vivente" ogni sistema fisico semichiuso che sfrutta il proprio ordine interno e il flusso di energia attraverso se stesso per mantenere o aumentare tale ordine: in tal caso la Biosfera soddisfa certamente la definizione, e pertanto va considerata alla stregua di ogni altro essere vivente.

A ben guardare non solo non sappiamo definire cosa sia l'intelligenza, ma neppure cosa sia la vita. Benche' la vita sia qualcosa di molto piu' empirico, osservabile, misurabile, anche la vita non sembra essere una proprieta' scientifica. Persino l'Enciclopedia Britannica esordisce con l'affermazione: "Non esiste una definizione che sia accettata da tutti". E' anche possibile che esistano forme di vita diverse da quelle che abbiamo scoperto su questo pianeta: ma quando una forma diversa puo' essere considerata "viva"?

A ben guardare usiamo il termine "vita" per indicare due fenomeni diversi, benche' intuitivamente collegati: la "vita" di un organismo, che va dalla sua nascita alla sua morte (quindi in senso "epigenetico"), e la "vita" come fenomeno globale degli organismi viventi, che va dalla nascita del primo organismo vivente fino alla morte dell'ultimo (quindi in senso "filogenetico"). Il fenomeno per cui un organismo "cresce" e il fenomeno per cui gli organismi nel loro insieme si "evolvono" sono due fenomeni di "sviluppo" intuitivamente legati l'uno all'altro, ma completamente diversi nella sostanza.

La vita, essendo parte di questo universo, dovrebbe in qualche modo essere riconducibile alle leggi che governano l'evoluzione dell'universo, ovvero alle leggi fisiche e chimiche. Come ha fatto notare Mayr, in Biologia dovrebbero manifestarsi tutti i principi fisici e chimici, mentre in Fisica e Chimica si manifestano soltanto alcune delle possibilita'. La Biologia dovrebbe "vedere" il mondo da una prospettiva piu' elevata e intuire pertanto delle sfumature che sono fuori portata per fisici e chimici; ma al tempo stesso essere coerente con le leggi fisiche e chimiche che descrivono l'evoluzione dell'universo.

Per la cronaca la scoperta che il cervello contiene particelle di magnetite, un materiale che interagisce fortemente con i campi magnetici esterni, potrebbe gettare un po' di luce sull'origine della vita. Secondo Kirschvink gli eucarioti (gli organismi viventi complessi) avrebbero avuto origine dal primo batterio in grado di immagazzinare cristalli magnetici. Il magnetismo interno consente a un organismo di usare il campo magnetico terrestre per orizzontarsi e per cercare l'ossigeno. Questi batteri "magnetici" avrebbero in seguito ingoiato altri batteri, i quali sarebbero a loro volta diventati organi specializzati dell'organismo complessivo.

Codice genetico e vita

La lotta per la sopravvivenza sembra essere la protagonista di questo giallo millenario. La lotta per la sopravvivenza e' un motore creativo grazie al quale alcune specie si estinguono e nuove specie hanno origine. L'adattamento causa selezione e la selezione causa mutazione. Tutto e' funzione dell'ambiente in cui si deve sopravvivere.

Per Lewontin i principi fondamentali della vita sono: la variazione fenotipica (i membri di una stessa specie hanno diversi fenotipi, ovvero diverse forme, dimensioni, comportamenti, e cosi' via); la differenziazione darwiniana (diversi fenotipi hanno diverse probabilita' di sopravvivenza e riproduzione in ambienti diversi); e l'ereditarieta' (genitori e prole hanno fenotipi simili).

Esiste di fatto una "memoria" della vita, che (indirettamente) "ricorda" quali caratteri fenotipici meglio si prestano a sopravvivere nell'ambiente. Questa memoria e' codificata in un insieme di geni.

L'informazione genetica e' composta da quattro unita' chimiche che fungono da alfabeto per un codice scritto lungo due lunghe stringhe complementari, arrotolate l'una attorno all'altra in una sorta di "doppia elica". Il codice che esse contengono costituisce la serie di istruzioni che stabiliscono come l'organismo debba crescere e riprodursi. Il processo dell'"epigenesi", che trasforma il genotipo (informazione genetica) in fenotipo (l'organismo), puo' essere visto come una serie di istruzioni logiche che danno luogo a reazioni chimiche. I geni memorizzano pertanto informazioni in forma digitale in un "nastro" di istruzioni alla Turing.

L'organismo genera nuovi organismi con le proprie caratteristiche copiando i propri geni. Le mutazioni sono rese possibili dal fatto che questo processo di "copia" non e' mai perfetto. Il caso avrebbe la sua parte.

Il cambiamento evolutivo ha pertanto origine dall'interazione fra due processi elementari: la variazione genetica e la riproduzione differenziale (o selezione naturale). Questi due processi sono del tutto indipendenti, ovvero non esiste una relazione diretta fra l'esperienza di un organismo e i geni che trasmette ai suoi discendenti.

Se il problema e' quello di sopravvivere, si sarebbe tentati di dire che la soluzione piu' semplice consiste semplicemente nell'immortalita'. L'immortalita' (a prescindere dagli infiniti pericoli quotidiani che la renderebbero comunque improbabile) non e' pero' alla nostra portata a causa dei continui cambiamenti dell'ambiente, che oggi puo' favorire un certo tipo di essere e domani condannarlo a una rapida morte. Per poter disporre della flessibilita' necessaria ad adattarsi a un ambiente mutevole e' molto piu' pratico costruire un essere che, all'occorrenza, puo' generare una copia di se stesso con qualche variante. Per il principio di conservazione un essere e' fisicamente impossibilitato a costruire un essere della sua stessa complessita'; puo' pero' scrivere le istruzioni per costruirlo, che occupano molto meno spazio (uno spazio persino microscopico) e un meccanismo per eseguire quelle istruzioni. In questo modo si perde un po' di tempo a costruire la replica, ma tutti i requisiti sono soddisfatti. Ecco allora che la soluzione scelta nei millenni dalla Natura risulta perfettamente adeguata al problema: la popolazione di individui in grado di generare nuove popolazioni con variazioni garantisce il massimo di flessibilita'.

Se l'obiettivo finale della vita e' la vita stessa (cioe' sopravvivere), allora e' probabile che tutto cio' che facciamo non abbia altro scopo che quello di consentirci, in ultima analisi, di copiare i nostri geni. Come dice Wilson, la mente stessa non sarebbe altro che una macchina per copiare geni.

Auto-organizzazione e vita

L'epigenesi non e' pero' del tutto convincente. Intanto il codice genetico e' mono-dimensionale, ma deve determinare lo sviluppo di un organismo tri-dimensionale. Poi, se anche avessimo la descrizione completa del codice genetico di un organismo, non saremmo ancora in grado di dedurne come l'organismo e' fatto.

Edelman ha proposto che gli animali assumano la forma che hanno per effetto di meccanismi regolatori a livello molecolare. Durante le prime fasi dello sviluppo questi meccanismi avrebbero origine dall'interazione fra la superficie della cellula con altre superfici cellulari. La competenza di una cellula sarebbe il frutto della sua posizione, della sua storia di movimenti e della storia di movimenti delle cellule vicine. In altre parole lo sviluppo della singola cellula sarebbe determinato in parte dalle cellule vicine, piuttosto che dal solo codice genetico. In un certo senso l'"indirizzo" a cui si trova la cellula e' uno dei parametri che determinano come si evolvera'.

Tutto cio' e' sorprendentemente in linea con un principio che, secondo Turing, e' alla base della morfogenesi: certe reazioni chimiche possono originare schemi spaziali ordinati a partire da schemi disordinati.

L'idea che le reazioni molecolari a cui si deve lo sviluppo dell'organismo dipendano dal punto in cui avvengono (ovvero che siano "topobiologicamente vincolate") sottintende un'idea ancora piu' cruciale: che lo sviluppo si auto-regoli. Le cellule del sistema si scambiano messaggi e in tal modo suppliscono alla carenza di informazioni del codice genetico.

L'"auto-regolazione" potrebbe in effetti essere un principio di vasta portata. Secondo Kauffman, per esempio, la selezione naturale non puo' essere l'unica forza ad agire sull'evoluzione biologica. Tutti gli organismi complessi tenderebbero verso una qualche forma di auto-organizzazione che Kauffman chiama "anti-caos". Il genoma e' un sistema complesso particolare. La sua evoluzione nel tempo sarebbe pertanto condizionata da quella tendenza di tutti i sistemi complessi verso l'anti-caos. "Ordine globale da interazione locale", come dice Kauffman. La vita stessa avrebbe avuto origine semplicemente da questa tendenza di tutti i sistemi complessi verso l'auto-organizzazione: la probabilita' della vita sarebbe in realta' elevatissima in tutti i casi in cui si forma un sistema complesso.del genere che Kauffman chiama "rete autocatalittica".

Il caso di Darwin, insomma, potrebbe non essere cosi' casuale. Ancora una volta Dio potrebbe non giocare ai dadi.

Entropia e vita

La Termodinamica studia sistemi che si trovano in stati di equilibrio. In teoria, pertanto, la Termodinamica e' del tutto inutile per spiegare la vita, che e' uno stato di non equilibrio. In pratica, invece, una volta che venga adattata al caso del disequilibrio, puo' rappresentare la soluzione al problema dei dadi ci sui sopra.

Il fascino della Termodinamica sta nella differenza fra microstato e macrostato. Siccome ogni sistema termodinamico fluttua in maniera stocastica fra un insieme di microstati, non e' mai possibile sapere quale microstato produce un dato macrostato. In effetti un modo per definire il macrostato di un sistema e' di considerarlo come l'insieme di tutti i microstati che esibiscono un certo insieme di proprieta' medie.

Per poter studiare i fenomeni termodinamici conviene introdurre il concetto di "entropia". L'entropia di un sistema e' il logaritmo del numero dei suoi microstati.

Il concetto di entropia puo' essere usato anche al di fuori della Termodinamica. Per esempio, l'insieme delle parole italiane di cinque lettere ("corto", "magro", "lungo", etc) ha un'entropia che e' il logaritmo del numero di tali parole.

L'entropia e', indirettamente, anche una misura del disordine. Per il secondo principio della Termodinamica il disordine aumenta nel tempo (o, equivalentemente, tutti i processi naturali generano entropia). In ultima analisi e' questa la ragione per cui gli edifici decadono nel tempo, mentre non succede mai che un edificio cresca dal nulla. Anche quando viene costruito dell'ordine all'interno di un sistema, deve essere stato costruito almeno altrettanto disordine nel resto del mondo; per esempio, ogni stella e' un sistema nel quale l'entropia sta diminuendo man mano che viene bruciato l'idrogeno, ma al tempo stesso la stella emana calore che contribuisce ad elevare l'entropia del resto dell'universo.

L'"energia libera" e' invece la misura di energia disponibile per compiere lavoro e diminuisce nel tempo. Man mano che l'energia libera diminuisce, l'entropia aumenta. L'equilibrio e' lo stato di massima entropia in quanto nello stato di equilibrio il disordine e' totale, non "succede" piu' nulla. In uno stato di perfetto equilibrio, in particolare, non ci sarebbe vita. Per il secondo principio della Termodinamica il disordine di un sistema isolato tende a crescere fino a raggiungere l'equilibrio.

Secondo le moderne teorie cosmologiche all'inizio l'universo si trovava nello stato di massima entropia; fu l'espansione "inflazionaria" dello spaziotempo (il cosiddetto "big bang") a fornire la quantita' di energia libera che ancora consumiamo e a tenere l'universo lontano dallo stato di equilibrio.

E' facile allora trovare un parallelo fra l'evoluzione della vita sulla Terra e l'evoluzione dell'universo in espansione: anche la vita ha una sorgente stabile di energia libera (per esempio, il Sole) che la mantiene lontana dallo stato di equilibrio. Non e' escluso che alla fin fine la sorgente di energia libera sia la stessa per entrambi i fenomeni, visto che il Sole esiste e produce energia e quindi vita a causa dell'espansione dell'universo.

L'evoluzione sarebbe allora soltanto una manifestazione della tendenza generale dell'ordine a decadere in disordine. Dopo tutto esiste una sola legge della Scienza che sappia distinguere fra passato e presente: il secondo principio della Termodinamica. L'evoluzione, che segue una precisa direzione nel tempo, potrebbe discendere in qualche modo da quel principio.

Le descrizioni dinamiche sono deterministiche, reversibili e richiedono una conoscenza dettagliata dello stato iniziale; mentre le descrizioni termodinamiche sono stocastiche, irreversibili e richiedono una conoscenza soltanto parziale dello stato iniziale. Alcuni fenomeni richiedono una descrizione dinamica, altri una descrizione termodinamica. L'evoluzione e' irreversibile (legge di Dollo: una specie non riappare mai dopo essersi estinta, anche se le condizioni dell'ambiente ritornassero ad essere favorevoli a quella specie) e pertanto rientrerebbe nel campo d'azione della Termodinamica.

L'applicazione della Termodinamica alla Biologia divenne fattibile quando Schrodinger risolse (o penso' di aver risolto) un apparente paradosso: mentre la direzione di cambiamento nell'universo sembra volgere verso un disordine sempre maggiore (e entropia pertanto crescente), la direzione di cambiamento nell'evoluzione delle specie sembra volgere verso un ordine sempre maggiore (e entropia decrescente). In realta' l'esistenza dei sistemi viventi dipende dalla loro capacita' di aumentare l'entropia dei loro ambienti. La seconda legge della Termodinamica vale ancora, ma a livello di ambiente.

Seguendo Schrodinger, Prigogine considera gli organismi viventi come strutture dissipative in stati di disequilibrio. Un sistema che non sia in equilibrio presenta una variazione di entropia che e' data dalla somma della variazione di entropia dovuta alla sorgente interna di entropia piu' la variazione di entropia dovuta all'interazione con l'esterno; la prima e' certamente positiva, ma la seconda puo' benissimo essere negativa, e pertanto l'entropia totale puo' anche diminuire.

Secondo Prigogine le condizioni di non equilibrio permettono lo sviluppo spontaneo di sistemi auto-organizzantesi (le "strutture dissipative" di cui sopra), i quali mantengono la loro organizzazione interna, a dispetto dell'aumento generale di entropia, espellendo materia ed energia nell'ambiente. Gran parte della Natura e' composta di sistemi dissipativi, di sistemi soggetti a flussi di energia o di materia. I sistemi dissipativi hanno la proprieta' di conservare la propria identita' proprio grazie all'interazione con l'esterno. Le nuvole sono esempi di sistemi dissipativi fisici.

In particolare un organismo "vive" in quanto assorbe energia dall'esterno e la elabora per generare uno stato interno di entropia piu' bassa. Un organismo "vive" fintantoche' riesce a evitare di cadere nello stato di equilibrio.

Layzer, ispirandosi alla cosmologia, propone un'altra soluzione al paradosso della creazione di ordine: se l'entropia dell'ambiente aumenta piu' di quanto aumenti l'entropia del sistema, il sistema diventa piu' ordinato rispetto all'ambiente; entropia e ordine possono pertanto aumentare contemporaneamente senza violare il secondo principio. Questo fenomeno puo' essere descritto piu' in generale a questo modo: se l'espansione di un insieme di sistemi e' cosi' rapida che il numero di stati occupati aumenta meno rapidamente del numero di stati disponibili (ovvero se lo spazio di fasi diventa piu' grande), entropia e ordine possono aumentare simultaneamente. Layzer dimostra che lo spazio di fasi dell'evoluzione e' lo spazio di fasi genetico e che questo puo' effettivamente aumentare secondo il processo di cui sopra.

Wiley e Brooks fanno vedere che tale aumento si verifica effettivamente. Innanzitutto essi, a differenza di Prigogine, ritengono che i sistemi biologici siano intrinsecamente diversi dalle strutture dissipative, in quanto il loro ordine e la loro organizzazione sono dovuti all'informazione genetica che portano; ovvero in quanto i sistemi biologici esibiscono ordine e organizzazione basati su proprieta' che sono inerenti ed ereditabili. Poi dimostrano che e' l'entropia dell'informazione biologica ad aumentare, tanto nella crescita quanto nell'evoluzione. L'irreversibilita' dell'evoluzione risulta cosi' essere un caso particolare della seconda legge della Termodinamica e l'ordine biologico risulta essere una sua conseguenza diretta. La creazione di nuove specie e' resa necessaria dalla seconda legge ed e' un fenomeno "improvviso" del tutto simile ai cambiamenti di fase (come, per esempio, a cento gradi l'acqua diventa vapore). L'interazione fra le specie e l'ambiente sarebbe invece un fattore secondario nel determinare l'evoluzione delle specie. In definitiva le specie sono sistemi in uno stato di disequilibrio e nuove specie vengono create in base alla seconda legge della Termodinamica.

Sia come sia, sembra lecito accettare l'idea che l'entropia sia in qualche modo responsabile anche dell'evoluzione.

Margalef estende persino l'idea a interi ecosistemi, ovvero propone che un ecosistema sia un sistema controllato dalla seconda legge della Termodinamica. In definitiva Wicken ritiene che le entita' piu' generali soggette alla "selezione" non siano i geni o le popolazioni, ma "schemi informativi di flussi termodinamici", un termine sotto il quale ricadono entita' complesse come gli ecosistemi e i sistemi socioeconomici. Secondo Wicken la selezione naturale non e' una forza esterna, bensi' un processo interno per il quale le macromolecole vengono accumulate in proporzione alla loro utilita' per l'efficienza del sistema globale.

L'universo nel suo complesso sembra soggetto a un'evoluzione non troppo dissimile da quella delle specie. Una qualche forma di cambiamento ha fatto si' che si formassero le galassie e poi pianeti; e anche questa forma di cambiamento potrebbe essere ricondotta a una legge di "selezione". Si puo' cioe' riconoscere (con Layzer) un processo generale di "costruzione di gerarchie", il quale si manifesta tramite due sottoprocessi: uno di differenziazione (per esempio, la specializzazione cellulare) e uno di aggregazione (per esempio, la formazione di tessuti). L'espansione dell'universo e l'attrazione gravitazionale sono due processi conflittuali che svolgono piu' o meno la stessa funzione di differenziazione e aggregazione per quanto riguarda gli oggetti astronomici. Anche lo sviluppo psicologico (secondo Piaget) consiste in una gerarchia di costruzioni. E' uno schema di due forze contrastanti (una a favore dell'ordine e una a favore del disordine) che sembra ricorrere in natura.

Per la cronaca quanto detto fin qua puo' essere anche espresso sotto forma di informazione, in quanto esiste una relazione fra l'entropia e l'informazione di un sistema. L'informazione puo' essere vista come l'opposto dell'entropia, o, piu' precisamente, come la differenza fra entropia potenziale e entropia attuale. C'e' un massimo a cui l'entropia potrebbe arrivare, il disordine totale; se non ci arriva, cio' che manca per arrivarci e' l'informazione.

La vita artificiale

La disciplina della "vita artificiale" ha come obiettivo quello di creare la vita tramite processi non biologici. Qualunque programma di questo genere si scontra innanzitutto con l'esigenza di definire cosa sia la vita, che, come abbiamo detto, non sembra essere ancora alla portata di nessuno.

Da Von Neumann in poi un postulato implicito in tutti coloro che hanno studiato modelli computazionali della vita e' che la vita sia una classe particolare di automi (nel senso della macchina di Turing). Fin dal primo automa "vivente" di Von Neumann, la proprieta' che viene solitamente associata con la "vita" e' la capacita' di riprodursi. L'automa di Von Neumann era concepito per eseguire le istruzioni di un codice (un nastro alla Turing) su come assorbire materia dall'ambiente e manipolarla per costruire un proprio simile. Di fatto, prima ancora della scoperta del DNA, Von Neumann era giunto alla conclusione che la vita richiedesse un codice di trasmissione fra una generazione e l'altra, un mezzo per spiegare all'organismo come crescere. Von Neumann anticipo' anche altre due proprieta' della vita: la capacita' di aumentare la propria complessita' (un organismo non e' solo in grado di generare suoi simili, ma persino esseri piu' complessi, come dimostra l'evoluzione) e la capacita' di auto-organizzarsi. Il suo "automa cellulare" (come sarebbe stato chiamato dai posteri) mancava soltanto di un'informazione: gli algoritmi genetici usati dalla vita reale per determinare l'evoluzione della specie.

In un automa cellulare ogni cellula dell'automa obbedisce a una regola. Per esempio, nel gioco Life, una cellula viva sopravvive se due o tre delle cellule vicine sono vive; altrimenti muore. Regole non molto piu' complicate sono alla base dell'automa mono-dimensionale di Wolfram (quello di Von Neumann e quello di Life sono bi-dimensionali). Wolfram ha anche trovato analogie fra il comportamento del suo automa cellulare e diversi fenomeni naturali (per esempio, i disegni delle conchiglie e le forme dei fiocchi di neve).

Tutti questi automi cellulari hanno in comune qualcosa che Langton chiama "il trasferimento e la conservazione di informazione". Gli organismi viventi non usano soltanto materia o energia: usano informazione per crescere e per riprodursi, e per fare qualsiasi altra cosa facciano. Nei sistemi viventi la manipolazione di informazione domina la manipolazione di energia. Langton dimostra che l'informazione e' determinante per la vita di un sistema: se poca informazione si trasmette nel sistema, l'informazione puo' facilmente essere conservata ma non si puo' spostare, e pertanto non si puo' avere vita; se troppa informazione si trasmette nel sistema, l'informazione e' difficile da conservare e pertanto non si puo' avere vita; soltanto in un caso intermedio (che Langton paragona allo fase liquida, in contrasto con quella solida e quella gaseosa) la vita e' possibile; e in quello stato l'informazione si sposta e puo' essere conservata. Se il sistema si viene a trovare in quello stato, cio' implica che il sistema deve essere complesso. La complessita' risulterebbe allora una proprieta' intrinseca della vita. Il punto in cui la complessita' e' massimizzata e l'entropia e' ottimizzata e' proprio quello in cui il sistema risulta equivalente a una macchina computazionale universale... Non a caso Langton definisce la vita come "una proprieta' dell'organizzazione della materia", in maniera indipendente dal "materiale" utilizzato. L'importante e' che il sistema sia complesso al punto giusto.

Fra i tanti tipi di "vita" possibili uno particolarmente interessante, e uno che e' dimostrato funzionare su questo pianeta, e' quello generato dalle leggi genetiche di cui siamo a conoscenza. Un nuovo tipo di macchina ha avuto origine dalla trasposizione nel computer di tali leggi genetiche.

I cosiddetti "algoritmi genetici" applicano iterativamente una serie di operatori (ispirati dai loro omonimi genetici) a una popolazione di soluzioni potenziali di un dato problema, in modo da generare via via nuove popolazioni che risolvano il problema in maniera sempre migliore. Holland e altri ritengono che il miglior modo di risolvere problemi sia cioe' quello di imitare gran parte degli organismi esistenti, i quali evolvono grazie a due processi fondamentali: la selezione naturale e la riproduzione sessuale. Il primo determina quali organismi di una generazione sopravvivano per riprodursi e il secondo garantisce un minimo di ricombinazione genetica.

In realta' nell'ottica di Holland a evolvere non e' il singolo individuo della popolazione, ma la popolazione nel suo insieme. E' il "sistema" che cambia se stesso per adattarsi al problema che deve risolvere. Questo cambiamento adattativo costituisce di fatto un'alternativa all'apprendimento dei sistemi esperti e all'addestramento delle reti neurali. Al tempo stesso gli algoritmi genetici discendono dai metodi di "ricerca" all'interno di spazi di problema. Se i metodi di ricerca "deboli" costituiscono un passo avanti rispetto alla ricerca "cieca", gli algoritmi genetici, incorporando il criterio di "competizione", rendono la ricerca ancora piu' rapida ed efficace.

Prima di tutto in un mondo governato da leggi genetiche occorre disporre di una funzione di misura per calcolare quanto "adatto" sia un individuo. Il processo di selezione ha inizio con una popolazione casuale di individui, ovvero di elementi dello spazio delle soluzioni. Per ogni individuo della popolazione viene calcolata la misura di adattamento (ovvero quanto la sua soluzione si discosta da quella ideale); la probabilita' di selezione di un individuo e' allora proporzionale alla sua misura di adattamento. Il passo successivo consiste nel selezionare un sottoinsieme della popolazione sulla base di quelle probabilita'. A questo sottoinsieme viene consentito di "riprodursi". In pratica tutto cio' e' equivalente a dire che la probabilita' di riprodursi in un certo numero di esemplari e' proporzionale alla misura di adattamento: quando tale misura e' molto bassa, la probabilita' e' cosi' bassa che non vi sara' (probabilmente) alcuna riproduzione; quando e' alta, vi sara' piu' di un discendente. I discendenti non sono esattamente identici in quanto vengono trattati da appositi "operatori genetici" di ricombinazione (crossover), mutazione e inversione.

Ogni punto dello spazio delle soluzioni viene rappresentato come una stringa di simboli (analogamente al cromosoma di geni). La ricombinazione concatena parte del cromosoma (della stringa) dell'individuo prescelto con parte del cromosoma (della stringa) di un altro individuo. L'operatore di ricombinazione spinge pertanto la popolazione nel suo insieme a focalizzarsi intorno agli individui piu' "adatti". La mutazione consiste invece nel generare un nuovo cromosoma (una nuova stringa) attraverso un cambiamento casuale dei suoi simboli (geni): in tal modo ogni punto dello spazio delle soluzioni ha una probabilita' non nulla di essere preso in considerazione. L'inversione inverte semplicemente l'ordine dei geni di un tratto della stringa (del cromosoma). Questi tre operatori sembrano del tutto arbitrari, ma in realta' ciascuna di queste operazioni ha una semantica ben definita, che ha come effetto quello di rendere piu' efficiente la ricerca.

Operatori cosi' semplici possono dar origine in poche generazioni a organismi estremamente complessi, come dimostrano, per esempio, i "biomorfismi" di Dawkins: partendo da una figura composta da un solo puntino in un mondo bidimensionale, il sistema di Dawkins in sole ventinove generazioni si evolve fino a generare una popolazione di figure d'insetto. Gli algoritmi della selezione (a loro volta probabilmente selezionati in milioni d'anni di evoluzione) sono tanto semplici quanto efficaci, e i loro effetti su una popolazione non particolarmente stabile sono immediati e devastanti. Popolazioni come quelle rappresentate dalle specie attuali sono assai piu' stabili, essendo state a loro volta selezionate appunto da quegli stessi algoritmi, e questo spiega perche' non ci presentano lo stesso ritmo di variazione.

In natura esistono molti altri operatori genetici. Per cominciare, tutti gli organismi complessi hanno un genotipo che contiene due (e non uno solo) cromosomi, ciascuno dei quali esprime la stessa informazione. Poi esistono diverse variazioni dell'operatore di ricombinazione, nonche' operatori di "segregazione", "traslocazione", "duplicazione", "cancellazione" e cosi' via. Di tutti e' possibile fornire una "replica" informatica.

Gli algoritmi genetici possono servire a un primo importante scopo: imparare a classificare. Il classificatore di Holland, per esempio, e' un sistema di produzione che impara nuove regole per migliorare la propria performance. All'inizio genera a caso una popolazione di regole. Poi calcola la "performance" di ciascuna regola, e di ciascuna regola la probabilita' di selezione, data dal rapporto fra la sua performance e la somma totale di tutte le performance; secondo questa distribuzione di probabilita' e applicando gli operatori genetici alla popolazione attuale, il sistema genera una nuova popolazione di regole e riprende da capo.

Goldberg ha verificato sperimentalmente un'importante proprieta' dei sistemi "classificatori", gia' prevista teoricamente da Holland: la tendenza al formarsi di "gerarchie standard", nelle quali una regola generale copre le situazioni normali ma diverse regole di eccezioni prendono il sopravvento nelle situazioni in cui quel "default" sarebbe improprio.

Koza, generalizzando le idee di Holland, ha costruito un ambiente in cui gli algoritmi genetici danno origine a un programma per risolvere un qualche problema. Gli elementi a cui Koza applica gli algoritmi genetici non sono caratteri, ma intere porzioni di programmazione. Questi "sottoprogrammi" vengono ricombinati fino a formare un programma che risolve il problema.

In altre parole il programma "evolve" da solo finche' riesce a risolvere il problema nel modo migliore possibile. Il fascino di questa "programmazione genetica" e' che non si deve piu' programmare: il programma si scrive da se'. Basta lasciargli il tempo di evolvere.

Un altro uso degli algoritmi genetici e' la sintesi di reti neurali: invece di lasciare che una rete neurale raggiunga la configurazione stabile tramite variazioni casuali, un insieme di algoritmi genetici ricerca nello spazio delle architetture neurali possibili quella che meglio si confa' al problema. Ancora una volta si tratta di partire con una popolazione (questa volta una popolazione di reti neurali) e di lasciarla evolvere in accordo con la selezione naturale (le reti neurali si riproducono in funzione della loro performance).

Gli algoritmi genetici possono ovviamente essere utilizzati anche per simulare la vita stessa. L'obiettivo di Ray e' quello di creare "creature" (sequenze di istruzioni di computer) in grado di competere per lo spazio di memoria dentro il computer. In poche parole Ray vuole creare dei "virus" di computer in grado di migliorarsi di continuo. L'aspetto innovativo del sistema di Ray e' che l'evoluzione a' "aperta", ovvero (a differenza dei mondi di Dawkins e Holland) non esiste alcuna funzione che misuri quanto una "creatura" e' adatta: e' la "vita" stessa a stabilire quanto una creatura sia adatta a sopravvivere. Nel mondo artificiale di Ray un organismo di ottanta istruzioni si evolve in organismi piu' semplici e piu' efficienti nel competere per lo spazio di memoria: in tutto e per tutto l'analogo dei parassiti!

Hillis ha dimostrato con una simulazione genetica che la teoria di Hamilton ha un fondamento perlomeno computazionale. Secondo Hamilton l'evoluzione viene accelerata dalla presenza di parassiti (in particolare gli organismi avrebbero adottato la riproduzione sessuale appunto per far fronte alle invasioni di parassiti). La popolazione di Hillis, attaccata da parassiti che si evolvono in concomitanza, si evolve piu' rapidamente e preferisce la riproduzione sessuale a quella asessuale. Come sostiene Hamilton, la vita e' un processo simbiotico che necessita di rivali.

I virtuosi dei parassiti sono gli anonimi creatori dei virus di computer. Cohen, il progenitore di tutti loro (perlomeno il primo a finire sui giornali per aver infettato tutti i computer della sua universita') intende costruire virus che siano organismi "simbiotici", ovvero che portino effetti positivi alle macchine infettate. Cohen sostiene che il suo virus piu' efficace e' effettivamente un essere vivente: tant'e' che lui stesso ne ha perso il controllo. (Per la cronaca, Cohen ha tuttora difficolta' sia a trovare lavoro sia a pubblicare i risultati delle sue "ricerche" ed e' vittima di una vera e propria persecuzione da parte delle autorita' accademiche).

Conclusione: siamo prima intelligenti e poi vivi, o viceversa?

I primi tentativi di simulare computazionalmente la vita ci dicono che: E' possibile costruire organismi viventi con materiale non organico, in particolare con software.

Bibliografia

 Brooks D. & Wiley E. (1992): Evolution as entropy (Univ of Chicago Press)
 Churchland Paul (1984): Matter and consciousness (MIT Press)
 Cohen F. (1985): Computer viruses (Cohen)
 Dawkins R. (1976): The selfish gene (Oxford Univ Press)
 Dawkins R. (1987): The blind watchmaker (Norton)
 Edelman G. (1988): Topobiology (Basic)
 Goldberg A. (1989): Genetic algorithms (Addison Wesley)
 Hamilton  W. (1990): Sexual reproduction as an adaptation to resist parasites" (Proc of National Academy of Sciences n.87 p.3566)
 Hillis D. (1989): The connection machine (MIT Press)
 Holland J. (1992): Adaptation in natural and artificial systems (MIT Press)
 Kauffman S. (1992): Origins of order (Oxford Univ Press)
 Koza J. (1990): Genetic programming (Stanford University report)
 Langton C. (1986): "Studying artificial life with cellular automata" (Physica 22D p.120)
 Layzer  D. (1975): The arrow of time (Scientific American n.233 p.56)
 Levy S. (1992): Artificial Life (Pantheon)
 Lewontin R. (1981): Human diversity (W.H.Freeman)
 Margalef R. (1968): Perspectives in ecological theory (Univ of Chicago Press)
 Mayr E. (1982): The growth of biological thought (Harvard Univ Press)
 Prigogine I. e Stengers I. (1984): Order out of chaos (Bantham)
 Ray T. (1992): Evolution and optimization of digital organisms (manoscritto)
 Sarnat H. (1974): Evolution of the nervous system (Oxford Univ Press)
 Schrodinger  E. (1944): What is life (Cambridge Univ Press)
 Turing A. (1952): The chemical basis of morphogenesis (Philosophical Transactions of the Royal Society n.237 p.37)
 Von Neumann J. (1966): Theory of self-reproducing automata (University of Illinois Press)
 Wicken J. (1987): Evolution, information and thermodynamics (Oxford Univ Press)
 Wilson E. e Lumsden C. (1981): Genes, Mind and Culture (Harvard Univ Press)
 Wolfram S. (1984): Computer software in science and mathematics (Scientific American)
[Indietro]-[Avanti]