La seconda rivoluzione scientifica: introduzione. Le specificità della materia vivente

Storia della Scienza (2004)

La seconda rivoluzione scientifica: introduzione. Le specificita della materia vivente

Gilberto Corbellini

Le specificità della materia vivente

Apartire dalla seconda metà dell'Ottocento le scienze della vita hanno progressivamente maturato un'autonomia metodologica e concettuale che ha consentito l'emergere di spiegazioni coerenti, convergenti e articolate dei fenomeni biologici a livello di dinamiche funzionali ed evolutive, nonché dei fattori che determinano le condizioni di salute o malattia. Le scienze biologiche e mediche hanno, pur con sfasature interne, parzialmente superato l'ispirazione epistemologica prevalente nell'Ottocento per cui la conoscenza scientifica della materia vivente avrebbe dovuto rispecchiare a livello metodologico e teoretico il sapere fisico e chimico. In altri termini, hanno preso le distanze dall'idea che la fisica e la chimica potessero fornire oltre a tecniche di indagine e indicazioni metodologiche anche le definizioni operative dei concetti e dei modelli teorici elaborati per spiegare le funzioni e le disfunzioni dei processi vitali. Quella ispirata dal cosiddetto 'riduzionismo fisicalista' è stata comunque un'illusione persistente, che ha stimolato per contrappasso la reiterazione di programmi di ricerca alimentati da metafisiche neovitaliste, e la nascita di una prospettiva che ha adottato la denominazione di 'olismo' od 'organicismo', al suo interno fortemente differenziata. Questo punto di vista ha enfatizzato le dimensioni funzionali integrative o sistemiche delle forme di organizzazione adattativa della materia vivente. La contrapposizione di queste diverse linee di pensiero non è stata sterile. I diversi e successivi tentativi nell'una o nell'altra direzione ‒ riconducendo la vita a spiegazioni fisico-chimiche e applicando una metodologia sperimentale univoca; oppure dimostrando che la vita dipende da qualcosa al di là delle proprietà della materia e mettendo in dubbio le spiegazioni causali del metodo sperimentale ‒ hanno prodotto una messe incredibile di dati empirici, confutato innumerevoli ipotesi, e prodotto l'emergere di efficaci ed efficienti modelli euristici ed esplicativi delle dinamiche funzionali ed evolutive che caratterizzano i sistemi viventi.

Anche se in modo inevitabilmente schematico, è possibile tentare di ricostruire l'evoluzione delle strategie metodologiche e delle concettualizzazioni delle conoscenze biomediche, a partire dagli anni Settanta dell'Ottocento, utilizzando come coordinate tematiche lo statuto e le strategie della sperimentazione o dei metodi statistici in biologia e medicina, la concettualizzazione delle 'specificità' che caratterizzano l'organizzazione funzionale della materia vivente e, infine, i modelli elaborati per strutturare esplicativamente i dati empirici e catturare le dinamiche adattative all'origine delle complesse manifestazioni della vita.

Il problema del metodo nelle scienze biologiche e mediche

La 'seconda rivoluzione biomedica', come è stata chiamata dallo storico delle scienze biologiche e mediche Mirko D. Grmek la fase che queste discipline hanno attraversato nella seconda metà dell'Ottocento, è stata all'insegna della diffusione del nuovo metodo sperimentale teorizzato, praticato, insegnato e istituzionalizzato in Francia principalmente da Claude Bernard e Louis Pasteur, e in Germania soprattutto dagli allievi di Johannes Muller, in particolare da Carl Ludwig e dalla scuola di patologia cellulare ispirata da Rudolf Virchow. Negli ultimi decenni dell'Ottocento la fisiologia era la regina delle scienze biologiche, quantomeno nell'istruire la metodologia della ricerca sperimentale sul vivente. I fisiologi tedeschi, in particolare, disponevano dei laboratori più attrezzati, dove oltre a realizzare complessi esperimenti educavano gli studenti provenienti da tutto il mondo. La leadership della fisiologia si rafforzava con il proliferare delle riviste specializzate e dei trattati, nonché attraverso la nascita di diverse società a livello nazionale. Cominciava tuttavia anche un processo di differenziazione o specializzazione delle tecniche di indagine in rapporto alle esigenze di studio dei diversi sistemi fisiologici. La ricerca fisiologica andava cioè incontro a una serie di suddivisioni disciplinari. Gli sviluppi concettuali e tecnici della fisica e della chimica consentivano di intraprendere ricerche analitiche sui fenomeni della vita. La chimica fisiologica dava luogo alla biochimica e nasceva la farmacologia, ossia lo studio degli effetti dei farmaci sui processi fisiologici.

Nel corso del XX sec. le ricerche volte a comprendere l'integrazione funzionale e il controllo nei sistemi viventi hanno proceduto con ritmi differenti e a diversi livelli di analisi: da quello dell'intero animale, o focalizzato su un particolare sistema fisiologico, allo studio di specifici organi e tessuti, fino alle cellule e alle strutture subcellulari e molecolari. La fisiologia si è sviluppata come indagine sempre più analitica e quantitativa, operando sui diversi livelli dell'organizzazione e del funzionamento di organi particolari e sistemi, sia in vitro sia in vivo, allo scopo di caratterizzare i meccanismi e i processi di controllo intrinseci ed estrinseci dei sistemi da parte di fattori nervosi o circolanti nel sangue. Con gli sviluppi delle tecnologie per lo studio e la caratterizzazione delle strutture cellulari e molecolari della vita, il ruolo che la fisiologia ha avuto come disciplina che studia la logica del vivente è stato progressivamente assunto dalla biologia cellulare e molecolare.

Con parole e accenti diversi negli ultimi decenni dell'Ottocento il metodo sperimentale veniva identificato con lo studio controllato e per quanto possibile quantitativo delle cause prossime, definite dai fisiologi come quelle condizioni manipolabili in laboratorio che permettono o impediscono a un fenomeno di apparire e che quindi ne rappresentano le cause materiali immediate. Le scienze fisiche e chimiche, nell'ambito delle quali la sperimentazione quantitativa era già largamente affermata rappresentavano i modelli disciplinari di riferimento anche per quanto riguardava la forma e il livello a cui doveva mirare la spiegazione causale dei fenomeni: si doveva infatti ricercare la 'legge' del fenomeno in esame e ricondurne il funzionamento del vivente a meccanismi fisici e chimici.

L'aggettivo 'sperimentale' che alla fine dell'Ottocento si aggiungeva a preesistenti ambiti di ricerca, come l'embriologia, indicava appunto una nuova enfasi sullo studio delle cause prossime, come in più occasioni hanno avuto modo di ribadire, a cominciare da Wilhelm Roux, i protagonisti del dibattito sulla meccanica dello sviluppo.

La ricerca di cause materiali e la tendenza a ricorrere a spiegazioni teleologiche nello studio sperimentale delle funzioni vitali produceva una proliferazione di ipotetici fattori deputati a dar conto delle variabili fenomenologie fisiologiche, ai diversi livelli di analisi, e induceva alcuni ricercatori, come Max Verworn, Jacques Loeb e Karl Landsteineir ad abbracciare l'empiriocriticismo di Ernst Mach. Gli studi di Loeb sul fototropismo e la partenogenesi artificiale, ossia la sua concezione meccanicistica della vita, che mirava a ricondurre le manifestazioni della vita a un insieme di condizioni fisico-chimiche, si basavano sull'assunto antimetafisico e positivista che la spiegazione di un fenomeno consiste nella descrizione, la più semplice e completa possibile, delle condizioni in cui esso ha luogo. Landsteiner si richiamava alla filosofia di Mach per criticare la funzione esplicativa delle ipotetiche sostanze con cui venivano spiegate le varie reazioni sierologiche, mentre Verworn scriveva nel suo trattato di fisiologia del 1894 che le scienze naturali dovevano abbandonare il concetto di causa, in quanto l'indagine scientifica non cerca le cause ma le 'condizioni'.

In prospettiva, l'approccio sperimentale puntava a definire la causa prossima non solo come necessaria, ma anche come sufficiente, nel senso che ogni volta che si presentava il fattore determinante si doveva verificare anche l'effetto previsto dall'associazione causale. In medicina, il metodo sperimentale doveva per esempio mirare, secondo gli auspici di Bernard, a ricondurre ogni malattia a una causa unica (necessaria e sufficiente), consentendo allo stesso tempo di fornire una spiegazione causale riproducibile delle malattie e di concepire razionalmente la ricerca di una terapia, che poteva e doveva essere specificamente indirizzata alla causa. La ricerca della causa unica si diffuse nei diversi ambiti della ricerca fisiopatologica e microbiologica e talvolta rispondeva anche alla speranza di poter trovare un rimedio specifico per la malattia: quelle infettive erano dovute a germi identificabili (per cui si poteva intraprendere la ricerca di un trattamento preventivo o curativo specifico), il rachitismo alla carenza di vitamina D, e una malattia endocrina a un deficit o a un eccesso di secrezione ghiandolare.

Il fallimento del tentativo da parte della medicina scientifica di aderire a una nozione essenzialmente meccanicistica della causalità è chiaramente rappresentata dalla storia dei postulati di Koch. Il medico tedesco Robert Koch formulava tra il 1881 e il 1884 una serie di postulati, che rielaboravano alcuni principî metodologici già parzialmente suggeriti da Jacob Henle e da Theodor Albrecht Edwin Klebs, e che dovevano essere ottemperati per poter affermare che una determinata malattia era causata da un agente patogeno specifico. I postulati suggeriti da Koch per stabilire il ruolo causale dell'agente patogeno erano di due tipi: 'batteriologici', cioè tendenti all'identificazione morfologica e clinica del microbo, e 'sperimentali', ossia volti a rendere sufficiente il microbo per riprodurre la malattia. Le due prospettive rispondevano a diverse istanze pratiche. Infatti il riferimento a una causalità sufficiente funzionava soprattutto se si voleva spiegare il manifestarsi di un fenomeno: data la causa segue l'effetto. Se invece l'obiettivo era anche o soprattutto di prevenire il manifestarsi del fenomeno in questione risultava più efficace riferirsi alla causalità necessaria, ovvero prevenire la causa per impedire il manifestarsi dell'effetto indesiderato. Di fatto, i postulati sperimentali, che insistevano sulla coltivazione del parassita e la riproduzione della malattia in animali da esperimento, risultarono subito i criteri più deboli, e nel 1890 Koch stesso riconosceva che per varie malattie, come la febbre tifoide, la difterite, la lebbra e il colera non era possibile infettare animali con colture pure e quindi ottemperare alle regole previste dal ragionamento basato su una causalità sufficiente.

Nel corso del XX sec. il metodo sperimentale applicato ai fenomeni biologici è stato affiancato dall'analisi statistica. Questo approccio si è affermato nello studio dei fenomeni della vita e nella trattazione di sistemi naturali macroscopici, in cui entrano in gioco numerosi componenti, come reazione all'impossibilità di far rientrare tali fenomeni nel determinismo fisico-matematico della meccanica classica. Nella seconda metà dell'Ottocento la ricerca naturalistica aveva acquisito, con Charles Darwin, proprio il concetto di variabilità biologica, mentre l'applicazione dei modelli fisiologici alla pratica clinica produceva la consapevolezza che quanto più si avanzava imitando i metodi fisico-matematici tanto più ci si trova di fronte alla diversità individuale. Tuttavia, benché il metodo statistico si stesse diffondendo in fisica-matematica con la riformulazione da parte di Ludwig Boltzmann del secondo principio della termodinamica in termini probabilistici, Bernard e la tradizione fisiopatologica, rifiutavano l'approccio statistico, insistendo nel far riferimento a una visione deterministica classica che esigeva dati univoci, misure esatte e realtà invarianti.

In Gran Bretagna cominciava intanto ad affermarsi, con la biometria, l'idea che il metodo statistico potesse contribuire a rendere più rigorosa l'indagine sperimentale e a stabilire se una nuova terapia potesse essere causalmente correlata con la risoluzione della malattia. Ovviamente sulla base di un'epistemologia empirista che non coincideva con quella dei fisiologi e dei fisiopatologi. In The grammar of science (1892), Karl Pearson sosteneva, per esempio, che la ricerca empirica può solo dimostrare alcune correlazioni e non è mai immaginabile l'esatta ripetizione di ogni antecedente come vorrebbe la legge di causalità a cui aderiscono gli sperimentalisti. La controversia che in Inghilterra vide contrapporsi agli inizi del Novecento Pearson e Major Greenwood ad Almroth Wright sulle modalità di determinazione dell'efficacia dei trattamenti terapeutici e sull'affidabilità dei risultati prodotti attraverso le tecniche di laboratorio, dimostrò comunque concretamente l'utilità del ragionamento statistico per l'analisi dei dati sperimentali.

I metodi statistici applicati allo studio dei fenomeni biologici, a livello di studi evoluzionistici ed epidemiologici ovvero per analizzare i dati dei disegni sperimentali, vale a dire la dottrina moderna dell'inferenza statistica, furono sviluppati, oltre che da Pearson, da Francis Galton, Walter F. R. Weldon e Ronald A. Fisher allo scopo di dimostrare il ruolo dell'ereditarietà, in rapporto all'ambiente, nella determinazione dei tratti umani e, quindi, il meccanismo del cambiamento evolutivo. Galton mise a punto metodi e procedure statistiche innovative per dimostrare quantitativamente l'esistenza della selezione naturale assumendo comunque che la variazione fosse continua e le nuove specie emergessero in modo lento. Fisher, nel 1918, proponeva invece la prima sintesi teorica tra la biometria di Pearson, basata sull'idea di variazione fenotipica continua, e la genetica mendeliana, fondata sulla discontinuità genetica del meccanismo ereditario. Partendo dagli studi di George U. Yule, che agli inizi del Novecento dimostrò che la genetica mendeliana era compatibile con la variazione continua, e dalla dimostrazione di Wilhelm Weinberg e Godfrey H. Hardy che le frequenze geniche rimangono costanti da una generazione all'altra in popolazioni molto estese in assenza di mutazioni o selezione naturale, Fisher dimostrò statisticamente che se la selezione naturale favorisce un gene relativamente raro per un periodo abbastanza lungo, quel gene diventa effettivamente più diffuso nella popolazione. Va ricordato che il modello di Fisher del cambiamento evolutivo, espresso dal teorema fondamentale della selezione naturale, voleva rappresentare per la biologia evoluzionistica ciò che la versione statistica della seconda legge della termodinamica aveva rappresentato per la fisica. Fisher richiamò esplicitamente tale legge, per esempio prevedendo la massimizzazione della fitness analogamente all'entropia.

Fra il 1925 e il 1935 Fisher introduceva, a partire dalle sue ricerche sperimentali in agricoltura, una metodologia per l'analisi della significatività statistica che avrebbe consentito di randomizzare le esperienze, assumere soluzioni combinatorie dei disegni sperimentali e confrontare proprietà statistiche di gruppi diversi sulla base della cosiddetta 'ipotesi nulla' o 'ipotesi zero', che assume come premessa la completa accidentalità o casualità dell'associazione fra i fenomeni presi in esame.

I metodi statistici sviluppati dai biometristi e utilizzati dai genetisti di popolazioni e dagli epidemiologi hanno fornito un'immediata base induttiva per una nuova immagine della Natura, caratterizzata da una variabilità immanente, e hanno risposto efficacemente all'esigenza di trarre da questa immagine leggi di tendenza e proprietà collettive, sia in funzione di un ampliamento della conoscenza sia per scopi pratici. Il bisogno di eliminare il sospetto di un'origine accidentale degli esiti sperimentali non coincidenti è stato inoltre posto alla base della verifica sperimentale e della conferma di un'osservazione. In tal senso, il ragionamento probabilistico è venuto ad assumere un ruolo sempre più rilevante nei disegni sperimentali in ambito biologico e medico, per stabilire quale ipotesi sia più plausibile a fronte del fatto che il caso impedisce di avere la certezza completa che una certa conclusione corrisponde alla realtà delle cose.

L'efficacia del metodo statistico dipende dalla possibilità di misurare la variabilità dei fenomeni naturali, inclusi i risultati dell'indagine empirica. Nello studio dei fenomeni biologici la variabilità non è soltanto dovuta agli errori casuali nei rilevamenti che si compiono studiando una popolazione, ma anche a quella variabilità biologica che è costitutiva, ossia causalmente implicata dalla natura dei viventi. Essa dipende dal fatto che, in quanto portatori di un programma genetico individuale e di processi epigenetici che sono sede di ulteriori eventi stocastici, gli organismi sono gli uni diversi dagli altri: quindi sono fonte di dati quantitativi e qualitativi variabili. La discussione sulla natura casuale o deterministica dei processi evolutivi, vale a dire sul processo stesso della selezione naturale e sul ruolo del caso nella teoria dell'evoluzione è stata risolta riconoscendo che la selezione naturale non è un processo deterministico bensì probabilistico, che una grande proporzione della sopravvivenza e riproduzione differenziale non è dovuta alla selezione ma al caso e che il metodo principale della sistematica per stabilire se una popolazione ha o meno lo status di specie è l'inferenza probabilistica.

Riprendendo l'esame dell'evoluzione dei postulati di Koch ‒ intesi come esemplificazione di ragionamento causale nell'ambito del pensiero eziopatogenetico ‒ essi furono ampliati a partire dagli anni Trenta del Novecento. Ciò consentì di prendere in considerazione anche le circostanze dell'infezione e l'influenza della risposta immunitaria individuale nel determinare se la malattia si manifesta o no a livello clinico, con quale gravità, e se la risposta a livello subclinico o l'esito di un trattamento possono costituire prove dell'avvenuta infezione e del ruolo causale di un agente (anche in assenza di una identificazione certa). Soprattutto, furono introdotti criteri epidemiologici, ovvero correlazioni statistiche basate su dati osservativi controllati. Con l'avvento della genetica molecolare, la ricerca microbiologica si è concentrata sull'identificazione dei determinanti genetici della virulenza individuale che rende patogeno un microrganismo, fino alla recente riformulazione dei postulati di Koch che utilizza l'identificazione e la comparazione delle sequenze nucleotidiche degli agenti patogeni.

I criteri indiretti ed epidemiologici per stabilire il ruolo di un agente infettivo nell'eziologia di una malattia hanno stimolato l'elaborazione di procedure di analisi causale in relazione alle malattie cronico-degenerative. Nel caso dell'associazione fra i fattori di rischio e l'insorgenza delle patologie cronico-degenerative si è affermato un concetto di causalità fortemente caratterizzato in senso statistico. Nella moderna epidemiologia l'esistenza di una relazione causale viene riconosciuta se l'evidenza indica che i fattori in esame sono parte del complesso di circostanze che incrementano la probabilità dell'occorrenza della malattia, e che una diminuzione di uno o più di questi fattori decresce la frequenza di quella malattia. Dopo la Seconda guerra mondiale, la ricerca epidemiologica si è dapprima concentrata sui fattori di rischio esterni o ambientali, inclusi gli stili di vita, quali determinanti delle patologie cronico-degenerative prevalenti, come tumori e malattie cardiovascolari. L'avvento delle nuove tecnologie di indagine a livello molecolare e genetico ha in seguito consentito di identificare il ruolo dei profili genotipici nell'eziopatogenesi.

Un'evoluzione analoga a quella dei postulati di Koch ha riguardato la definizione delle componenti genetiche ovvero ereditarie delle malattie. Le prime malattie genetiche per le quali fu identificata una base molecolare erano dovute a variazioni a livello di un singolo gene e si manifestavano con modalità mendeliane, come per gli "errori innati del metabolismo" descritti da Archibald E. Garrod nei primissimi anni del Novecento e per l'anemia falciforme, attraverso studi iniziati da Linus C. Pauling nel 1949 che hanno portato, dopo la dimostrazione della natura mendeliana recessiva del tratto, alla sua caratterizzazione biochimica e genetico-molecolare. Ciò ha prodotto l'aspettativa, con l'affermarsi della genetica molecolare, che il gene potesse in qualche modo rappresentare un fattore eziologico monocausale. Lo sviluppo delle tecniche di indagine e quindi delle conoscenze genetico-molecolari e biochimiche ha reso possibile elaborare modelli dell'organizzazione e dell'espressione del materiale genetico che hanno praticamente confutato il concetto che le malattie ereditarie monogenetiche o a trasmissione mendeliana possano essere ricondotte a un modello monocausale. Attraverso l'analisi genetica e biochimica della fenilchetonuria e dell'anemia falciforme, è stato infatti mostrato che si tratta di malattie multifattoriali, come lo sono i cosiddetti tratti patologici complessi o non mendeliani, dove il fenotipo risulta dall'interazione di più geni tra loro e con il contesto ambientale.

A partire dal secondo dopoguerra i rapporti tra le scienze chimiche e fisiche e le scienze biomediche sono diventati più chiari, e si è compreso come e a quale livello il metodo sperimentale contribuisce a definire la natura dei sistemi viventi. In particolare, si è capito che i fenomeni biologici sono complessi in un senso particolare, poiché dipendono da una forma di organizzazione della materia vivente che non è riconducibile ai concetti utilizzati dalle scienze che studiano la materia non vivente, e che esistono due piani di indagine nella ricerca biologica. I fenomeni biologici dipendono infatti da un'organizzazione che è il prodotto dell'evoluzione. Quindi la biologia studia sia le cause prossime ‒ di cui si occupano gli studi di biologia funzionale e possono essere messe in luce mediante l'efficiente applicazione del metodo sperimentale in modo analogo a ciò che accade nei campi della fisica e della chimica ‒ sia le cause remote, ossia le cause evolutive in grado di spiegare l'origine adattativa dei tratti funzionali, nonché le conseguenze delle modalità genetiche, biochimiche, cellulari, embriologiche e fisiologiche che consentono ai sistemi viventi di mantenere e modificare l'organizzazione. Lo studio delle cause remote, che riguardano anche l'origine di condizioni di interesse medico in quanto predisponenti a malattie o in quanto identificano l'origine della variabilità individuale delle manifestazioni cliniche della malattie o delle risposte ai trattamenti, si basa fondamentalmente su osservazione, comparazione e ragionamento, con l'aiuto dei metodi statistici. È questa, grosso modo, l'epistemologia delle scienze biologiche e mediche scaturita dalla sintesi evoluzionistica degli anni Quaranta e dalle caratterizzazioni delle basi genetico-molecolari della vita.

Il riconoscimento di questa sostanziale peculiarità metodologica delle scienze biologiche e mediche è stato anche la conseguenza della definizione delle dimensioni organizzative della materia vivente che ne connotano le 'specificità' in rapporto ai sistemi non viventi.

Alla ricerca delle specificità dei viventi

Nella seconda metà dell'Ottocento e nella prima metà del Novecento il sostantivo 'specificità' e l'aggettivo 'specifico' erano le parole utilizzate con maggior frequenza da biologi, medici, microbiologi, immunologi e biochimici che studiavano le basi fisiche e chimiche della vita e della malattie. Non che si trattasse di termini originali nelle scienze biomediche, ma fu nel contesto della rivoluzione microbiologica che si cominciò a capire che alla base della selettività delle interazioni cui partecipano i microrganismi vi è l'organizzazione biologica che li caratterizza come forme viventi. La vaghezza nel significato dei termini 'specificità' e 'specifico', prima dell'avvento della rivoluzione pasteuriana, era testimoniata dalle amplissime definizioni che si possono trovare nei dizionari di medicina dell'Ottocento, ed era stata stigmatizzata nel 1840 dal chimico Justus von Liebig, il quale riteneva che l'abuso dei termini 'specifico' e 'dinamico' in medicina servisse solo a mascherare la mancanza di una spiegazione, ed equivalesse a invocare un 'principio vitale'.

Con il termine 'specificità' si cercava di connotare la selettività delle interazioni tra organismi viventi, o, meglio, tra elementi di natura biologica. Il problema di quali caratteristiche della materia vivente potevano spiegare la specificità è stato oggetto di indagine a diversi livelli e in relazione a differenti fenomenologie.

Il ruolo trainante degli studi sulla natura della specificità biologica l'hanno svolto le ricerche fisico-chimiche condotte in modo sistematico negli ultimi decenni dell'Ottocento sull'origine della selettività delle interazioni tra le sostanze biologiche, come per esempio i processi fermentativi che diventeranno le interazioni tra enzima e substrati. In tale contesto, ebbe luogo la scoperta della specificità dei fenomeni immunitari riproducibili in laboratorio, che avrebbe portato a identificare nell'interazione tra l'anticorpo e l'antigene un modello per studiare le basi materiali e l'origine della specificità.

Da un lato si cercava di ricondurre la specificità biologica alla chimica organica ordinaria delle macromolecole, chiamando in causa la complementarità sterica tra le molecole interagenti e tentando di spiegare le dinamiche di reazione in termini di legami covalenti e di proporzionalità tra i reagenti. È all'interno di tale approccio che già nel 1860 vengono proposte da Pasteur le metafore esplicative di tipo meccanico della vite maschio e della vite femmina, e poi quella tuttora utilizzata della chiave e della serratura, avanzata da Hermann Emil Fischer nel 1894 e applicata alla 'meccanica' delle reazioni immunitarie da Paul Ehrlich nel 1898. L'idea che la complementarità strutturale tra gli elementi molecolari delle cellule potesse spiegare la specificità ispirò numerosi studi esplicativi e applicativi, che andavano dal tentativo di ricondurre a tale modello la specificità dei processi di fecondazione e il controllo delle interazioni cellulari che durante l'embriogenesi portano al differenziamento e alla realizzazione di morfologie specie-specifiche, all'utilizzazione nell'ambito dell'indagine diagnostica delle reazioni immunitarie per discriminare in modo specifico fra sostanze biologiche diverse.

Una differente linea di pensiero assumeva d'altro canto, durante i quattro decenni a cavallo del 1900, che le manifestazioni della specificità biologica dipendessero dalla natura colloidale della materia vivente, negando l'esistenza di macromolecole e sostenendo che la specificità dipendesse da fenomeni di adsorbimento tra le molecole governati da interazioni fisiche piuttosto che chimiche. Dopo la dimostrazione che le macromolecole biologiche esistono davvero, realizzata per mezzo dell'ultracentrifuga e dell'elettroforesi, nonché attraverso gli studi cristallografici delle proteine e degli acidi nuleici, Pauling dimostrò nel corso degli anni Trenta che la struttura delle macromolecole era determinata dai legami covalenti, per quanto riguarda il livello primario, e dai legami idrogeno e altre forze intermolecolari ed elettrostatiche deboli per quanto riguardava i livelli secondario e terziario della struttura. I legami idrogeno e i legami deboli risultarono in particolare responsabili delle più caratteristiche manifestazioni della specificità, soprattutto enzimatica e immunitaria. La complementarità sterica tra le macromolecole proteiche venne considerata la chiave per spiegare anche i meccanismi di replicazione e di differenziamento delle strutture biologiche organizzate, prima dell'introduzione di un'idea di specificità correlata alla sequenza di basi nel DNA.

Lo sviluppo degli studi cristallografici produsse a partire dagli anni Trenta anche l'emergere della nozione di specificità strutturale, ossia di un rapporto caratteristico e definito tra le proprietà fisiche della molecola rilevate attraverso gli schemi di diffrazione e la struttura della macromolecola. Questi studi biofisici ‒ portati avanti soprattutto in Gran Bretagna e in modo particolare al Cavendish Laboratory a Cambridge dalla Medical Research Council Unit for the Study of the Molecular Structure of Biological Systems di cui facevano parte John C. Kendrew e Max Perutz ‒ consentirono di spiegare le proprietà biochimiche e le funzioni di molte macromolecole biologiche a partire dalla specificità tridimensionale rappresentata dagli spettri di diffrazione e la ricostruzione in modelli fisici della struttura tridimensionale della macromolecola.

Il tema della specificità riguardava anche la ricerca microbiologica e presentava ricadute di rilevanza medico-sanitaria. Sin dalla seconda metà dell'Ottocento nell'ambito della microbiologia la questione era lo statuto tassonomico dei microrganismi, cioè se si trattasse di esseri viventi classificabili in specie discrete o se, al contrario, potessero trasformarsi gli uni negli altri. Il dibattito sulla specificità microbica vide confrontarsi due filosofie della natura antitetiche, una 'discontinuista' e una 'continuista'. L'incertezza regnò a lungo, nonostante Oswald T. Avery avesse dimostrato nel 1923 l'esistenza di varietà distinte o sierotipi nei batteri. Solo a partire dallo studio del 1943 di Max Delbrück e Salvador E. Luria, che dimostrava che i batteri acquisiscono la resistenza ai fagi per selezione naturale di mutanti spontanei, e con maggior evidenza dopo la scoperta della ricombinazione genetica nei batteri da parte di Joshua Lederberg nel 1946, i microrganismi sarebbero stati considerati come le altre forme viventi e le loro trasformazioni adattative sarebbero stata ricondotte al meccanismo darwiniano della selezione naturale. Le ricerche di Jacques Monod e François Jacob sulle basi genetico-molecolari dell'adattamento enzimatico, interpretato ancora negli anni Cinquanta da diversi studiosi come un processo di tipo lamarckiano, sancivano definitivamente il crollo delle nozioni continuista e lamarckiana della specificità microbica e l'affermarsi della spiegazione genetica e darwiniana delle dinamiche adattative dei microrganismi.

La microbiologia medica, soprattutto i microbiologi appartenenti alla tradizione 'discontinuista', cercava di ricondurre la specificità clinica delle malattie al ciclo biologico specie-specifico degli agenti parassitari. La tradizione ontologica del pensiero clinico e anatomo-clinico, che negli anni Quaranta e Cinquanta dell'Ottocento registrava con gli studi di Pierre-Fidéle Bretonneau sulla difterite il tentativo di collegare la specificità dei sintomi e dei segni delle malattie all'esistenza di un fattore contagioso specifico in grado di riprodursi, trovava conferma nella teoria microbica delle malattie di Pasteur e Koch.

La dimostrazione dell'eziologia microbica di diverse malattie infettive e la possibilità di correlare ‒ sia descrittivamente sia sperimentalmente ‒ la specificità clinica della malattia con i cicli di vita dei parassiti trasformavano il concetto microbico della malattia in un paradigma della patologia sperimentale. Il patologo tedesco Klebs affermava, contro il credo virchowiano, che l'essenza della malattia era in realtà nelle proprietà dei microbi patogeni. La causa esterna, il bacillo, diventava la definizione della malattia, ossia l'espressione ontologica dell'eziologia; mentre fino ad allora l'ontologizzazione della malattia era stata coltivata all'interno della concettualizzazione clinica e anatomica. In realtà, la definizione eziologica non si sposa con una concezione ontologica della malattia, e la stessa concezione parassitaria della malattia vede nel fenomeno morboso un evento dinamico prodotto da un'interazione fisiologica costantemente sottoposta a pressioni evolutive tra due specie viventi. Il successo della batteriologia ha stimolato analoghe indagini sperimentali su possibili cause patogene esterne, che però nel caso dello scorbuto e del beriberi hanno inizialmente fuorviato la ricerca. Tuttavia grazie al metodo sperimentale veniva dimostrato il ruolo patogeno specifico di particolari carenze ricondotte da Casimir Funk a forme di avitaminosi.

La scoperta delle reazioni immunitarie specifiche negli anni Novanta dell'Ottocento apportava ulteriori argomenti a favore di una relazione causale tra la specificità clinica delle malattie infettive e la specificità biologica degli agenti causali. Essa spiegava inoltre come mai le immunizzazioni attive o vaccinazioni fossero, come da tempo si sapeva, specifiche. Un'ulteriore manifestazione di interesse medico-sanitario della specificità fu la scoperta che la trasmissione delle malattie infettive può richiedere condizioni ben definite e soprattutto insetti vettori specifici. Per esempio, gli studi sul meccanismo di trasmissione della malaria dimostrarono che i parassiti che causano le diverse forme della malattia possono essere trasmessi non da qualsiasi zanzara, ma solo da alcune specie del genere Anopheles. Successivamente si è visto che esiste un adattamento specifico, frutto della selezione operata dai contesti ecologici, tra particolari specie di zanzare e particolari specie di parassiti.

Se la ridefinizione della specificità microbica consentiva di spiegare in termini selezionistici le modificazioni adattative dei microrganismi ai diversi substrati, nel contesto della genetica mendeliana la ridefinizione della specificità era avvenuta con il passaggio da una nozione strettamente formale del problema della determinazione dei caratteri ereditari ‒ nozione che assumeva una dislocazione lineare dei geni sui cromosomi secondo le teorie di Thomas H. Morgan e del suo gruppo ‒ al concetto elaborato attraverso gli studi di genetica biochimica di Boris Ephrussi e George W. Beadle, e poi di Beadle ed Edward L. Tatum in base ai quali risultava che i geni 'specificano' gli enzimi (con l'elaborazione dell'ipotesi 'un gene, un enzima'). In altri termini, il contributo della ricerca genetica allo sviluppo del concetto di specificità è stato quello di localizzare i geni sui cromosomi e quindi di correlare la funzione del gene al controllo dei processi metabolici attraverso gli enzimi di cui governano la sintesi.

Infine, lo sviluppo forse più importante del concetto di specificità biologica ha riguardato la caratterizzazione della specificità delle sequenze dei monomeri nelle catene lineari delle macromolecole biologiche (proteine e acidi nucleici). Per quanto riguarda gli acidi nucleici, tale specificità scaturì dagli studi di Erwin Chargaff, mentre l'associazione tra sequenza e specificità strutturale e funzionale emerse sia dagli studi di Frederick Sanger, che nel 1952 presentò la prima descrizione dell'organizzazione lineare degli amminoacidi in una delle catene polipeptidiche nell'insulina, sia di Vernon M. Ingram, che nel 1956 dimostrò che il tratto falcemico dell'emoglobina dipendeva da un cambiamento a livello di un residuo amminoacidico, che provocava alterazioni nella struttura tridimensionale della macromolecola modificandone (in senso patologico) la funzionalità.

Quando nel 1944 Erwin Schrödinger si domandò che cosa fosse la vita si sapeva ormai che l'origine delle varie manifestazioni della specificità non risiedeva tanto in qualche proprietà fisica o chimica speciale, bensì nell'esistenza di un ordine strutturale. Le idee di 'cristallo aperiodico' e di 'codice', lanciate da Schrödinger non erano in realtà originali, ma insistevano sull'ipotesi di una logica molecolare della vita. Con la scoperta nel 1953 della struttura a doppia elica del DNA da parte di James D. Watson e Francis H.C. Crick, la specificità biologica viene ricondotta alla sequenza definita e unica dei nucleotidi che trasporta quella che da quel momento viene chiamata l'informazione genetica. 'Specificità' e 'informazione' vengono a coincidere e nel 1958 Crick affermava che "la specificità di un pezzo di acido nucleico è espressa solamente dalla sequenza delle sue basi, e [che tale] sequenza è un codice (semplice) per la sequenza di amminoacidi di una particolare proteina"; quindi "informazione significa determinazione precisa della sequenza, sia delle basi nell'acido nucleico sia dei residui amminoacidici della proteina".

La struttura a doppia elica del DNA proposta da Watson e Crick consentiva di rispondere al problema delle basi fisiche e chimiche della specificità, ossia di ricondurre alle proprietà di una particolare macromolecola l'origine delle manifestazioni della specificità biologica. La struttura del DNA spiegava in che modo si replica il materiale ereditario, vale a dire come si trasmettono caratteristiche geneticamente determinate da una cellula all'altra e da una generazione all'altra. Inoltre, consentiva di ipotizzare e quindi stabilire che la sequenza delle basi del DNA contiene le informazioni, scritte in un codice particolare, per la sintesi delle proteine, e quindi per il funzionamento delle cellule di cui sono costituiti i tessuti e gli organismi. Gli studi sul codice genetico e la sintesi delle proteine trasformarono i fondamenti della biologia tra il 1955 e il 1965. La duplicazione del DNA implicava che potevano essere copiati anche i cambiamenti, dovuti a mutazioni spontanee o ad altri meccanismi che possono introdurre modificazioni nelle sequenze delle basi e quindi nelle istruzioni genetiche. Le mutazioni, come per esempio la sostituzione di una base con una diversa, possono determinare la creazione di nuove proteine, spesso non in grado di svolgere la normale funzione, minacciando la sopravvivenza dell'organismo e in pratica dando luogo a malattie. In alcuni rari casi, però, le nuove proteine potranno avere acquisito una caratteristica innovativa in grado di contribuire alla sopravvivenza e alla riproduzione dell'organismo. In pratica, la nuova visione molecolare della vita confermava a livello molecolare il quadro esplicativo proposto dalla teoria sintetica dell'evoluzione.

Gli sviluppi degli studi biochimici, genetico-molecolari e cellulari hanno confermato il ruolo importante del DNA come macromolecola che registra e trasmette le informazioni specifiche, ma hanno anche mostrato che la vita non coincide con l'informazione contenuta nelle sequenze del DNA. La scoperta tra il 1979 e il 1981 che l'RNA può svolgere funzioni catalitiche ha dimostrato che l'informazione genetica e il codice genetico sono un'invenzione successiva del mondo vivente, ossia un modo escogitato per riprodurre più efficacemente l'organizzazione biologica. Prima che il DNA diventasse la molecola che porta l'informazione genetica esisteva il mondo dell'RNA, che racchiudeva in sé entrambe le funzioni, di memoria e di catalizzatore di reazioni chimiche, che successivamente si sarebbero separate.

Gli acidi nucleici, peraltro, non devono le loro proprietà genetiche al fatto di essere polimeri o di potersi duplicare, bensì alla trama di relazioni tra le loro proprietà e determinate funzioni intracellulari che consente la riproduzione di queste funzioni. Anche per quanto riguarda i geni è entrata progressivamente in crisi la visione ontologica tradizionale, che associava fisicamente e univocamente un gene a una data sequenza nucleotidica e quindi a una altrettanto data funzione: geni ritenuti essenziali possono essere inattivati senza conseguenze, mentre per geni già noti è possibile trovare sempre nuove funzioni.

L'informazione biologica, ossia le determinazioni che operano nella costruzione e nel funzionamento dei sistemi viventi, non coincide dunque con il loro genoma, cioè con il loro DNA. Come dimostra peraltro il fatto che i dati riguardanti le sequenze genomiche non fanno aumentare le conoscenze sui meccanismi fisiologici, e che sono sempre più in auge i progetti cosiddetti di 'postgenomica'. Ciò non significa che il DNA non conti nulla, ma soltanto che il suo ruolo va compreso in un contesto evolutivo e funzionale.

Ma, allora, che cosa è la vita? Non esiste a tutt'oggi una risposta a questa domanda che metta d'accordo i biologi. Le caratteristiche comuni a tutti gli esseri viventi, allo stato attuale delle conoscenze, sono sicuramente: (a) il possesso di strutture molecolari complesse e in grado di produrre organizzazione (acidi nucleici e le proteine); (b) la capacità di mantenere con continuità, scambiando materia ed energia con l'ambiente esterno, un insieme enorme di reazioni chimiche estremamente specifiche (metabolismo); (c) la capacità di riprodursi in modo imperfetto (evoluzione).

La ricerca dei principî dinamici del cambiamento adattativo

Il meccanismo o processo della selezione naturale proposto da Darwin per spiegare l'origine degli adattamenti degli organismi ai loro ambienti e il reciproco adattamento dei tratti morfologici, fisiologici e comportamentali degli organismi, a partire dagli anni Ottanta dell'Ottocento è andato incontro a un'articolata rielaborazione. La nuova concettualizzazione è avvenuta sulla base delle scoperte dei citologi e sulla nuova genetica mendeliana, che hanno dimostrato la trasmissione ereditaria delle caratteristiche specie-specifiche mediante fattori localizzati nei cromosomi, i geni, che non possono trasmettere le caratteristiche acquisite per azione dell'ambiente. Gli studi di genetica sperimentale e le scoperte della biologia molecolare hanno successivamente dimostrato che l'organizzazione del materiale genetico produce naturalmente una variabilità all'interno di una popolazione, espressa dalle variazioni individuali che modulano dinamicamente la sopravvivenza differenziale fra gli individui. La selezione naturale è stata quindi definita, con la sintesi evoluzionistica dei primi anni Quaranta, come la conseguenza delle diverse chance che hanno i singoli organismi di riprodursi trasmettendo i tratti ereditari alle future generazioni, in relazione al fatto che siano o meno portatori dei geni che conferiscono caratteristiche vantaggiose o non in un determinato ambiente.

A partire dalla teoria sintetica dell'evoluzione si è sviluppato un articolato confronto teorico tra diverse posizioni riguardanti il concetto di specie, il peso della selezione naturale rispetto ad altri fattori di cambiamento, il carattere graduale o discontinuo del cambiamento evolutivo, la definizione e l'importanza dell'adattamento, l'origine e il ruolo dall'organizzazione del genoma e dei vincoli imposti dai processi di sviluppi embrionale in rapporto alle dinamiche evolutive. Numerosi fatti e scoperte, che sono stati considerati una sfida alla teoria sintetica dell'evoluzione e dei suoi presupposti concettuali, sono in realtà del tutto compatibili con essa, solo che l'organizzazione del genoma e del controllo dell'informazione genetica è più articolata di quella a cui faceva originariamente riferimento la teoria sintetica dell'evoluzione. La cosiddetta sintesi moderna o evoluzionistica non è certamente completa, e probabilmente non è corretta là dove insiste sulla natura essenzialmente graduale del cambiamento evolutivo. Dalla descrizione comparativa dei genomi, ma soprattutto dallo studio dei meccanismi di segnalazione intracellulare che definiscono il contesto funzionale delle cellule, e dalla concettualizzazione dei meccanismi epigenetici che governano il processo dello sviluppo, ci si possono ragionevolmente aspettare nuove scoperte riguardanti l'origine delle variazioni e la possibilità che meccanismi molecolari siano direttamente responsabili della genesi di caratteristiche neutrali sotto il profilo dell'adattamento.

Il problema dell'adattamento non è stato comunque oggetto solo delle scienze biologiche evoluzionistiche, ma anche della fisiologia. Sulla scorta delle ricerche di Bernard e del concetto di stabilità del mezzo interno, i fisiologi hanno coltivato a lungo l'aspettativa che gli adattamenti fisiologici dell'organismo fossero riconducibili a meccanismi di regolazione più o meno complessi. Un'idea implicita nell'uso del termine omeostasi come condizione a partire dalla quale sarebbe possibile definire tutte le diverse dinamiche che controllano i cambiamenti fisiologici nei sistemi viventi. In realtà, lo stesso Bernard affermava che la stabilità del milieu intérieur rappresentava la condizione per lo svolgimento delle funzioni cellulari complesse integrate. Ciò implicava che i meccanismi preposti al mantenimento delle condizioni necessarie alla vita non spiegano tutte le dinamiche adattative delle risposte fisiologiche. Peraltro, la scelta del termine 'omeostasi' in contrapposizione al termine 'equilibrio' da parte di Walter B. Cannon nel 1929 significava che la stabilità dei parametri fisiologici era da intendersi in senso dinamico.

Era già chiaro a Charles R. Richet che la stabilità del milieu intérieur è un dato dinamico, e nel 1900 il fisiologo francese erede della tradizione bernardiana affermava che il vivente è "stabile perché è modificabile ‒ la leggera instabilità è la condizione necessaria per la vera stabilità dell'organismo". Nel 1988 è stato proposto di sostituire il concetto di omeostasi con quello di 'allostasi', sulla base del riconoscimento che i parametri fisiologici dell'organismo variano e che proprio tale variazione consente la regolazione anticipando il funzionamento richiesto al sistema. Per il fisiologo e batteriologo René-Jules Dubos il concetto di Bernard di stabilità dell'ambiente interno ossia l'omeostasi di Cannon definita a livello fisiologico e biochimico non dà conto di tutti i meccanismi attraverso cui gli organismi viventi rispondono adattativamente agli stimoli ambientali.

Sin dalla fine dell'Ottocento i fisiologi si ponevano il problema dei meccanismi funzionali da cui dipendono gli adattamenti individuali acquisiti e specifici, cioè quali risposte adattative comportino l'acquisizione da parte dell'organismo della capacità di affrontare cambiamenti ambientali non previsti né prevedibili in termini di risposte ereditarie predefinite e selezionate evolutivamente. Negli stessi anni in cui Bernard proponeva il concetto di stabilità dell'ambiente interno, il fisiologo tedesco Eduard Friedrich Wilhelm Pflüger reintroduceva, in chiave antidarwiniana, l'idea aristotelica di causa finale, sostenendo che i fenomeni organici "non esprimono mai, a rigore, un equilibrio dinamico". Piuttosto, esiste una continua successione di accomodamenti, 'regolazioni' che riportano i valori funzionali verso la norma per registrare un ulteriore distacco: come un "irruente torrente alpino, che trascina via schegge di roccia e si scava il proprio alveo, muta a ogni istante impeto dei flutti e direzione".

Il problema sollevato da Pflüger veniva affrontato in un modo del tutto originale per il tempo dall'embriologo Wilhelm Roux, che lo definiva un problema di 'autoregolazione organica', in un libro significativamente intitolato Der Kampf der Theile im Organismus (La lotta tra le parti dell'organismo, 1881). Roux si interrogò su quali fossero le cause meccaniche che potevano realizzare un'armonia funzionale tra le parti dell'organismo, mettendo d'accordo la forma con la funzione. Nel cercare un principio causale alla base delle regolazioni automatiche che assicurano un equilibrio in continuo cambiamento nelle diverse fasi dello sviluppo morfo-funzionale di un organo, l'embriologo tedesco ritenne di poterlo individuare nella "lotta tra le parti dell'organismo".

Tale principio introduceva il modello darwiniano della selezione ai livelli più fondamentali della fisiologia individuale, assumendo una competizione tra i costituenti dell'organismo per l'assimilazione delle sostanze nutritive e le eccitazioni funzionali. Secondo Roux la competizione tra elementi simili, la stimolazione trofica e l'adattamento funzionale erano da considerarsi come le cause della plasticità e potevano anche essere di aiuto a comprendere l'adattamento durante l'apprendimento.

Il modello proposto da Roux influenzò l'approccio di Il´ja Il´jč Mečnikov ai problemi dell'immunità, ossia la genesi della teoria della fagocitosi con cui nel corso degli ultimi due decenni dell'Ottocento lo zoopatologo russo cercò di spiegare la fisiologia dell'immunità sulla base dell'attività fagocitica dei leucociti nei confronto degli agenti patogeni. Anche Santiago Ramón y Cajal applicò, a partire dal 1892, l'idea di lotta per l'esistenza al problema di spiegare il ruolo della funzione nello stabilirsi delle connessioni neuronali specifiche.

August Weissmann nel 1894 teorizzava che le sensibilità specifiche dei costituenti primari dell'organismo erano emerse attraverso la selezione naturale ordinaria, e tutte le "reazioni dell'organismo a influenze esterne sono così in una certa misura preorganizzate e fornite largamente in anticipo". Mentre nel 1895, James M. Baldwin, sintetizzava gli approcci selettivi agli adattamenti funzionali nel concetto di 'selezione organica', che definiva come la selezione naturale "trasferita dai rapporti esterni dell'organismo, i rapporti con il suo ambiente, alle relazioni interne all'organismo".

Queste idee furono in parte accantonate poiché durante la prima metà del Novecento si sarebbe affermato un concetto passivo degli adattamenti fisiologici acquisiti, in particolare dell'apprendimento e dell'immunità. In pratica si era pensato che fossero direttamente gli stimoli ambientali a plasmare alcune strutture biologiche per loro natura plastiche, tentando di ricondurre il funzionamento di questi sistemi a modelli fisiologici organizzati secondo circuiti di regolazione automatici. Fino a metà degli anni Cinquanta la spiegazione dell'origine della conformazione dei recettori, che assicura la specificità o selettività delle interazione biologiche, assumeva la possibilità che i ligandi esterni agissero direttamente a livello del meccanismo di formazione della struttura proteica recettoriale realizzando così un processo istruttivo (cosiddetto 'lamarckiano'), con il passaggio di informazione dall'ambiente all'organismo.

Progressivamente, nell'ambito degli studi sulla funzione nervosa e sull'immunità si è fatta strada l'ipotesi che l'acquisizione di adattamenti funzionali specifici ‒ come l'apprendimento e la memorizzazione di nuovi comportamenti o la formazione di anticorpi contro un dato antigene ‒ fosse invece il risultato di un processo di selezione esercitato attraverso l'esperienza, in conseguenza dell'incontro di uno stimolo esterno con un repertorio preesistente di possibili risposte. La dimostrazione sperimentale che le risposte adattative acquisite possano emergere attraverso processi selettivi a livello delle dinamiche funzionali che governano il funzionamento di un dato sistema fisiologico è stata realizzata per il sistema immunitario.

Nella seconda metà degli anni Cinquanta del Novecento la risposta immunitaria specifica anticorpale è stata spiegata sulla base del concetto di selezione clonale, assumendo cioè la preesistenza di un repertorio cellulare all'interno del quale la struttura antigenica seleziona le cellule portatrici di recettori anticorpali complementari, innescando un'amplificazione clonale delle cellule che riconoscono l'antigene e quindi la sintesi dell'anticorpo specifico. La teoria della selezione clonale, esplicitamente concepita da Frank Macfarlane Burnet come un approccio ispirato dal principio darwiniano della selezione naturale, ha orientato le successive concettualizzazioni dei meccanismi genetico-molecolari e cellulari che governano le risposte immunitarie specifiche, stimolando inoltre l'emergere di ipotesi selezionistiche anche in relazione al funzionamento del cervello.

Nel frattempo, la biologia molecolare e gli studi di termodinamica delle proteine hanno mostrato che non esiste alcuna possibilità che la conformazione di una proteina sia determinata attraverso un meccanismo di stampo ovvero a partire da una struttura tridimensionale che sarebbe in grado di trasmettere per complementarità la specificità alla proteina. Tuttavia, è stata dimostrata l'esistenza di sistemi a livello della struttura del recettore che consentono un certo grado di plasticità passiva per permettere un'interazione stereochimicamente più completa tra i siti di legame.

Gli sviluppi delle conoscenze biochimiche sui processi di comunicazione intercellulare hanno altresì mostrato che tutti i linguaggi utilizzati nella comunicazione intercellulare sono di tipo chimico. Proprio dall'estrema sensibilità e dalla diversificazione che caratterizzano i sistemi di segnalazione intercellulari deriva la natura specifica dei 'dizionari' da cui dipende la 'riservatezza' dei messaggi biologici e la complessità delle operazioni attivate. Sulla base degli sviluppi delle ricerche genetico-molecolari riguardanti il funzionamento dei sistemi recettoriali immunologici, negli anni Sessanta, si è cominciato a guardare alla specificità delle interazioni cellulari da una prospettiva biologica, riconoscendo che i segnali scambiati tra le cellule così come gli stimoli ambientali non possiedono un significato intrinseco, bensì il loro significato nasce dall'associazione che essi evocano e dalle risposte che selezionano. I segnali regolatori nei sistemi biologici sono, in altri termini, selettivi, e non, come si tende a credere sulla base di nozioni di senso comune, istruttivi.

Di fatto la struttura tridimensionale dei recettori è determinata principalmente a livello delle sequenze amminoacidiche, che sono specificate a loro volta da geni, ovvero da un'informazione preesistente. Negli anni Sessanta, Christian Anfinsen ha infatti dimostrato, lavorando su un modello sperimentale particolare, l'enzima ribonucleasi, che la conformazione tridimensionale delle proteine è il risultato dei vincoli termodinamici imposti dalla sequenza lineare degli amminoacidi. La cosiddetta 'ipotesi termodinamica' di Anfinsen è stata parzialmente confutata dalla scoperta che i prioni ‒ proteine costituenti normali delle cellule di mammifero codificate da un gene specifico ‒ possono essere convertite in una forma infettiva dal cambiamento della conformazione tridimensionale piuttosto che della sequenza amminoacidica, causando le patologie neurodegenerative tristemente note. Tale scoperta non rappresenta una confutazione del ruolo della chimica della sequenza amminoacidica nella determinazione della conformazione delle proteine, ma dell'esigenza di tener conto di alcuni aspetti epigenetici anche nella determinazione del fenotipo proteico.

A partire dagli anni Settanta del Novecento la neurobiologia della memoria e dell'apprendimento, ossia delle funzioni nervose superiori, si è fortemente ispirata ad approcci selezionistici o darwiniani. Tra questi spiccano la teoria della stabilizzazione selettiva delle sinapsi di Jean-Pierre Changeux, ma soprattutto la teoria della selezione dei gruppi neuronali o darwinismo neurale di Gerald M. Edelman. Questi modelli selezionistici o 'darwiniani' hanno via via interessato diversi aspetti della funzione organica, e negli ultimi decenni sono stati proposti in diversi ambiti della concettualizzazione dei meccanismi biologici funzionali, per esempio in relazione all'origine delle risposte adattative acquisite a livello della funzione epatica, e per inquadrare le dinamiche cellulari differenziative e morfogenetiche a livello dei processi di sviluppo.

L'ipotesi che gli adattamenti somatici specifici dipendano da processi selettivi ‒ ipotesi sperimentalmente corroborate almeno nel caso dell'immunità specifica ‒ ha influenzato anche la concezione della patogenesi del cancro ed è ormai è abbastanza accettata anche l'ipotesi che la cancerogenesi rappresenti una forma di evoluzione somatica governata da dinamiche 'darwiniane'. Questi modelli assumono in pratica l'esistenza all'interno dell'organismo di processi di selezione somatica quali meccanismi funzionali previsti per ottenere una funzionalità adattativa delle risposte fisiologiche alle situazioni impreviste.

L'esistenza di dinamiche selettive a livello somatico presuppone che le cellule del nostro corpo possano essere eliminate, vale a dire possano morire come conseguenza di interazioni comunicative che avvengono senza bisogno di interventi dall'esterno. Nel 1972 veniva proposto di indicare con il nome di 'apoptosi' un particolare tipo di morte cellulare, diverso dalla necrosi e già ripetutamente osservato, senza però capirne il senso, sin dalla seconda metà dell'Ottocento. Di fatto, per oltre un secolo e mezzo dall'introduzione della teoria cellulare il ruolo della morte delle cellule è tuttavia rimasto confinato principalmente nel contesto dei processi di necrosi, dovuti all'azione di agenti esterni, definiti con questo termine proprio da Virchow.

La necrosi è un tipo di morte violenta, dovuta a una lesione che determina la fuoriuscita del contenuto della cellula e lo scatenarsi di reazioni infiammatorie. Nell'apoptosi la membrana cellulare non si rompe immediatamente mentre si osserva una sorta di collasso e frammentazione direttamente all'interno della cellula (che viene quindi fagocitata da apposite cellule spazzine dette macrofagi). Anche se si era a conoscenza del fatto che le cellule morivano, e benché gli embriologi fossero consapevoli dell'importanza della morte cellulare come fatto normale e condizione per lo sviluppo della morfologia animale, fino agli anni Ottanta non è stato colto il significato che la potenzialità delle cellule di morire in modo programmato assume per spiegare l'evoluzione e la fisiologia degli organismi multicellulari.

Negli ultimi due decenni del XX sec. la morte cellulare programmata è stata invece studiata come fenomeno geneticamente controllato nello sviluppo del verme Caenorhabditis elegans. Le ricerche hanno dimostrato che questa morte è programmata e controllata da specifici geni e proteine attraverso un meccanismo che sopprime l'azione di specifici esecutori del suicidio normalmente presenti nelle cellule. Ciò ha portato alla conclusione che le cellule hanno bisogno di segnali dal contesto sociale in cui si trovano per non suicidarsi. La ribellione o meglio l'incapacità di riconoscere e rispondere adeguatamente ai segnali di sopravvivenza e morte spiega quindi la patogenesi di molte malattie infettive e degenerative.

Conclusioni

Il modo in cui si sviluppa la conoscenza scientifica non è molto diverso, secondo una tradizione epistemologica che annovera tra i suoi esponenti anche Karl Popper, dalle modalità attraverso cui gli organismi viventi acquisiscono nel corso dell'evoluzione biologica, soprattutto per selezione naturale, strutture e comportamenti adattativi in relazione a un determinato contesto ecologico. In altre parole, si possono considerare le ipotesi, le teorie scientifiche e le procedure sperimentali elaborate dall'attività creativa dei ricercatori, come 'variazioni' rispetto a qualche 'specie' di conoscenza già esistente e trasmessa culturalmente. Se la 'novità' teorica o operativa corrisponde meglio di altre varianti alla natura dei meccanismi e dei processi oggetto di studio, se cioè consente di spiegare più dettagliatamente i fenomeni e dedurne aspettative empiriche controllabili, ovvero se risulterà avvantaggiata rispetto a un particolare contesto sociale e culturale che magari condiziona le forme del pensiero e le metodologie di ricerca, verrà selezionata e, più o meno rapidamente, sostituirà la teoria o le procedure considerate valide fino a quel momento.

I concetti e i modelli esplicativi, nonché le procedure utilizzate per studiare la costituzione e il funzionamento degli organismi viventi sono emersi negli ultimi 150 anni sotto i vincoli di condizioni che cambiavano al mutare del contesto conoscitivo, metodologico e socio-culturale. Si è trattato di un progressivo adattamento di strategie di categorizzazione, e dei sottostanti processi fisici e chimici, incorporate nei sistemi sperimentali e nelle analisi comparative, che sono state in grado di catturare efficacemente una parte importante delle complesse articolazioni dell'organizzazione funzionale ed evolutiva dei sistemi biologici.

© Istituto della Enciclopedia Italiana - Riproduzione riservata

CATEGORIE