VARIABILITÀ

Enciclopedia Italiana - I Appendice (1938)

VARIABILITÀ (XXXIV, p. 997)

Giuseppe MONTALENTI

Biologia. - È nozione di dominio comune che tutti gli individui appartenenti ad una stessa specie non sono identici. Non lo sono neppure gli individui di una stessa razza, e neanche quelli della stessa famiglia, anzi differiscono, più o meno spiccatamente, per vari caratteri, sicché ciascuno ha una fisionomia sua propria, individuale, che rende possibile riconoscerlo da tutti gli altri. Diciamo dunque che gli individui che classifichiamo in un dato gruppo - specie, sottospecie, razza o varietà - manifestano una certa variabilità. E questo è un fenomeno talmente generale fra gli esseri viventi, che sembra essenziale della loro natura e quasi inscindibile dal concetto di organismo, tanto che non sapremmo rappresentarci una specie composta di tutti individui assolutamente identici, come usciti da un unico stampo.

La variabilità può essere studiata, dal punto di vista descrittivo, con metodi statistici, che sono stati elaborati - nelle loro applicazioni alla biologia - soprattutto da J. Quételet, F. Galton, K. Pearson e varî altri autori più recenti, e hanno dato corpo a una dottrina particolare, la Biometria (vedi, VII, p. 52), che ha avuto molto sviluppo specialmente nei paesi anglosassoni. Dal punto di vista causale interessa conoscere quali sono i fattori che determinano la variabilità degli organismi, e se e fino a che punto le variazioni individuali sono trasmissibili ai discendenti. Sono questi problemi genetici (v. genetica, XVI, p. 509 segg.) la cui soluzione è di grande importanza anche per il problema della evoluzione.

Studio statistico della variabilità. - Se consideriamo un carattere misurabile di una popolazione, cioè di un insieme di individui scelti a caso come rappresentanti del gruppo che s'intende studiare, vediamo che le misure oscillano fra due valori, massimo e minimo. E se, per comodità di elaborazione dei dati, anziché tener conto di tutte le singole misure, le classifichiamo, cioè le raggruppiamo in un limitato numero di classi di una data ampiezza, sarà facile vedere come le frequenze di ogni classe, cioè il numero degli individui che a ogni classe appartengono, non sono eguali, ma - nella grande maggioranza dei casi - presentano un massimo in corrispondenza di una classe di valore intermedio fra i due estremi, e vanno decrescendo con una certa regolarità verso le classi di valore estremo, fino ad annullarsi.

Nella tabella I, per esempio, è indicata la variabilità della statura di 25.878 soldati americani, secondo la famosa statistica del Quételet. Si vede che la massima frequenza corrisponde alla classe che ha il valore centrale di pollici 66½ (circa 168,5 cm.) la quale racchiude tutti i valori compresi fra pollici 66 e 67 (ampiezza di classe o modulo = 1 pollice); e v'è una graduale decrescenza delle frequenze sia verso le stature massime, sia verso le minime.

È facile riprodurre graficamente l'andamento della curva, portando come ascisse i valori di classe, e come ordinate le frequenze. Si può disegnare così un poligono di frequenza, o un istogramma (v. fig. 1).

La tabella II si riferisce invece al numero dei raggi della pinna caudale di 703 pesci (Pleuronectes). In questo caso non occorre classificare i dati, perché il numero dei raggi non può essere frazionario, e perciò tutti i valori osservati ricadono in categorie ben delimitate. Nel primo caso (statura) invece, è evidente che fra due stature qualsiasi vi possono essere molte stature intermedie (teoricamente, su di un numero infinito di osservazioni, infinite stature intermedie) e perciò, qualora non si classificassero i dati e si riportassero tutte le singole misure, il poligono tenderebbe ad avvicinarsi a una curva continua. La variabilità dei caratteri che si comportano come la statura dicesi continua, quella dei caratteri che si comportano come il numero dei raggi delle pinne, discontinua o discreta.

Di minor valore è la distinzione, che spesso vien fatta, fra caratteri quantitativi, che è facile esprimere numericamente (es., statura, peso, numero di parti che si ripetono, ecc.) e caratteri qualitativi, più difficilmente misurabili (es., forma, colore, ecc.). È chiaro che ciò dipende soltanto dalle difficoltà tecniche che s'incontrano nella misura: quando si riesca a superarle, non v'è alcuna differenza sostanziale fra le due categorie di caratteri.

Il numero dei varianti o variati cioè delle misure eseguite, è sempre limitato: raramente si può misurare più di qualche migliaio di individui. È evidente che, quanto maggiore è il numero delle osservazioni, tanto più la curva di frequenza s'approssimerà alla curva della popolazione ideale, costituita da un numero infinito di individui. Se in pratica ci si deve sempre limitare allo studio di una popolazione relativamente piccola, si può però tentare, estrapolando sui dati dell'osservazione, di rappresentarci quale può essere l'andamento della curva ideale.

Le serie discontinue, molte volte sono rappresentabili con distribuzioni binomiali, così chiamate perché i loro termini (frequenze) sono proporzionali ai termini successivi della espansione del binomio (a + b)n secondo la nota formula:

Quando si faccia a = b = 1 si ha la seguente serie (triangolo di Tartaglia, o di Pascal):

dove ogni termine è eguale alla somma dei due termini contigui della riga precedente.

Dando ad a e b i valori suggeriti dai dati empirici si può pertanto costruire un poligono binomiale, e si può saggiare (con opportuni metodi statistici) l'approssimazione del poligono empirico a quello costruito.

Quando a = b = ½ e n tende all'infinito, la distribuzione binomiale s'approssima ad una curva continua, chiamata curva di Gauss o curva dell'errore, o delle frequenze. Nel caso della variabilità continua, se n (numero delle osservazioni) tende all'infinito, e se l'intervallo di classe tende a zero, il poligono di frequenza tende anch'esso, in molti casi, ad assumere la forma di una curva continua del tipo gaussiano. Poiché questa è espressa analiticamente da una equazione ben nota, è possibile, anche in questo caso, partendo dai dati empirici, costruire la curva ideale che meglio s'adatta alla curva osservata, e saggiarne poi l'approssimazione.

La distribuzione binomiale e quella di Gauss non sono naturalmente le sole con cui possono presentarsi i dati statistici, anzi ve ne sono molte altre che ricorrono con una certa frequenza; ma, per quanto riguarda la variabilità biologica, le due citate distribuzioni sono di gran lunga le più importanti.

Resta inteso che quando si parla di curva s'intende sempre la curva estrapolata sui dati empirici, la curva ideale; praticamente si ha sempre a che fare con poligoni di frequenza.

In una distribuzione si possono calcolare alcune costanti caratteristiche, o "caratteri", o "valori segnaletici", dagli autori inglesi chiamati anche "statistiche", che hanno una grande importanza per caratterizzare la distribuzione stessa, e quindi permettono di paragonare facilmente serie di osservazioni diverse. Senza entrare nei particolari né sul significato matematico, né sui modi di calcolare queste statistiche, ci limiteremo ad elencarne le più importanti. Innanzi tutto la media aritmetica delle osservazioni:

cioè la somma (Σ) dei valori osservati (x) moltiplicati per il numero d'individui (frequenze, f) cui corrispondono quei valori, divisa per il numero delle osservazioni (N). Nel caso che i risultati siano stati classificati, si moltiplica il valore di ciascuna classe (v) per la freouenza (f), e quindi:

Per definizione la somma di tutti i valori che superano la media (plus varianti) ciascuno contato tante volte quant'è frequente, è eguale, in valore assoluto, alla somma di tutti i valori inferiori alla media (minus varianti), cioè la loro somma algebrica è eguale a zero. La media rappresenta il punto di equilibrio di tutto il sistema, come mostra la fig. 2, dove la distribuzione è assomigliata ad un giogo di bilancia, sul quale sono sospesi, a intervalli proporzionali all'intervallo di classe, altrettanti pesi proporzionali al numero dei varianti compresi in ciascuna classe. Il punto dove si deve porre il coltello perché il giogo resti in equilibrio corrisponde al valore della media.

Il valore cui corrisponde la massima frequenza, che, per lo più, non coincide con la media, si chiama moda, e corrisponde al vertice della curva. Nella curva normale, perfettamente simmetrica, moda e media coincidono.

La media è una delle statistiche più importanti, ma non dà alcuna indicazione della variabilità o dispersione, cioè del modo come i singoli varianti sono aggruppati intorno ad essa. Vi possono essere due popolazioni con una media eguale, ma in una i varianti possono essere poco dispersi, cioè tutti addensati intorno alla media, nell'altra invece molto dispersi. La variabilità della prima popolazione è cioè maggiore di quella della seconda.

La misura più usata delle variabilità è lo scarto quadratico medio (standard deviation)

dove l'espressione sotto il segno di radice è la somma dei quadrati degli scarti delle singole osservazioni dalla media (x − m) ciascun quadrato moltiplicato per la rispettiva frequenza, divisa per il numero delle osservazioni meno uno (di solito, se N è abbastanza grande, si divide per N). Quando i dati sono classificati, si calcola il quadrato dello scarto dei valori di classe e si moltiplica per la frequenza.

Nella curva di Gauss σ è l'ascissa di quel punto (presa la media come origine) la cui ordinata taglia la curva là dove questa da concava diviene convessa. Come indica il segno ± vi sono due σ, una a destra e una a sinistra della media. Nelle curve non simmetriche l'una è diversa dall'altra, ma in genere si calcola la media delle due.

L'area compresa fra le ordinate delle due σ comprende circa il 68% dell'area totale delimitata dalla curva, cioè circa il 68% dei varianti. Perciò se il valore assoluto di σ è grande, ciò significa che i varianti sono largamente dispersi intorno alla media (grande variabilità), se è piccolo, che i varianti sono molto addensati (piccola variabilità).

Poiché σ è espresso nell'unità di misura adottata per le osservazioni (pollici, o centimetri, o grammi, ecc.) non si possono senz'altro paragonare i valori di σ di due curve diverse, riferentisi a serie di osservazioni diverse, eseguite con unità di misura differenti. Si calcola perciò il coefficiente di variabilità:

il quale dà una misura approssimativa della variabilità e permette il paragone fra curve diverse.

Di ciascuna di queste statistiche si usa poi calcolare l'errore medio. Si ammette che se invece di una sola serie di osservazioni su di una popolazione se ne facessero moltissime altre su altre popolazioni del gruppo che si studia, non si troverebbero medie, sigma, ecc., sempre identici, ma s'avrebbe alla fine una serie, per esempio di medie, le cui frequenze si suppone che sarebbero distribuite secondo una curva di Gauss. Il valore medio di tutte queste medie si considera come il valore più prossimo alla media vera della popolazione.

Non è possibile, naturalmente, fare in ogni caso tutto questo lavoro, ma, conoscendo una statistica, ricavata da una sola serie di osservazioni si può, in base al numero di queste, arguire entro quali limiti è probabile che sia contenuta la statistica vera, calcolando l'errore medio.

L'errore medio della media è:

l'errore medio di σ:

l'errore medio del coefficiente di variabilità:

Il significato di queste statistiche può esprimersi così: la probabilità che la media vera della popolazione in esame sia compresa entro i limiti m ± em (dove m è la media ottenuta dalla serie dei dati) è il 68% contro il 32% che sia fuori di tali limiti. La probabilità che la media vera sia compresa entro m ± 3 em è il 99,7% contro il 0,3% che sia fuori. E cosi per l'errore medio di σ e del coefficiente di variabilità.

Si ha così un modo di calcolare la probabilità che un dato valore sia significativo. Se, per esempio, si ottiene una media di 10 e l'errore medio è 1, la probabilità che la media vera sia compresa entro 10 − 3 = 7 e 10 + 3 = 13 è il 99,7% contro il 0,3% che sia fuori di tali limiti; se l'errore fosse 2 i limiti sarebbero 4 e 16, se fosse 3 sarebbero 1 e 19, ed è evidente che quanto più il valore assoluto dell'errore medio è grande rispetto al valore assoluto della statistica, tanto meno questa è significativa. In pratica si usa considerare significativo un valore quando esso è superiore (in valore assoluto) ad almeno 3 volte il suo errore medio.

L'errore medio della differenza fra due statistiche si calcola con la formula:

dove e′ ed e″ indicano gli errori medî delle due statistiche.

Naturalmente tutto ciò si riferisce sempre al caso che la distribuzione delle medie, dei σ, ecc., sia normale; nell'usare questi "errori" come criterio per giudicare il significato dei valori ottenuti, si ammette implicitamente che sia così.

Quando si considerino due variabili può interessare di conoscere se vi sia una certa associazione fra le due, cosicché al crescere dell'una corrisponda in media un incremento, o una diminuzione dell'altra. Si parla in tal caso di correlazione (v. correlazione: Statistica, XI, p. 477). È chiaro, ad esempio, che, a statura totale maggiore, corrisponde una maggior lunghezza del femore e di altre ossa lunghe, peso maggiore, ecc. Si dice, in tal caso, che vi è una correlazione positiva fra quelle variabili. Ma tale correlazione non è assoluta, ché vi possono pur essere, per esempio, individui alti, ma di peso minore di altri più bassi, ecc. Per avere una misura della intensità della correlazione si usa generalmente il coefficiente di correlazione:

dove x e y indicano le due variabili, dx e dy le deviazioni dei singoli varianti dalla media rispettiva, e σx σy i due scarti quadratici medî. Il coefficiente di correlazione è sempre compreso fra + 1 e − 1. Quando le due variabili variano proporzionalmente

la correlazione dicesi assoluta, e r = + 1 (correlazione positiva) o r = − 1 (correlazione negativa). Se r = 0 la correlazione è nulla, cioè le due variabili sono indipendenti; quanto più il valore assoluto di r è vicino a 1, tanto più stretta è la correlazione. Praticamente i valori inferiori a o,3 si sogliono ritenere insignificanti.

Anche per r si calcola l'errore medio, con la formula:

che può dare un'indicazione dell'attendibilità del valore trovato.

Analisi genetica della variabilità. - I problemi che interessano il biologo sono i seguenti: quali sono le cause della variabilità e qual'è l'importanza della variabilità ai fini dell'evoluzione. Tratteremo prima il secondo, perché storicamente ha preceduto il primo.

Variabilità ed evoluzione. - I darwinisti, constatato che la variabilità è un fenomeno generale, ammettevano abitualmente che tutte le piccole variazioni individuali fossero ereditarie. Il Darwin, a dir vero, non era di questa opinione, e aveva intuito che occorre distinguere fra variazioni ereditarie e variazioni non ereditarie; ma i suoi seguaci, meno prudenti, non tennero sempre conto della distinzione. Perciò, ammettendo che la selezione naturale (il massimo fattore esterno dell'evoluzione, nella concezione darwiniana) agisca sopprimendo, per es., i minus varianti, e favorendo invece la vita dei plus varianti per un dato carattere in una certa popolazione (per es., statura, e quindi forza fisica, in una popolazione di animali predatori) fa sì che un maggior numero di questi giunga a riprodursi. E perciò in una seconda generazione si avrà una percentuale più elevata di individui più grossi, e così di seguito nel corso delle generazioni (perdurando la selezione) con il risultato di un graduale spostamento della media verso valori sempre più alti. Questo, ridotto alla più schematica espressione, il meccanismo dell'evoluzione secondo il darwinismo.

Le leggi del Galton. - Il primo a porsi il problema se effettivamente le variazioni individuali sono ereditarie e a tentarne una risoluzione sperimentale fu F. Galton, cugino del Darwin, che, con statistiche sulla statura dei genitori e dei figli in più di 200 famiglie inglesi, cercò di appurare se a genitori più alti corrispondono sempre figli più alti, e viceversa. Il risultato cui giunse merita di essere ricordato (benché non sia possibile esporre qui il metodo della ricerca) perché, sebbene l'interpretazione non sia stata poi confermata dalle ricerche più recenti, fu lungamente discussa ed ebbe grande importanza nella storia della genetica, e costituisce un esempio molto istruttivo a un tempo del valore del metodo statistico e delle cautele con cui va applicato.

Il Galton osservò dunque che, in linea generale, a genitori più alti della media della popolazione esaminata corrispondono figli più alti, e a genitori più bassi figli più bassi; ma lo scarto dei figli dalla media è inferiore allo scarto dei genitori, e precisamente, in media, di circa 1/3. Così, per esempio, a genitori la cui statura (media delle stature della madre e del padre, opportunamente corretta per il minor valore delle stature femminili rispetto a quelle maschili) superi la media di 12 cm. corrispondono figli più alti della media, ma che la superano solo di 8 cm. A genitori di statura inferiore alla media di 9 cm. corrispondono figli più bassi della media, ma di soli 6 cm. Cioè i figli hanno una tendenza a regredire verso la media della popolazione totale, e la regressione filiale (1ª legge di Galton) è di circa 1/3. Per spiegare questo fatto il Galton emise un'ipotesi, cui fu dato il nome di seconda legge del Galton, o della eredità ancestrale, che non è necessario esporre qui (v. eredità, XIV, p. 201).

In altri organismi il Galton trovò conferma della regressione filiale, ma ottenne valori diversi nei varî casi e sempre differenti da 1/3. Comunque, si poteva concludere per l'eredità delle variazioni individuali, ma non totale, bensì corretta, per così dire, dalla regressione filiale. Lo schema sopra esposto dell'evoluzione doveva quindi venire corretto nel senso che gli scarti dei figli dalla media sono meno forti degli scarti dei genitori.

Analisi delle fenovariazioni. - Al botanico W. Johannsen spetta il merito di avere chiarito la situazione, nell'ultima decade del. sec. XIX, e di avere corretto le erronee induzioni del Galton. Insospettito dal fatto che il valore della regressione varia (com'egli poté direttamente constatare) nelle diverse specie, egli intuì la necessità di sperimentare su popolazioni assolutamente omogenee dal punto di vista genetico, e si diede così allo studio dei fagioli, che sono ermafroditi e che è facile fare riprodurre per autofecondazione, cioè per fecondazione di elementi germinali provenienti da un solo individuo. L'insieme dei discendenti da un unico individuo, ottenuti per successive autofecondazioni fu da lui denominato linea pura.

Esaminata la variabilità di una linea pura, constatò che gl'individui si distribuiscono intorno ad una certa media, con una certa ampiezza di variabilità, che sono diverse e caratteristiche per ogni linea pura, ma sempre secondo curve del tipo gaussiano. Selezionando i plus varianti, o i minus varianti, e allevandone la progenie ottenuta sempre per autofecondazione, in altrettante parcelle separate, egli s'avvide poi che i discendenti presentavano sempre la stessa media, per il carattere preso in esame (peso, statura dei semi, ecc.) e praticamente la stessa ampiezza di variabilità caratteristiche della linea pura cui appartenevano. L'effetto della selezione sugl'individui di una linea pura è dunque nullo. Risultati opposti a quelli del Galton, ma solidamente stabiliti su basi sperimentali e ottenuti con un metodo rigorosissimo, che non lascia adito a dubbî (cfr. tab. IV). Fenomeni simili, del resto, erano stati intravisti da alcuni precursori, quali A. Jordan (alla "piccola specie" o "biotipo" da questo scoperta fu proposto di dare il nome di jordanone), e L. de Vilmorin, e furono poi pienamente confermati da altri biologi su altre specie di animali e piante. I risultati del Galton, del resto, s'interpretano facilmente in base alle ricerche del Johannsen. Ogni popolazione, allo stato naturale, può considerarsi come una somma di tante linee pure (o di biotipi, che sono l'equivalente delle linee pure negli organismi dicogamici, in cui non è possibile l'autofecondazione) e perciò, quando si scelgono dei plus o dei minus varianti, si scelgono individui appartenenti a linee pure che hanno una media caratteristica rispettivamente superiore, o inferiore alla media della popolazione totale. Riproducendosi essi dànno origine a popolazioni d'individui aventi la media delle rispettive linee pure, la quale, nella maggior parte dei casi, è meno discosta dalla media totale di quanto lo siano gl'individui scelti come riproduttori. S'intende così la regressione, e l'incostanza dei suoi valori.

Derivano dalle ricerche del Johannsen alcune conseguenze che sono d'importanza fondamentale per la genetica. Innanzi tutto è chiara la necessità di operare sempre su materiale assolutamente omogeneo dal punto di vista genetico, cioè su individui che abbiano un patrimonio ereditario assolutamente identico, in modo da poter ben distinguere le variazioni ereditarie da quelle che non lo sono. In secondo luogo risulta che l'aspetto esterno di un individuo (il fenotipo) non è un buon indice della sua costituzione ereditaria (il genotipo). Un individuo di una certa statura, per esempio, può essere un minus variante d'una data linea pura, o un plus variante di un'altra, e quello ch'esso trasmette ereditariamente non è già la propria statura, bensì la tendenza a oscillare entro certi limiti, intorno a una certa media, che è quella caratteristica della linea pura cui appartiene.

Dalla rigorosa analisi del Johannsen, estesa poi come s'è detto ad altri organismi dei due regni (specialmente complete sono le ricerche del Jennings sui Protozoi), risulta dunque definita una categoria di variazioni che non sono ereditarie e alle quali si sono dati diversi nomi: modificazioni, somazioni (variazioni che interessano soltanto il soma, ma non il germe) o fenovariazioni (variazioni fenotipiche). È da escludersi dall'uso l'appellativo fluttuazioni che indica la natura oscillante di tali variazioni, ma che può essere applicato anche ad altre. Le fenovariazioni non sono infatti le sole variazioni che si riscontrino negli organismi; altre ve ne sono, ereditarie, di cui terremo parola in seguito.

Cause delle fenovariazioni. - Ci si può ora domandare quali sono le cause che fanno sì che individui geneticamente identici non lo siano anche fenotipicamente. L'esperienza dimostra che ciò è dovuto a un complesso di cause esterne, d'ambiente, di cui le più importanti sono la temperatura, l'umidità, l'alimentazione, l'illuminazione, ecc. È facile dimostrare quale profonda influenza possano esercitare le variazioni di qualità o di intensità di ciascuna di queste condizioni sullo sviluppo, il colore, la forma, ecc., degli organismi. Un esempio molto dimostrativo è dato alla voce dimorfismo (XII, p. 851), dove si vede come diverse condizioni di temperatura e di umidità possono modificare profondamente il disegno e il colore di certe farfalle. Molti altri se ne trovano esposti in tutti i trattati di genetica, e dimostrano, fra l'altro, come, anziché di eredità di un dato carattere (colore, o statura o che altro sia) convenga parlare di eredità di una norma di reazione alle circostanze esterne, cioè della capacità di un organismo di reagire in un dato modo, entro certi limiti, alle variazioni dei fattori ambientali.

Anche individui allevati in condizioni apparentemente uniformi sono soggetti a diversità, talvolta di minima entità, dei fattori ambientali, e gli effetti di queste numerose cause di variabilità, sommandosi, dànno luogo appunto a quella variabilità che si distribuisce secondo una curva di Gauss. Una dimostrazione, oltre che dal fatto che aumentando la variabilità dei fattori esterni aumenta quella degli organismi che vi sono soggetti, si può avere anche dal fatto, più difficile a realizzare sperimentalmente, che diminuendo quanto più è possibile l'ampiezza di variabilità dei fattori esterni, si riduce anche la variabilità degli organismi. A uniformità assoluta dei fattori esterni deve quindi corrispondere assoluta uniformità fenotipica.

Questi esperimenti e considerazioni si collegano all'antica e vessatissima questione dell'eredità dei caratteri acquisiti, cioè della presunta capacità degli organismi di trasmettere i caratteri acquisiti dal corpo (soma) durante la vita individuale. Attualmente, dopo lunghe e appassionate discussioni, si deve ammettere che l'eredità dei caratteri acquisiti per effetto delle condizioni ambientali non è dimostrata: le fenovariazioni, come s'è visto, non lasciano traccia nel patrimonio ereditario (se non forse alcune, recentemente scoperte, le modificazioni durevoli [Dauermodifikationen] che permangono soltanto per un limitato numero di generazioni) quindi anche ogni teoria evoluzionistica, come quella lamarckiana (v. evoluzione: Biologia, XIV, p. 664 segg.) basata sul presupposto della eredità dei caratteri acquisiti si considera oggi non sostenuta dai fatti. Prova ne è, fra l'altro, la non ereditarietà delle mutilazioni, anche di quelle praticate costantemente, per numerosissime generazioni (amputazione della coda ai cani, circoncisione, deformazioni del cranio o dei piedi in certe razze umane, ecc.). Si può, per misura di prudenza, considerare la questione non chiusa, nel senso che una dimostrazione negativa non è mai generalizzabile con assoluta certezza, e limitarsi a considerare l'eredità dei caratteri acquisiti come finora non provata dagli ormai numerosi esperimenti, che furono condotti con sufficiente rigore, e lasciare una porta aperta alla possibilità (che oggi appare poco probabile) che tale forma di eredità possa essere dimostrata in seguito.

Variazioni ereditarie. - Come s'è detto, le variazioni fenotipiche non sono le sole, ma ve ne sono altre che si trasmettono ereditariamente, e sulle quali appunto può essere basata una teoria dell'evoluzione la quale intenda posare su una solida base sperimentale. Sono le combinazioni e le mutazioni.

Le combinazioni sono variazioni prodotte nella riproduzione anfigonica (che avviene cioè per fecondazione) dall'incontro di due genotipi diversi. Per esempio, nel caso del diibridismo o del poliibridimo (v. genetica) dall'incontro di due patrimonî ereditarî diversi, che avviene normalmente con la fecondazione, si producono combinazioni nuove, le quali hanno un determinato effetto sul genotipo, e possono costituire il punto di partenza di nuove razze stabili, cioè ereditariamente fisse.

Ma le variazioni che rappresentano veramente la comparsa di novità nel patrimonio ereditario sono le mutazioni (v. App.) che possono essere di varia natura: fattoriali, cromosomiche e del cariotipo. Le mutazioni, che possono essere anche indotte sperimentalmente dall'azione di particolari fattori esterni (es., radiazioni) che colpiscono direttamente le cellule germinali (il soma, cioè il corpo dell'individuo che porta tali cellule per lo più non ne risente, e le mutazioni compaiono come variazioni fenotipiche soltanto nei discendenti) costituiscono, allo stato attuale della scienza, le sole variazioni su cui sia lecito basare una teoria evoluzionistica.

Conclusione. - La curva di variabilità, come ci si presenta, nella grande maggioranza dei casi, dallo studio statistico di una popolazione allo stato naturale, quando sia analizzata con criterî genetici (e non soltanto statisticamente) risulta come la somma di tante curve spesso anch'esse del tipo gaussiano, corrispondenti alle varie linee pure o biotipi, cioè a quei gruppi di individui che sono genotipicamente identici. Tali gruppi spesso non esistono come entità distinte in natura, ma soltanto si possono separare, o "depurare" con opportuna selezione.

Le variazioni che concorrono a costituire la variabilità di una popolazione possono essere di tre tipi: fenovariazioni, indotte dai fattori ambientali, che sono le più numerose e non sono ereditarie; combinazioni e mutazioni, che invece sono ereditarie. Queste ultime spesso, ma non sempre, sono variazioni molto cospicue, che esorbitano dalla curva e sono perciò esteriormente riconoscibili dalle fenovariazioni. Soltanto l'esperimento genetico fornisce però un criterio sicuro per decidere sulla loro natura.

Bibl.: Ch. Darwin, On the origin of species, Londra 1859; id., The variation of animals and plants under domestication, Lonra 1868; J. Quételet, Anthropométrie, Parigi 1871; F. Galton, Natural inheritance, Londra 1889; K. Pearson, Mathematical contributions to the theory of evolution, in Proc. Roy. Soc. London, LXII, 1898; id., The grammar of science, Londra 1900; H. de Vries, Die Mutationstheorie, Lipsia 1901; F. Raffaele, L'individuo e la specie, Palermo s.a. [1908]; H. Yule, An introduction to the theory of statistics, 3ª ed., Londra 1916; W. Johannsen, Elemente der exakten Erblichkeitslehre, 3ª ed., Jena 1926; J. Philiptschenko, Variabilität und Variation, Berlino 1927; M. Boldrini, Biometrica, Padova 1927; R. A. Fisher, Statistical methods for research workers, Londra 1930; A. Niceforo, Il metodo statistico, Messina s. a. [1931]; L. H. C. Tippett, The methods of statistics, Londra 1931; F. Vinci, Manuale di statistica, Bologna 1934; M. Boldrini, Biometria e antropometria, in Tratt. elem. di statistica, dir. da C. Gini, Milano 1934: N. W. Timoféeff-Ressowsky, Experimentelle Mutationforschung in der Vererbungslehre, Dresda e Lipsia 1937; H. Stubbe, Spontane und strahleninduzierte Mutabilität, Lipsia 1937.

TAG

Distribuzione binomiale

Scarto quadratico medio

Teoria dell'evoluzione

Selezione naturale

Autofecondazione