FRATTALI

Enciclopedia Italiana - V Appendice (1992)

FRATTALI

Luigi Accardi
Nicola Rosato

Il termine ''frattale'' è stato introdotto da B. Mandelbrot nel saggio Les objects fractals (1975) per denotare una vasta classe di modelli matematici i quali, pur essendo noti da molti anni, erano poco studiati e soprattutto poco applicati alla descrizione dei fenomeni della natura in quanto ritenuti ''patologici'' a causa della loro complessità o irregolarità. Nel passato alcuni fisici e matematici (L. Bachelier, J. Perrin, P. Levy, A.-N. Kolmogorov, N. Wiener, ecc.) avevano utilizzato tali modelli patologici per la descrizione di alcuni fenomeni naturali e avevano suggerito ulteriori usi.

È merito di Mandelbrot avere impostato un programma sistematico su queste indicazioni e questi esempi, avere concretizzato tale programma con moltissime proposte di applicazioni a vari fenomeni naturali, utilizzato in tale progetto le potenzialità grafiche degli elaboratori elettronici e collegato tale programma a profonde ricerche di matematica pura, dovute a G. Julia, Fatou, A. Cayley e altri. Questo collegamento, sviluppato poi da molti autori (H.O. Peitgen, P.H. Richter, D. Saupe, ecc.), ha messo in evidenza potenzialità grafiche del tutto insospettate dei sistemi dinamici complessi, e tale connessione con le immagini, inizialmente solo estetica, si è poi sviluppata, con i lavori, fra gli altri, di Barnsley e R.L. Devaney, in una nuova tecnica per l'analisi delle immagini con interessanti potenzialità di applicazioni al problema della ricostruzione e del riconoscimento di queste. Non esiste una definizione esaustiva univoca e universalmente accettata del termine f. ("Je renonce a définir le concept d'ensemble fractal", dice Mandelbrot nel saggio citato), anche se esistono molti esempi di figure od oggetti cui esso, per comune consenso, si può attribuire.

Per avere un'idea intuitiva di una figura frattale si può pensare al tessuto di una spugna, al tessuto polmonare, a un paesaggio lunare, a una catena montuosa, all'interno di un chicco di caffè, alle coste della Dalmazia, a un banco di nuvole, alla traiettoria di un moto browniano, al contorno di un fiocco di neve, o, in generale, a quegli oggetti che sono ''irregolari'' nel senso che mal si prestano a essere approssimati dalle consuete figure della geometria classica (in questo senso si è parlato di ''geometria frattale'' come geometria delle forme ''irregolari'').

In fig. si riportano esempi di procedimenti ricorsivi per la costruzione di figure frattali: in A, un segmento viene diviso in tre parti eguali e la parte centrale è sostituita da due segmenti di lunghezza pari a quello eliminato; si forma così una figura con quattro segmenti, a ciascuno dei quali si applica lo stesso procedimento ottenendo le figure successive; la figura frattale è la figura limite che si ottiene applicando questo processo all'infinito. In B, lo stesso processo applicato contemporaneamente a tre segmenti eguali disposti secondo i lati di un triangolo equilatero (curva di von Koch, nota anche come ''curva a fiocco di neve''). In C, lo stesso procedimento applicato a più segmenti diversamente disposti permette di ottenere una varietà praticamente infinita di figure che opportunamente colorate possono essere composte con fini artistici.

Una proprietà che esprime in termini quantitativi questa complicatezza è quella di avere una dimensione ''frazionaria'' (o, come si dice oggi, una dimensione ''frattale''). In effetti alcuni autori (per es. Peitgen e Richter, nel loro libro The beauty of fractals) propongono di assumere la proprietà di avere dimensione di Hausdorff-Besikovich non intera come definizione del termine ''frattale''.

Questa definizione ha il vantaggio di essere precisa, matematicamente ben definita, e di fornire un'utile guida intuitiva per la costruzione di figure frattali ma, come fa notare lo stesso Mandelbrot nel saggio citato, è troppo restrittiva (almeno dal punto di vista teorico) poiché privilegia la dimensione di Hausdorff-Besikovich rispetto alle tante nozioni di ''dimensione'' introdotte in matematica nel tentativo di dare una definizione precisa della nozione intuitiva di dimensione spaziale. Una migliore approssimazione, suggerita dallo stesso Mandelbrot, potrebbe essere quella di definire f. una figura che ha dimensione non intera rispetto a una qualsiasi nozione di dimensione. Ma anche questa è solo un'approssimazione poiché, per es., una figura del tutto regolare tranne che in una zona piccolissima, dove è molto irregolare, potrebbe soddisfare le condizioni della definizione senza peraltro corrispondere all'idea intuitiva di ''oggetto frattale''.

Le principali nozioni di ''dimensione''. - La nozione di dimensione è tra quelle che corrispondono a un contenuto intuitivo ben preciso ma che, quando si tenta di tradurre questo contenuto intuitivo in una definizione rigorosa, svelano insospettate difficoltà le quali mettono in evidenza il fatto che l'intuizione è una valida guida nei casi standard ma vacilla nei casi limite. La radice di alcune di queste difficoltà può essere chiarita da un semplice esempio: un filo di lana ben disteso su un tavolo ci ricorda un segmento di retta, cioè una figura 1-dimensionale. Se il filo è intrecciato in modo da formare un tessuto, esso ci ricorda una figura bidimensionale; se è ripiegato in modo da formare un gomitolo, ci ricorda una palla, cioè un oggetto tridimensionale. Uno dei primi matematici a considerare in modo rigoroso questo tipo di ambiguità fu G. Peano che, nel 1890, costruì un esempio di curva (cioè un oggetto intuitivamente monodimensionale) che "riempie un quadrato" (cioè un oggetto intuitivamente bidimensionale). L'esempio di Peano originò molti studi sul concetto di dimensione, i quali diedero origine a una varietà di definizioni. Nel seguito riporteremo alcune delle principali tra queste che chiameremo genericamente ''dimensioni frattali'' per il fatto che possono assumere valori non interi.

Dimensione di Hausdorff. - Dato uno spazio metrico, cioè uno spazio S su cui è definita una nozione di distanza δ, e dato un sottoinsieme limitato E di tale spazio, per ogni numero reale r > 0 è possibile ricoprire E con un numero finito di sfere di raggi rjr. Se r1, ..., rn sono i raggi di un tale ricoprimento, per ogni numero reale d > 0, consideriamo la quantità

dove l'estremo inferiore è preso rispetto a tutti i ricoprimenti finiti di E con sfere di raggi minori di r e dove

γ(d) := [Γ(1/2)]d/Γ(1 + d/2) [2]

e Γ(x) è la funzione gamma di Eulero.

Al decrescere di r la quantità [1] cresce e perciò converge a un limite. Si dimostra che esiste un numero D con la seguente proprietà:

se d D allora al tendere di r a 0 la quantità [1] converge all'infinito; se d > D allora al tendere di r a 0 la quantità [1] è uguale a zero.

Questo valore critico D (che può essere uguale a 0 o a +') è chiamato la dimensione di Hausdorff di E in onore del matematico che, nel 1919, ha proposto tale definizione di dimensione. Il motivo per cui F. Hausdorff scelse la funzione γ(d) data da [2] è che, se d è intero, allora la quantità γ(d)rd è il volume della sfera di raggio r in uno spazio euclideo di dimensione d.

Dimensione di Hausdorff-Besikovich. - Generalizza la nozione di dimensione di Hausdorff sostituendo, nella [1], una qualsiasi funzione h(r) tale che h(0) = 0 alla funzione γ(d)rd.

Dimensione di ricoprimento. − Dato uno spazio metrico S con una distanza δ, e dato un sottoinsieme limitato E di S, per ogni numero reale r > 0 è possibile ricoprire E con un numero finito di sfere di raggio r. Detto N(r) il più piccolo di questi numeri, il numero

è detto ''dimensione di ricoprimento'' di E (talvolta lo stesso nome viene usato nel caso in cui nell'espressione [3] si sostituisce lim sup a lim inf o addirittura s'impone l'uguaglianza dei due). Questa nozione è dovuta a L.S. Pontrjagin e L. Schnirelman (1932), e ha il vantaggio di essere calcolabile agevolmente in molti casi. Se lo spazio S ha una struttura più ricca (per es. è uno spazio vettoriale, o affine, ecc.), si possono sostituire alle sfere altri insiemi (come quadrati, o parallelepipedi, ecc.) ottenendo nozioni analoghe di dimensione. Si può avere un'idea di cosa sia tale dimensione considerando i seguenti esempi nello spazio euclideo n-dimensionale: il minimo numero di intervalli di lunghezza r necessari per ricoprire un intervallo di lunghezza l è l/r. Ciò è vero qualunque siano l o r. Quindi, fissando l e prendendo r sempre più piccolo, questo numero varierà come una costante (l nel nostro caso) divisa per la prima potenza di r. Il fatto che 1/r compaia alla prima potenza è l'espressione matematica di ciò che s'intende quando si dice che gli intervalli hanno dimensione 1.

Il minimo numero di quadrati di lato r necessari per ricoprire un quadrato di lato l è dell'ordine di l2/r2 ∼ (1/r)2. Quindi, fissando l e prendendo r sempre più piccolo, questo numero varierà come una costante (l2 nel nostro caso) divisa per la seconda potenza di r. Il fatto che 1/r compaia alla seconda potenza è l'espressione matematica di ciò che s'intende quando si dice che i quadrati hanno dimensione 2. Considerando un cubo di lato l invece che un quadrato e cubi di lato r per il ricoprimento, si vede che il minimo numero necessario per un ricoprimento è l3/r3, corrispondente alla dimensione 3.

Consideriamo ora una superficie che abbia gli stessi bordi del quadrato, ma che sia molto più grinzosa, nel senso che presenta moltissimi ripiegamenti (pensate alle circonvoluzioni cerebrali). È intuitivamente ovvio che la superficie grinzosa sarà in qualche senso più grande di quella del quadrato e quindi richiederà più quadratini di lato r per essere ricoperta (una gonna a pieghe richiede più tessuto di una gonna liscia). Allo stesso modo si può considerare una superficie che abbia gli stessi bordi del quadrato, ma che sia piena di buchi (pensate alla superficie di una spugna). È intuitivamente ovvio che la superficie piena di buchi sarà in qualche senso più piccola di quella del quadrato e quindi richiederà meno quadratini di lato r per essere ricoperta (un tessuto a maglie larghe richiede meno lana di un tessuto a maglie strette).

Sia nel caso della superficie grinzosa che di quella piena di buchi, può accadere che, al diminuire di r, il minimo numero di quadratini di lato r necessari per il ricoprimento cresca come una costante divisa per r elevata a una certa potenza d. Questo numero d è la dimensione di ricoprimento della superficie. Nel caso della superficie grinzosa, ci aspettiamo che d sia maggiore di 2 (superficie maggiore), mentre nel caso della superficie piena di buchi, ci aspettiamo che d sia minore di 2 (superficie minore).

Riassumendo: fissato un numero r, maggiore di zero, e fissato un oggetto geometrico C, se il minimo numero n(r) di cubetti di lato r necessari per ricoprire l'oggetto C è proporzionale, a meno di termini di ordine superiore, a una potenza di 1/r, cioè n(r) ∼ (1/r)d, l'esponente d di questa potenza è detto la dimensione di ricoprimento di C. Si può dimostrare che, per tutte le figure geometriche sufficientemente regolari, la nozione di dimensione definita sopra coincide con la nozione intuitiva di dimensione e, in particolare, è un numero intero. Tuttavia esistono grandezze geometriche la cui dimensione di ricoprimento non è intera.

La quantità log N(r), nella formula [3], è stata chiamata ''rentropia'' da Kolmogorov e Tihomirov (1959), i quali hanno studiato in dettaglio il problema di stimare l'''r-entropia'' (o equivalentemente la dimensione di ricoprimento) di molti spazi funzionali. Una nozione analoga è la ''capacità'' di Kolmogorov, definita come log C(r), dove C(r) è il massimo numero di punti di E tali che la distanza tra due qualsiasi di essi sia maggiore di r. Il numero

può essere chiamato ''dimensione capacitaria'' di Kolmogorov.

Dimensione di omotetia. - Mentre le precedenti nozioni di dimensione richiedevano una struttura metrica dello spazio, questa richiede una struttura vettoriale (o affine). Dato uno spazio vettoriale S e dato un sottoinsieme E di S, per ogni numero reale r > 0 l'insieme rE è detto ''immagine omotetica'' di E di rapporto r. Alcuni sottoinsiemi E di S hanno la proprietà che esiste un numero reale r > 0 e un numero finito di trasformati affini di rE l'intersezione dei cui interni è vuota e la cui unione è uguale a E. Detto N(r) il più piccolo intero naturale con questa proprietà, il numero

log N(r)/log 1/r

è detto ''dimensione di omotetia'' di E. A differenza delle precedenti nozioni di dimensione, la dimensione di omotetia non è definita per tutti i sottoinsiemi E ma, quando è definita, il suo calcolo è particolarmente agevole, il che ha fatto sì che tale nozione venga largamente usata nella costruzione di oggetti frattali al calcolatore. Una famiglia d'insiemi per i quali la dimensione di omotetia è definita è la famiglia delle curve di tipo von Koch. Una curva C nello spazio euclideo bidimensionale è detta una ''curva di tipo von Koch finita'' se:

− essa è connessa e orientata

− essa è contenuta in un quadrato di lato 1

C, considerata come insieme di punti, è unione di N segmenti Si, i = 1,..., N che possono intersecarsi solo negli estremi e tali che l'estremo finale del segmento Si coincide con l'estremo iniziale del segmento Si+1.

Se ciascuno dei segmenti Si ha lunghezza r, la dimensione di omotetia di una tale curva sarà log N/log 1/r. La famosa curva di von Koch (o curva ''fiocco di neve'') è ottenibile come limite di curve di tipo von Koch finite. Le immagini di tale curva che oggi si costruiscono con facilità al calcolatore sono approssimazioni finite di tale curva, che rientrano nella classe definita sopra.

Dimensione topologica. - Due spazi topologici sono detti avere la stessa dimensione topologica se tra essi esiste una trasformazione biunivoca e bicontinua.

Autosomiglianza. - L'origine storica della nozione di autosomiglianza va ricercata nell'analisi dei processi stocastici a incrementi indipendenti, dovuta a B. De Finetti, P. Levy, A.N. Kolmogorov e A.J. Khintchin. Sia X(t) un processo stocastico indicizzato da un parametro t ε R. Si dice che X(t) è ''auto-simile'' se, per ogni numero reale positivo a esiste un numero reale c(a) tale che il processo X(at) ha la stessa legge di c(a)X(t). La proprietà di autosomiglianza è anche chiamata ''covarianza di scala'' o ''proprietà di automodello'' (quest'ultimo termine è usato soprattutto nella letteratura sovietica). Se X(t) è un processo a incrementi indipendenti, allora si dimostra che il fattore c(a) deve necessariamente avere la forma a1/α, dove α è un numero nell'intervallo [0,2]. Questi processi sono chiamati ''stabili di parametro'' α.

Denotiamo ora con X(s, t) := X(t) − X(s), (s t) l'incremento del processo X(t) nell'intervallo [s, t]. La proprietà di autosomiglianza si esprime allora nella forma

(dove l'uguaglianza va intesa come uguaglianza in legge). Interpretiamo ora t come tempo e X(t) come posizione di una particella al tempo t. Se a 〈 1 allora la moltiplicazione per a-1/α è una omotetia dilatante e perciò la [4] significa che, se si prende un pezzo piccolo della traiettoria (quello corrispondente all'intervallo [as, at] ⊆ [s, t]) e lo si dilata del fattore a-1/α (che corrisponde a guardare il pezzo di traiettoria con una lente d'ingrandimento), allora si riproduce l'intera traiettoria. Poiché questa relazione vale per un fattore a arbitrariamente piccolo, si conclude che un pezzo arbitrariamente piccolo della traiettoria è l'immagine omotetica dell'intera traiettoria.

Queste relazioni, che nel caso dei processi stocastici valgono solo in legge, cioè per la distribuzione di probabilità delle traiettorie, possono essere interpretate in senso esatto, cioè per le singole traiettorie. È chiaro che una curva che goda di questa proprietà di autosomiglianza e che non sia un segmento di retta, dev'essere estremamente irregolare: tanto irregolare da poter essere solo definita matematicamente, ma non tracciata su un foglio di carta o su uno schermo poiché, se ciò fosse possibile, allora un segmento sufficientemente piccolo di tale curva sarebbe un segmento di retta e perciò ogni sua dilatazione omotetica sarebbe anche un segmento di retta.

I frattali come strumento descrittivo di fenomeni naturali. - Analizzando con supercalcolatori dati di diffrazione a raggi X, D. Rees e M. Lewis hanno mostrato che la dimensione di proteine come l'emoglobina è 2,4, paragonabile a quella di un foglio di carta spiegazzato e compresso, che è circa 2,5.

Nel 1983 T. A. Witten e L. Sander hanno proposto un modello, chiamato Diffusione con Aggregazione Limitata (DLA), per descrivere processi come la deposizione elettrolitica di metalli o la corrosione. In questo modello si parte da un aggregato casuale e da particelle che diffondono liberamente fino a che non collidono con l'aggregato aderendo al luogo della collisione. Simulazioni a due dimensioni di questo processo conducono ad aggregati finali di tipo felci, con dimensione 1,7. La stessa dimensione frattale è stata trovata da J. Nittman, H. E. Stanley e altri per la dimensione della configurazione dell'acqua, pompata in una lamina compressa di materiale oleoso. Se questo materiale è a sua volta contenuto in un materiale poroso, i risultati di J. Feder indicano una dimensione più bassa, dell'ordine di 1,62. Questi studi sono motivati dalla tecnica usata dalle compagnie petrolifere che estraggono il petrolio pompando acqua al suo interno. Analoghe simulazioni a 3 dimensioni conducono ad aggregati finali di dimensione 2,5.

Com'è noto, i materiali ferrosi, immersi in un campo magnetico, si magnetizzano essi stessi. Se il campo magnetico viene rimosso, questi perdono la loro magnetizzazione con una velocità (tasso di rilassamento) che dipende dalla loro struttura geometrica. Per un cristallo questo tasso di rilassamento, espresso in opportune unità di misura, è 3. Nel 1980 H. Stapleton ha trovato sperimentalmente che per alcune proteine contenenti ferro, questo tasso è 1,7 e ha interpretato questo dato come indicazione della struttura irregolare delle proteine.

Esperimenti eseguiti con sospensioni di oro su superfici piatte confermano le simulazioni bi-dimensionali.

Dal punto di vista matematico questi risultati sperimentali e di simulazione indicano che la diffusione ha una distribuzione di equilibrio il cui supporto ha dimensione frattale. Variando continuamente i coefficienti della diffusione si può provocare una transizione di fase di tipo nuovo (transizione di percolazione), la dimensione del supporto salta discontinuamente da frattale a intera. Risultati matematici rigorosi che dimostrano la validità di questo quadro sono stati ottenuti da M. Piccioni (On the asymptotic behaviour of the predictor of a binary Markov chain, 1990) e J. Elton.

Molti modelli cosmologici sono basati sull'ipotesi di una distribuzione uniforme della materia nello spazio. Ciò significa che la quantità di materia contenuta in una sfera di raggio r (abbastanza grande) è proporzionale a r3. Ciò induce ad alcuni risultati paradossali, come il paradosso di W. Olbers (1826), secondo cui il cielo notturno dovrebbe essere uniformemente illuminato, cosa che manifestamente non è. Molte proposte sono state avanzate per risolvere questo paradosso. In particolare, negli anni Sessanta, Mandelbrot ha proposto di postulare una distribuzione frattale della materia nell'universo, cioè una densità di materia proporzionale non a r3, ma a rD con 1 〈 D 〈 3. Questa proposta non è ancora servita a risolvere il paradosso di Olbers, ma l'ipotesi di Mandelbrot è sostanzialmente confermata dall'analisi della distribuzione statistica delle galassie, che conduce a ipotizzare una dimensione frattale dell'universo di 1,2 (molto poca materia rispetto ai vuoti). Studi ancora più fini, di M. Geller e J. Huchra, conducono a una dimensione frattale D dipendente dalla zona di universo.

Il fenomeno dell'autosomiglianza, cioè dell'invarianza di certe proprietà per cambiamento di scala, è mirabilmente illustrato dall'analisi di S. Lovejoy dei dati sulla nuvolosità provenienti dal satellite Geosat e delle rilevazioni radar. Queste analisi mostrano che l'area di una configurazione nuvolosa ha un comportamento del tipo PD, dove D è una costante (la dimensione frattale) e P è il perimetro della configurazione. La cosa sorprendente è che questa relazione (con la stessa costante D) si mantiene valida per oltre sette ordini di grandezza (autosomiglianza). K. R. Sreenivasan e C. Meneveau (1986) hanno studiato sperimentalmente la dimensione dell'interfaccia tra un getto turbolento e un fluido a riposo. Nel caso laminare hanno trovato una dimensione di 1,37 e nel caso tridimensionale ci sono indicazioni che la dimensione frattale dell'interfaccia è 2,37. Vedi tav. f.t.

Bibl.: K.J. Falconer, The geometry of fractal sets, Cambridge 1985; R.L. Devaney, Introduction to chaotic dynamical systems, Menlo Park 1986; B.B. Mandelbrot, Gli oggetti frattali, trad. it., Torino 1987; H.O. Peitgen, P.H. Richter, La bellezza dei frattali, ivi 1989.

Caos e frattali in fisiologia. - La matematica del caos deterministico e degli oggetti frattali permette di studiare sistemi complessi in modo globale senza tener conto dei dettagli strutturali. Una tale possibilità ha stimolato i fisiologi a cercare il caos e i f. all'interno degli esseri viventi, dando origine a una nuova fisiologia. In effetti è molto intuitivo associare l'idea di ''oggetto frattale'' all'albero respiratorio (trachea-bronchi-bronchioli dei polmoni), oppure alle pareti intestinali ricoperte di villi e microvilli, o ancora alla rete dei vasi sanguigni. Queste strutture, infatti, possiedono una proprietà tipica dei f.: l'autosomiglianza a scale diverse. In esse un particolare isolato e ingrandito somiglia all'intera struttura.

Le ramificazioni a cascata e l'irregolarità di tali sistemi rappresentano un evidente vantaggio dal punto di vista funzionale: esse, infatti, comprimono grandi superfici in volumi ridotti e aumentano quindi enormemente la possibilità di scambio di gas nei polmoni, l'assorbimento di sostanze nutritive nell'intestino e l'irrorazione dei tessuti da parte dei vasi sanguigni.

Altri esempi di strutture presenti negli esseri viventi che sono state studiate negli ultimi anni con i metodi della geometria frattale sono i neuroni e le fibre nervose. Anche qui si ritrovano irregolarità e autosomiglianza nelle ramificazioni dendritiche e nelle connessioni sinaptiche. In questo caso il vantaggio funzionale risiede, oltre che nel compattamento di un gran numero di connessioni in un piccolo volume, anche nella ridondanza del sistema che può far fronte a eventuali danni utilizzando e sviluppando connessioni secondarie.

Gli esempi fin qui citati si riferiscono a f. ''nello spazio'', ma esiste una seconda classe di importanti applicazioni della matematica del caos deterministico alla fisiologia: i f. ''nel tempo''. Negli esseri viventi, infatti, sono presenti diversi ritmi biologici di fondamentale importanza per la vita: il ciclo sonno-veglia, il ciclo della temperatura corporea e i cicli delle secrezioni ormonali, il ritmo respiratorio, il ritmo del battito cardiaco, ecc. Classicamente si è sempre associato il concetto di salute dell'individuo alla regolarità di questi ritmi, mentre una loro alterazione veniva associata alla perdita dell'omeostasi biologica e quindi a un conseguente stato patologico. A un'analisi attenta ed estesa dei fenomeni periodici condotta con le tecniche della matematica del caos è invece risultato che ampie fluttuazioni dei ritmi biologici sono da considerarsi normali, mentre l'instaurarsi di oscillazioni troppo regolari è spesso indice di stati patologici.

A questo proposito si possono citare vari studi sul comportamento dinamico del cuore (A. L. Goldberger, A. T. Weinfree, R. E. Ideker, L. Glass, R. J. Cohen e collaboratori, 1985 e anni successivi).

Questi ricercatori hanno analizzato la frequenza del battito cardiaco sia in soggetti normali sia in soggetti che successivamente hanno sofferto di gravi patologie cardiache, utilizzando spettri di Fourier e grafici nello spazio delle fasi. Questi grafici permettono di visualizzare gli ''attrattori'', entità matematiche caratteristiche dei sistemi dinamici. Nei soggetti normali la frequenza del battito cardiaco presenta notevoli fluttuazioni nell'arco della giornata, e l'attrattore che ne risulta è un ''attrattore strano'', tipico dei sistemi caotici. Nei soggetti che successivamente hanno avuto patologie cardiache si sono evidenziate, invece, oscillazioni periodiche della frequenza del battito cardiaco (''attrattore a ciclo limite'') e in qualche caso periodi di frequenza costante (''attrattore a punto fisso''). Il meccanismo che genera il caos nell'attività elettrica del cuore non è stato ancora completamente chiarito, ma probabilmente risiede nell'equilibrio dinamico che s'instaura tra la stimolazione parasimpatica, che tende a diminuire la frequenza del battito cardiaco, e la stimolazione simpatica di effetto contrario.

Vi sono molti altri esempi di ritmi ''caotici'' associati a soggetti sani: attività elettrica cerebrale, variazioni temporali delle secrezioni ormonali e del conteggio dei globuli bianchi nel sangue, ecc. Per contro, in alcune malattie del sistema nervoso (epilessia, morbo di Parkinson, sindrome maniaco-depressiva) è stata notata l'insorgenza di una periodicità ordinata, così com'è stata notata un'oscillazione periodica nel conteggio dei globuli bianchi in soggetti affetti da leucemia.

Un'ultima applicazione della matematica del caos alla fisiologia è lo studio del ciclo sonno-veglia negli animali e nell'uomo, che ha permesso di evidenziare delle ''singolarità temporali'': momenti critici del ciclo in cui l'effetto di particolari stimoli risulta amplificato inducendo insonnia e disorientamento temporale.

Le applicazioni cliniche e diagnostiche di questi studi sono ancora premature ma sicuramente affascinanti e dense di promesse.

Bibl.: A.T. Weinfree, Sudden cardiac death: a problem in typology, in Scientific American, 248 (1983), pp. 144-52 (trad. it., in Le Scienze, 179 [1983], pp. 96-116); L. Glass, A. Shrier, J. Belair, in Caos, a cura di A. Holden, Princeton 1986, pp. 237-56; B.J. West, A.L. Goldberger, Physiology in fractal dimension, in American Scientist, 75 (1987), pp. 354-65; A.L. Goldberger, D.R. Rigney, B.J. West, Caos e frattali in fisiologia umana, in Le Scienze, 260 (1990), pp. 26-33.

TAG

Distribuzione di probabilità

Diffrazione a raggi x

Processo stocastico

Transizione di fase

Modelli matematici