STATISTICA, MECCANICA

Enciclopedia Italiana (1936)

STATISTICA, MECCANICA

Enrico FERMI

Lo studio della struttura molecolare e atomica della materia ha reso necessario lo sviluppo di metodi particolari, adatti alla discussione delle proprietà di sistemi costituiti da un enorme numero d'individui costituenti. Per la analogia che il problema presenta con lo studio di una popolazione, essa stessa costituita da un grande numero di uomini, si suol dare a questo ramo della fisica il nome di meccanica statistica.

È evidente che la complicazione del calcolo matematico del moto di un sistema costituito da miriadi di particelle (e nel più piccolo corpo percettibile ai nostri sensi sono contenute migliaia di miliardi di molecole) è tanto grande da non lasciare alcuna speranza di una trattazione esatta. Conviene per altro osservare che gli elementi del problema che interessa determinare si riferiscono in generale a proprietà di media su un grande numero d'individui. Così, p. es., si potrà domandare quale sia la velocità media delle molecole; quale la loro energia cinetica media; quale il valore medio della distanza di una molecola da quella che le è più prossima e così di seguito. Ora si trova che l'andamento di queste proprietà di media è estremamente più regolare, e quindi più facilmente accessibile allo studio, che non le proprietà individuali delle singole molecole. Le forti fluttuazioni di queste tendono infatti a livellarsi tra di loro nell'effettuare le medie; e, se il numero degl'individui è abbastanza grande, vengono praticamente a sparire. Così, p. es., è ben noto che la pressione esercitata da un gas sulle pareti del recipiente che lo contiene è dovuta agli urti delle molecole del gas contro la parete stessa: ciascun urto trasmette un leggiero impulso alla parete e la pressione risulta dall'insieme di questi impulsi elementari. È evidente che gli urti delle varie molecole differiscono di molto in intensità a seconda della velocità della molecola urtante e dell'angolo d'incidenza dell'urto; ma ciò che interessa agli effetti della determinazione della pressione non è l'impulso trasmesso in un singolo urto, bensì il valore medio di questo impulso e il numero (grandissimo) degli urti che hanno luogo nell'unità di tempo. Entrambi questi due fattori sono indipendenti dalle fluttuazioni accidentali nelle proprietà delle singole molecole; e conseguentemente la pressione esercitata da un gas è anch'essa un fenomeno perfettamente regolare.

Il campo della fisica che ha dato origine allo sviluppo della meccanica statistica, e anche quello nel quale la meccanica statistica trova il maggior numero di applicazioni, è lo studio delle proprietà dei gas. Si può anzi dire che meccanica statistica e teoria cinetica dei gas formino un insieme difficilmente divisibile. Alla voce gas si trova un cenno storico sui fondamenti della teoria cinetica dei gas e un'esposizione dei principali metodi di calcolo; viene anche discussa la connessione tra la probabilità e l'entropia di uno stato di un sistema, che forma il fondamento della termodinamica statistica. Nel seguito di questo articolo supporremo il lettore familiare con queste nozioni e daremo alcune notizie complementari, con particolare riguardo alle connessioni delle teorie statistiche con la teoria dei quanti.

Spazio delle fasi. - Il problema della statistica di un sistema costituito da un grande numero di costituenti, quale, ad es., un gas costituito da un grandissimo numero di molecole si può formulare così. Lo stato di un sistema meccanico si caratterizza, come è ben noto, nella meccanica classica, mediante la conoscenza della posizione e della velocità di tutti i punti materiali che lo costituiscono. Limiteremo per semplicità le nostre considerazioni al caso dei sistemi olonomi a vincoli indipendenti dal tempo (v. cinematica, n. 32), tanto più che a questa categoria appartiene la quasi totalità dei sistemi che occorre considerare nelle applicazioni fisiche. Per questi sistemi, la posizione viene caratterizzata dai valori di certi parametri q1 q2, ..., qf detti coordinate generali; il numero f di questi parametri è il numero dei gradi di libertà del sistema. La conoscenza delle f coordinate generali determina soltanto le posizioni, e non le velocità dei punti costituenti il sistema; per avere queste ultime occorre, oltre alle q1, q2, ..., qf, conoscere anche le loro derivate rispetto al tempo ó1, ó2, ..., óf. Possiamo dunque affermare che, per definire completamente lo stato di un sistema meccanico occorre dare 2f grandezze: q1, q2, ..., qf, ó1, ó2, ..., óf. È usuale e conveniente, nella meccanica analitica, usare un insieme di coordinate differente da questo: precisamente in luogo delle f grandezze: ó1, ó2, ..., óf se ne introducono altre f: p1, p2, ..., pf, definite al modo seguente. L'energia cinetica T, come del resto qualsiasi altra funzione dello stato del sistema, è una funzione delle q e delle q

La variabile pr, che prende il nome di momento coniugato alla qr, è data, per definizione, da

Invece che per mezzo delle coordinate generali e delle loro derivate rispetto al tempo, rappresenteremo lo stato del sistema per mezzo delle 2 f variabili di stato

Le leggi che determinano come le variabili di stato variano col tempo (equazioni del movimento) si possono scrivere, nella forma canonica di Hamilton,

dove la funzione H (q1, q2, ..., qf, p1, p2, ..., pf), detta funzione di Hamilton, o semplicemente Hamiltoniana, s'identifica, per il caso dei sistemi conservativi, con l'energia del sistema.

È assai opportuno, per la rappresentazione degli stati di un sistema, introdurre la seguente locuzione geometrica. Chiameremo, secondo J. W. Gibbs, spazio delle fasi uno spazio di 2 f dimensioni, avente le 2 f variabili di stato (2) come coordinate cartesiane ortogonali. Esiste evidentemente una corrispondenza tra i punti dello spazio delle fasi e gli stati del sistema: invero, dato lo stato, sono noti i valori delle qr e delle pr, e quindi si può costruire un punto dello spazio delle fasi; viceversa, dato un punto nello spazio delle fasi, se ne conoscono le coordinate qr e pr, e queste definiscono uno stato del sistema. Possiamo dunque affermare che un punto nello spazio delle fasi rappresenta uno stato del sistema, e nel seguito parleremo indifferentemente degli stati del sistema oppure dei punti che li rappresentano nello spazio delle fasi.

Come lo stato di un sistema varia col tempo per effetto del movimento del sistema, così il punto che rappresenta lo stato nello spazio delle fasi si muove descrivendo una traiettoria. Il movimento è determinato dalle equazioni di Hamilton (3) che determinano le derivate rispetto al tempo delle coordinate qr e pr del punto rappresentativo e cioè le 2 f componenti della sua velocità nello spazio a 2 f dimensioni delle fasi.

Dalla forma delle equazioni di Hamilton risulta che, note le qr e le pr al tempo t = 0, resta determinato lo stato del sistema, e quindi i valori delle qr e delle pr, per ogni istante t passato o futuro. Ciò s'interpreta geometricamente dicendo: se è noto il punto P0 che rappresenta lo stato al tempo 0, si può determinare il punto P (t) che rappresenta lo stato ad un istante qualunque. Per il punto P0 passa dunque una traiettoria (e una sola), luogo geometrico di tutti i punti P (t); e tutto lo spazio delle fasi è rigato da una famiglia di tali traiettorie. Nel caso più comune che il sistema sia conservativo e la Hamiltoniana H indipendente dal tempo, questa famiglia di traiettorie ha le seguenti proprietà:

a) Per ogni punto dello spazio delle fasi passa una e una sola traiettoria.

b) Ogni traiettoria giace per intero sopra una delle superficie

H = costante

(principio della conservazione dell'energia).

La forma di queste traiettorie, che si distendono sulle superficie H = cost., è in generale assai complicata; essa ha notevole importanza nei problemi statistici.

A questo proposito si considerano i sistemi ergodici, e cioè quelli per cui le predette traiettorie, avvolgendosi continuamente sopra le superficie di energia costante, finiscono per passare per tutti i punti della detta superficie. Il sistema si dice invece quasi-ergodico se, pur non esistendo traiettorie che passino per tutti i punti della superficie H = cost., esistono però delle traiettorie che la riempiono densamente; vale a dire che passano a distanza arbitrariamente piccola da ogni suo punto. Una definizione che sostanzialmente equivale alla precedente è questa: un sistema è quasi-ergodico se, presi sopra ogni superficie H = cost. due elementi di superficie arbitrariamente piccoli, esiste sempre almeno una traiettoria che li attraversa entrambi.

È essenziale, per la deduzione delle proprietà statistiche, il sapere se il sistema che si considera possa, oppur no, considerarsi ergodico o quasi-ergodico. Infatti, per arrivare a una deduzione meccanica della legge di Boltzmann, e cioè della legge fondamentale della meccanica statistica, è necessario ammettere che il sistema in considerazione (gas, corpo solido, ecc.) sia per lo meno quasi-ergodico. Vi sono state pertanto lunghe discussioni per decidere fino a che punto fosse legittima l'ipotesi che i sistemi, ai quali ordinariamente si applica la meccanica statistica, si possano considerare ergodici o quasi-ergodici. La conclusione è stata che, mentre non esistono sistemi meccanici ergodici, possono invece esistere sistemi quasi ergodici; sembra anzi che sistemi meccanici molto complicati e senza speciali caratteristiche di simmetria debbano in generale essere quasi-ergodici. E, naturalmente, i sistemi che occorre considerare nelle applicazioni statistiche, sono sempre di eccezionale complicazione, sia per l'enorme numero di costituenti, sia anche perché, a rigor di termini, si deve considerare che faccia parte del sistema anche l'insieme di tutti quei corpi che possono, p. es. attraverso a una trasmissione di calore, influenzare il movimento del corpo in considerazione. È dunque plausibile l'ipotesi che i sistemi ai quali si applicano le considerazioni statistiche siano quasi-ergodici (ipotesi della quasi-ergodicità).

Tra le proprietà dello spazio delle fasi che hanno maggiore importanza per le applicazioni statistiche dobbiamo ancora citare il teorema di Liouville. Consideriamo, nello spazio delle fasi, un volume elementare τ0; a ogni punto P0 appartenente a τ0, facciamo corrispondere un altro punto P dello spazio delle fasi con la regola che P sia il punto rappresentativo dello stato in cui si trova, al tempo t, un sistema che, al tempo 0, era nello stato rappresentato da P0. Se teniamo fisso il tempo t, l'insieme dei punti P riempirà un altro elemento di volume τ, corrispondente a τ0: il teorema di Liouville afferma che gl'ipervolumi di τ e τ0 sono eguali.

Legge di ripartizione di Boltzmann. - Il problema fondamentale della meccanica statistica consiste nella ricerca della legge di distribuzione per un sistema che si trovi a una temperatura assegnata. Questo problema ha avuto per la prima volta una soluzione parziale dal Maxwell, per il caso di un gas costituito da molecole puntiformi; la soluzione generale per un sistema qualsiasi è dovuta a L. Boltzmann, e da lui prende il nome di legge di ripartizione di Boltzmann. Il problema della ricerca della legge di distribuzione si può formulare in modi diversi che vogliamo qui considerare.

Riferiamoci dapprima al caso di un gas costituito da molecole che, per semplicità, ammetteremo essere tutte della stessa specie. Ciascuna delle molecole è un sistema meccanico, il cui stato si potrà rappresentare come un punto in uno spazio delle fasi della molecola. Pensiamo di segnare in questo spazio tutti i punti che rappresentano gli stati in cui si trovano le varie molecole a un certo istante. La legge di densità, secondo cui questi punti sono distribuiti nello spazio delle fasi, determina in questo caso direttamente la distribuzione statistica delle molecole.

Accenniamo a un metodo per determinare tale distribuzione che, pur non essendo in alcun modo logicamente rigoroso, presenta il vantaggio di una grande semplicità ed evidenza. Pensiamo di suddividere lo spazio delle fasi in tante cellette, aventi tutte lo stesso ipervolume. Il volume si può scegliere abbastanza grande perché ogni cella contenga un considerevole numero di molecole, ma abbastanza piccolo perché le variazioni della densità di distribuzione dei punti rappresentativi entro una cella siano trascurabili. Indichiamo le varie celle con un numero d'ordine, e siano N1, N2, ... Ns, ... i numeri di molecole i cui punti rappresentativi appartengono alla 1ª, 2ª, ... sª, ... cella. Una elementare considerazione di calcolo combinatorio dimostra che il numero di modi di distribuire le N molecole costituenti il gas tra le varie celle, in modo che N1 appartengano alla prima cella, N2 alla seconda, ecc. ... è dato da

Ammettendo a priori eguale la probabilità di ogni ripartizione delle molecole tra le varie celle (e si noti che questa ipotesi non è in alcun modo giustificata), l'espressione (4) si può ritenere proporzionale alla probabilità della ripartizione N1, N2, ..., Ns, ... .

Conviene ora ricercare la ripartizione più probabile, quella cioè per cui Π è massimo. Occorre tener conto che le Ns sono vincolate da due relazioni. Una di esse:

esprime che il numero totale delle molecole è N; l'altra esprime il principio della conservazione dell'energia e si può formulare nel modo seguente. L'energia di una molecola è una funzione dello stato di essa, e quindi del corrispondente punto nello spazio delle fasi; data però la piccola estensione delle celle, si può ritenere che entro ogni cella l'energia non varî sensibilmente. Chiameremo ws l'energia delle molecole appartenenti alla sa cella. Indicando con W l'energia totale del gas avremo allora la relazione

Il problema della ricerca della ripartizione più probabile si riduce così alla determinazione dei numeri N1, N2, ..., Ns, ... in modo che soddisfino le due relazioni (5) e (6) e rendano massimo (4). Si trova così che i numeri Ns sono espressi da

in cui g e β sono costanti, che si possono determinare in modo da soddisfare (5) e (6) e, al solito, e denota la base dei logaritmi naturali. La costante β si può anche esprimere per mezzo della temperatura assoluta T a cui è legata dalla relazione

dove la costante k, detta costante di Boltzmann, non è altro che il rapporto tra la costante R dei gas perfetti e il numero di Avogadro. Il valore di k è

Siccome tutte le celle in cui abbiamo diviso lo spazio delle fasi hanno egual volume, i numeri Ns sono proporzionali alla densità dei punti rappresentativi nello spazio delle fasi. Possiamo dunque così formulare il risultato precedente:

Il numero delle molecole le cui coordinate e i cui momenti sono rispettivamente comprese negl'intervalli

(e cioè i cui punti rappresentativi cadono nell'elemento d'ipervolume dello spazio delle fasi dq1 dq2 ... dqf dp dp2 ... dpf) è dato da:

A essendo una costante (che si può determinare conoscendo il numero totale delle molecole), mentre w rappresenta l'energia di una molecola espressa in funzione delle sue variabili di stato q1, ... p1, .... La formula (10) esprime la legge di ripartizione di Boltzmann, e si può considerare il risultato più importante della meccanica statistica.

Casi particolari e conseguenze importanti della legge di Boltzmann (10) sono:

La legge di ripartizione delle velocità di Maxwell: in un gas alla temperatura T il numero di molecole, per le quali le componenti u, v, w della velocità di traslazione sono comprese entro i limiti u ed u + du; v e v + dv; w e w + dw, è dato da

m essendo la massa di una molecola (v. gas).

Il principio della equipartizione dell'energia, che si può formulare nel modo seguente. Supponiamo che le molecole del gas siano riferite a un sistema di coordinate generali ortogonali, tali cioè che l'energia cinetica, che è in genere una forma quadratica delle ó, sia una forma quadratica ortogonale

In questo caso l'energia cinetica si spezza nella somma di f addendi, ciascuno dei quali rappresenta l'energia pertinente a uno degli f gradi di libertà della molecola. Il principio della equipartizione dell'energia, che si può dedurre abbastanza semplicemente dalla legge di Boltzmann, afferma che: il valore medio dell'energia cinetica pertinente a ciascuno dei gradi di libertà della molecola è costante ed uguale a kT/2 (per le applicazioni di questo principio v. gas).

Il problema della ricerca della legge di ripartizione si può formulare anche in una forma differente, che presenta in qualche caso notevoli vantaggi su quella che abbiamo fin qui illustrato. Invece di rappresentare individualmente lo stato di ciascuna molecola come un punto nello spazio delle fasi della singola molecola, riguarderemo il nostro corpo, ed eventualmente anche tutti gli altri corpi con i quali esso può interagire, come un unico sistema meccanico, avente un numero enormemente grande di gradi di libertà, e conseguentemente uno spazio delle fasi di un numero elevatissimo di dimensioni. Lo stato di questo sistema complesso sarà rappresentato da un punto del suo spazio delle fasi; e questo punto, col variare del tempo, si muoverà lungo una traiettoria che, se il sistema è quasi-ergodico, finirà per riempire densamente tutta una ipersuperficie di energia costante.

Accenniamo qui a un procedimento per arrivare con queste considerazioni a stabilire la legge di ripartizione di Boltzmann, in base alla ipotesi della quasi-ergodicità del sistema. Premettiamo perciò le seguenti proposizioni:

a) Si abbia un numero molto grande N di sistemi quasi-ergodici, tutti identici e del tutto indipendenti uno dall'altro. Lo stato di ciascuno di questi sistemi sarà rappresentato da un punto dello spazio delle fasi. Al variare del tempo ogni punto rappresentativo si muove su una superficie di energia costante, descrivendola tutta densamente. Supponiamo ora che le energie degli N sistemi siano ripartite uniformemente in uno strettissimo intervallo di energia da E ad E + ΔE. Per conseguenza i punti rappresentativi saranno tutti contenuti nella intercapedine tra le due ipersuperficie

Inizialmente i punti siano ripartiti tra queste due ipersuperficie con una legge di densità arbitraria. Col variare del tempo i punti si sposteranno e la densità della distribuzione verrà in generale a variare col tempo. Si può dimostrare, con una facile applicazione del teorema di Liouville, che la sola legge di densità che si mantiene stazionaria col tempo è quella uniforme. Per tale distribuzione di densità il numero di punti rappresentativi appartenenti a un elemento di volume dello spazio delle fasi, contenuto nell'intercapedine tra le due superficie (13), è proporzionale al volume dell'elemento stesso; o, in altre parole, la probabilità che uno dei sistemi si trovi in uno stato appartenente all'elemento di volume è proporzionale al volume dell'elemento.

b) Consideriamo un sistema costituito da due parti, tra le quali si eserciti una interazione debolissima; e supponiamo che ciascuno dei due sistemi parziali 1 e 2 abbia un grandissimo numero di gradi di libertà. (Si pensi, per fissare le idee, a due corpi, contenenti ciascuno miriadi di molecole, e posti in contatto l'uno con l'altro, in modo che possano avvenire scambî di calore). Siano x1, x2,..., xN1, le coordinate e i momenti del primo sistema, e siano y1, y2, ..., yN2 le coordinate e i momenti del secondo sistema parziale. Dovremo allora considerare tre diversi spazî delle fasi: quello del primo sistema parziale, avente coordinate x1, x2, ..., xN1; quello del secondo sistema parziale con coordinate y1, y2, ..., yN2; e infine quello del sistema complessivo, costituito dall'insieme dei due sistemi parziali, che ha come coordinate x1, x2, ..., xN1, y1, y2, ..., yN2. Si noti che un elemento di volume dello spazio delle fasi complessivo si può scrivere nella forma dx1 dx2 ... dxN1dy1 dy2 ... dyN2 e cioè come prodotto di un elemento di volume del primo spazio delle fasi (e cioè dx1 dx2 ... dxN1) per un elemento di volume del secondo spazio delle fasi (e cioè dy1 dy2 ... dyN1).

Il volume dello spazio delle fasi del primo sistema, corrispondente a stati di energia compresa tra E1 ed E1 + dE1 si potrà scrivere

e similmente per il secondo sistema avremo

È facile convincersi che se, come abbiamo ammesso, entrambi i sistemi hanno un numero grandissimo di gradi di libertà, ω1 e ω2 sono funzioni rapidissimamente crescenti dei loro argomenti. Si riconosce, p. es., senza difficoltà, che se uno dei sistemi è un gas perfetto, contenente N molecole puntiformi, racchiuse in un recipiente di volume costante, si ha

E siccome N è un numero grandissimo, l'esponente di E è molto grande e quindi la funzione ω rapidissimamente crescente.

Sia:

l'energia totale del sistema complessivo. La probabilità che l'energia del primo sistema parziale sia compresa entro i limiti E1 ed E1 + dE1 (e conseguentemente l'energia del secondo sistema parziale entro i limiti E E1 ed E E1dE1) è proporzionale, secondo quanto si è detto in a), al volume dello spazio delle fasi complessivo corrispondente agli stati predetti. Un calcolo elementare dimostra che questo è a sua volta proporzionale a:

La ripartizione di energia più probabile si ha cercando il massimo della espressione precedente (o, che è lo stesso, del suo logaritmo) con la condizione di vincolo (17). Si trova così la seguente condizione di massimo:

Siccome d'altra parte le due funzioni ω1 e ω2 crescono rapidissimamente al crescere dei loro argomenti, si riconosce che la probabilità di ripartizioni dell'energia totale E sensibilmente diverse da quella definita da (18) è praticamente trascurabile.

Il risultato precedente ci dice dunque che, se si portano in contatto diversi sistemi, aventi ciascuno un numero assai grande di gradi di libertà (in pratica costituito ciascuno da un grandissimo numero di molecole), l'energia si ripartisce tra di loro in modo tale che, per tutti i sistemi, la grandezza

abbia lo stesso valore. E ciò significa che la grandezza precedente non dipende dalle particolarità speciali dei singoli sistemi, ma è funzione unicamente della temperatura T comune a tutti i sistemi in contatto. Possiamo dunque scrivere, per ogni sistema contenente un grande numero di molecole,

dove F è il simbolo di una funzione universale.

La relazione precedente si può usare per una definizione statistica della temperatura assoluta; oppure si può determinare F(T) per mezzo della temperatura assoluta definita da un termometro a gas perfetto nel modo seguente. Applicando la (19) al caso di un gas perfetto, e tenendo conto della (16), si trova (trascurando l'unità in confronto del numero grandissimo N delle molecole)

D'altra parte l'energia totale delle N molecole - v. gas, formule (8), (8′) - è:

e quindi risulta:

La (19) si può dunque scrivere:

Siamo ora in grado di ottenere una semplice dimostrazione della legge di ripartizione di Boltzmann. Dato un sistema che si trovi alla temperatura T, ci proponiamo di trovare la probabilità che il punto rappresentativo del suo stato si trovi entro un elemento di volume dτ dello spazio delle fasi del sistema dato. Per mantenere il sistema alla temperatura T, possiamo pensare di porlo in contatto con un corpo assai più grande del sistema dato e che si trovi alla temperatura T; questo sistema funziona da "bagno di temperatura" e dovremo ammettere che esso abbia un numero grandissimo di gradi di libertà così che per esso valga la relazione (20). Chiamiamo w l'energia posseduta dal primo sistema quando il suo stato è rappresentato da un punto appartenente a dτ. Se E è l'energia totale, l'energia del secondo sistema "bagno di temperatura" sarà E − w; per ipotesi w si può considerare assai piccolo in confronto di E. La probabilità cercata è proporzionale al volume dello spazio delle fasi per il sistema totale (primo + secondo); e questo volume è a sua volta proporzionale a:

Tenendo conto di (20), e del fatto che w si può considerare infinitesimo rispetto ad E, troviamo:

e siccome ω (E) non dipende dallo stato del primo sistema, possiamo concludere che la probabilità che questo si trovi in uno stato appartenente a dτ è proporzionale a:

che esprime la legge di Boltzmann. La costante di proporzionalità, ove occorra, si può determinare con la condizione che la probabilità totale è eguale ad 1; tale costante è dunque:

dove l'integrale si deve estendere a tutto lo spazio delle fasi.

Un'altra conseguenza notevole della formula (20) è la relazione, stabilita da Boltzmann, tra l'entropia di un sistema e la probabilità del suo stato. Da quanto si è detto risulta infatti che ω (E) si può ritenere proporzionale alla probabilità che il sistema abbia energia E. Integrando la (20), si ricava d'altra parte:

Il secondo membro rappresenta l'entropia; la relazione precedente si può dunque leggere:

entropia = k log probabilità.

La statistica della teoria dei quanti. - Lo sviluppo della teoria dei quanti, iniziatosi per opera di M. Planck negli ultimi anni del sec. XIX, e cioè, poco dopo i classici lavori di Boltzmann, fu profondamente influenzato e, si può anzi dire, promosso dalle considerazioni statistiche; e a sua volta reagì sopra queste, modificandole in molti punti essenziali.

Il principio dell'equipartizione dell'energia, che è una diretta conseguenza della legge di ripartizione di Boltzmann, prende una forma particolarmente espressiva nel caso che il sistema a cui lo si applica sia soggetto a forze di tipo elastico; è noto infatti che in questo caso i valori medî delle energie cinetica e potenziale sono eguali, e quindi l'energia totale è il doppio dell'energia cinetica media; quest'ultima, d'altra parte, è eguale, per il principio della equipartizione, a½ f k T, essendo f il numero dei gradi di libertà del sistema. Il valore medio w dell'energia in un sistema elastico risulta dunque:

Questo risultato, come anche del resto tutte le altre conseguenze del principio dell'equipartizione, si mostra in accordo con i fatti sperimentali solo parzialmente.

Così, p. es., la (21) si può applicare a un corpo solido contenente N atomi, riguardando in prima approssimazione gli atomi come punti materiali legati tra di loro da forze elastiche; il numero dei gradi è in questo caso 3 N, e quindi la (21) ci dà:

come espressione dell'energia termica del corpo solido. Se, p. es., ci riferiamo ad un grammo-atomo, N è il numero di Avogadro; quindi Nk = R. La relazione diventa:

a cui corrisponde il calore atomico

cioè: il calore atomico di tutti gli elementi solidi è costante e eguale a 3 R (cioè circa 6 calorie-gradi). Questa non è altro che l'espressione della legge trovata empiricamente da Dulong e Petit.

Mentre così da una parte troviamo una conferma sperimentale del principio della equipartizione, lo stesso risultato conduce d'altro lato a serie difficoltà per la teoria. In primo luogo è noto infatti che la legge di Dulong e Petit è valida per la maggioranza dei corpi solidi a temperatura ordinaria; a basse temperature invece il calore atomico dei solidi scende al disotto del valore di Dulong e Petit, e tende ad annullarsi allo zero assoluto. Secondo il principio della equipartizione il calore specifico dei solidi dovrebbe invece essere costante. Altra difficoltà per la teoria si incontra quando si analizza la legittimità della ipotesi che, agli effetti statistici, gli atomi del solido si possano riguardare come punti materiali. È ben noto al contrario che l'atomo è un edificio di notevole complessità, avente un gran numero di gradi di libertà interni, che non sono stati considerati nella computazione del calore specifico del solido. Nella statistica classica non si trova alcuna giustificazione del perché questi gradi di libertà interni si debbano trascurare. Una difficoltà analoga, e cioè che alcuni dei gradi di libertà si debbono computare e altri trascurare agli effetti del calore specifico, si trova anche nella teoria del calore specifico dei gas (v.).

Come ultimo esempio delle difficoltà che s'incontrano per l'applicazione del principio della equipartizione, citiamo il caso dello spettro del corpo nero, cioè della radiazione che si stabilisce entro una cavità, le cui pareti siano mantenute alla temperatura uniforme T. Si può dimostrare che il campo di radiazione entro una cavità di volume Ω ha proprietà dinamiche simili a quelle di un solido elastico che riempisse la cavità; ed è in particolare suscettibile di vibrare con certe frequenze caratteristiche, ognuna delle quali si può considerare corrispondente a un grado di libertà del sistema. Naturalmente, trattandosi di un sistema continuo, il numero totale dei gradi di libertà è infinito, si trova più precisamente che il numero delle frequenze caratteristiche comprese tra i limiti ν e ν + dν è dato da:

(l'espressione precedente, integrata rispetto a ν da 0 a ∞, diverge; ciò che indica appunto che il numero totale dei gradi di libertà è ∞).

Secondo il principio dell'equipartizione dell'energia si sarebbe indotti ad attribuire a ognuno di questi gradi di libertà, secondo la (21), l'energia media kT. Quindi, nella radiazione del corpo nero, l'energia raggiante di frequenza tra ν e ν + dν dovrebbe essere:

Questa formula, stabilita da Rayleigh e Jeans, si mostra in accordo con l'esperienza soltanto per basse frequenze ed alte temperature. Che essa non possa esser valida in generale, risulta tra l'altro dal fatto che in questo caso l'energia totale della radiazione nera dovrebbe essere infinita, poiché si trova un risultato infinito integrando la (23) rispetto a ν da 0 a ∞.

Appunto tentando di risolvere le difficoltà incontrate nella teoria statistica del corpo nero il Planck fu per il primo indotto a introdurre l'ipotesi dei quanti (v. atomo).

Il risultato fondamentale della teoria dei quanti, e cioè l'esistenza, per ogni sistema atomico o molecolare, di una successione discreta di valori possibili per l'energia, ha conseguenze statistiche assai notevoli. Siano w1, w2, ..., wr ... i livelli energetici di un atomo o molecola. Possiamo domandarci quale è la probabilità che, alla temperatura T, il sistema si trovi in uno stato di energia wr; questo problema, che è l'analogo quantistico della ricerca della legge di ripartizione di Boltzmann, si può trattare in modo analogo al caso classico; si trova che le probabilità che il sistema sia negli stati w1, w2 ..., wr, ... sono rispettivamente proporzionali a:

Si noti che, affinché il risultato precedente sia valido, i livelli w1, w2, ..., wr ... debbono essere tutti semplici; e quindi, in caso di degenerazione, ogni livello energetico deve venir ripetuto tante volte quanto è il suo grado di degenerazione.

Questa estensione della legge di Boltzmann ai sistemi quantizzati ha conseguenze molto importanti. Essa permette, p. es., quando la si applica a un oscillatore armonico, di calcolare il valore medio dell'energia alla temperatura T. Questo risulta:

dove ν è la frequenza propria dell'oscillatore e h la costante di Planck. Nel caso limite, in cui hν sia trascurabile di fronte a kT, la formula precedente ci dà, come nella statistica classica, w = kT; mentre altrimenti w risulta minore di quanto corrisponderebbe al principio della equipartizione dell'energia. Attribuendo a ciascuno degli oscillatori (22) l'energia media (24) si trova, in luogo della formula di Rayleigh e Jeans, la seguente espressione per l'energia della radiazione del corpo nero avente frequenza compresa tra ν e ν + dν

È questa la celebre formula di Planck per lo spettro del corpo nero, che è ottimamente verificata dall'esperienza, e costituì il primo fondamento sperimentale della teoria dei quanti.

La formula (24) fu successivamente applicata da Einstein e da P. Debye al problema dei calori specifici dei corpi solidi, e permise di trovare una spiegazione assai soddisfacente del fatto che la legge di Dulong e Petit cessa di essere valida per temperature molto basse e che il calore specifico dei solidi tende allo zero quando la temperatura scende allo zero assoluto.

Troviamo ancora nell'estensione della legge di Boltzmann ai sistemi quantizzati la giustificazione del fatto che normalmente nel calcolo dei calori specifici gli atomi si possono considerare come punti materiali, trascurando completamente i loro gradi di libertà interni: in genere negli atomi la differenza di energia tra il livello energetico più profondo (livello fondamentale) e gli altri livelli energetici è molto grande a confronto di kT. Perciò risulta dalle estensioni della legge di Boltzmann che la probabilità che l'atomo non si trovi nel livello energetico fondamentale è praticamente nulla. Per conseguenza l'energia dovuta ai gradi di libertà interni dell'atomo non varia al variare della temperatura; e questi dunque non portano alcun contributo al calore specifico della sostanza. Naturalmente risulta dalla spiegazione che abbiamo data, che essa non è valida in senso assoluto, ma solo finché la temperatura non oltrepassa certi limiti. Che del resto il contributo dei varî gradi di libertà del sistema al calore specifico vada decrescendo con la temperatura risulta anche, per il caso dell'oscillatore armonico, dalla (24); un'elementare discussione di questa formula mostra infatti che, per T tendente a zero, non solo w, ma anche dw/dT tende a zero.

Relazioni con il principio di Nernst. - Conviene qui notare la connessione dei risultati, a cui abbiamo accennato, col terzo principio della termodinamica o principio di Nernst (v. termodinamica).

Questo, come è noto, fissa la costante additiva che resta indeterminata nell'usuale definizione termodinamica dell'entropia, stabilendo che per tutti i corpi (condensati) l'entropia si annulla allo zero assoluto. L'entropia di un corpo alla temperatura T si ottiene dunque dall'integrale

esteso ad un processo in cui il corpo viene riscaldato in modo reversibile dalla temperatura o alla temperatura T; dQ è il differenziale della quantità di calore trasmessa al corpo. Se indichiamo con c il calore specifico, potremo scrivere, per l'unità di massa della sostanza, dQ = cdT; e l'integrale precedente prende la forma

Di qui si riconosce la necessità, affinché l'integrale converga nel limite inferiore, che il calore specifico c si annulli per T = 0. La statistica dei sistemi quantizzati conduce appunto a questo risultato.

Che, del resto, vi debba essere una correlazione tra l'esistenza di stati quantici discreti e la determinazione della costante dell'entropia, risulta anche dalle considerazioni seguenti.

Riferiamoci a un sistema A, costituito da un grande numero N di sistemi a indipendenti, tutti uguali tra di loro. Classicamente il problema della distribuzione statistica di un tale sistema si tratta suddividendo lo spazio delle fasi di ciascuno dei sistemi a in cellette aventi tutte lo stesso ipervolume. Se N1, N2, ... sono i numeri dei sistemi a, il cui punto rappresentativo appartiene alla prima, alla seconda, ... cella, la probabilità dello stato, definita come numero di modi di realizzare la data distribuzione, è

e la distribuzione più probabile, che corrisponde alla legge di ripartizione di Boltzmann, è quella che rende massima la probabilitȧ Π.

In questa considerazione, basata sulla meccanica classica, il valore di Π, data la legge di densità della distribuzione nello spazio delle fasi, non è completamente determinato, poiché esso dipende ancora dalla scelta arbitraria del volume delle celle in cui è stato diviso lo spazio delle fasi. Un facile calcolo mostra che, cambiando questo volume per un fattore ϑ, N si altera approssimativamente di un fattore

Abbiamo stabilito d'altra parte, tra entropia S e probabilità Π la relazione di Boltzmann

Al fattore che resta indeterminato in Π, per l'arbitrarietà nella scelta del volume delle celle, corrisponde, secondo questa formula, un'indeterminazione per una costante additiva nell'entropia S. Ciò indica che, servendosi della meccanica statistica classica, si ottiene l'interpretazione del secondo principio della termodinamica, ma non quella del principio di Nernst.

La situazione è del tutto differente, se introduciamo la quantizzazione dei sistemi a. In questo caso infatti resta automaticamente introdotta una classificazione discreta degli stati possibili dei sistemi a, senza la necessità di un'arbitraria suddivisione in cellette dello spazio delle fasi; e la distribuzione resta definita dalla conoscenza dei numeri N1, N2, ... dei sistemi, che si trovano rispettivamente nel primo, nel secondo, ... stato quantico. Resta così tolto ogni elemento arbitrario dalla definizione della probabilità Π e conseguentemente, attraverso alla relazione di Boltzmann, anche dalla definizione statistica dell'entropia. Si potrebbe facilmente dimostrare che questa definizione dell'entropia corrisponde statisticamente al principio di Nernst.

Secondo quanto abbiamo esposto, alle varie celle, in cui si divide lo spazio delle fasi nella meccanica classica, corrispondono, nel caso dei sistemi quantizzati, gli stati quantici. È interessante notare quali sono le conseguenze di questo fatto nel caso limite di grandi numeri quantici, quando cioè, secondo il principio di corrispondenza, le differenze tra meccanica classica e quantistica tendono a sparire. Riferiamoci per semplicità ad un sistema a un solo grado di libertà, avente la coordinata generale q e il momento coniugato p. Lo spazio delle fasi è in questo caso a due dimensioni e ha q e p come coordinate.

Nel caso limite dei grandi numeri quantici vengono, come è noto, a coincidere non soltanto i risultati della meccanica quantistica e di quella classica, ma anche quelli ottenuti dalle condizioni di quantizzazione di Bohr-Sommerfeld. La condizione di Sommerfeld

s'interpreta geometricamente, nel "piano" delle fasi, così: l'area del piano delle fasi racchiusa entro l'orbita corrispondente all'nmo stato quantico è nh. Ne segue che, se tracciamo, nel piano delle fasi, le orbite corrispondenti a tutti gli stati quantici, l'area compresa tra due orbite successive è uguale ad h. E siccome ciascuno stato quantico corrisponde a una cella, concludiamo che: nel caso di sistemi a un grado di libertà lo spazio (piano) delle fasi si deve suddividere in celle di estensione (area) h. Se il sistema avesse invece f gradi di libertà, le celle dovrebbero prendersi d'ipervolume hf.

Questi risultati si possono altresì mettere in relazione col principio d'indeterminazione di Heisenberg

Questo equivale, infatti, a dire che è fisicamente impossibile determinare lo stato di un sistema come un punto nello spazio delle fasi; il margine d'incertezza è, nelle migliori condizioni, entro un'area dell'ordine di grandezza h, pari cioè all'estensione che abbiamo trovato doversi attribuire alle celle dello spazio delle fasi.

Le nuove statistiche. - Abbiamo fin qui considerata la legge di ripartizione di Boltzmann da due punti di vista diversi, cioè:

a) esprimere la probabilità che un sistema, mantenuto a una data temperatura T, si trovi in un certo stato quantico (probabilità proporzionale ad e-w/kT);

b) dato un sistema, costituito dall'insieme di molti sistemi elementari eguali tra di loro (atomi, molecole, ...), ricercare il numero di sistemi elementari ehe si trovano in un determinato stato quantico (numero proporzionale ad e-wr/kT).

Per la validità della legge di ripartizione di Boltzmann in questo secondo caso è necessario che i sistemi elementari che costituiscono il sistema totale siano indipendenti tra di loro (e cioè lo stato in cui si trova uno di essi non sia influenzato dallo stato in cui si trovano gli altri). Così, per esempio, la legge di Boltzmann sarà certamente valida se i sistemi elementari sono completamente isolati uno dall'altro; se invece i sistemi parziali sono distribuiti entro lo stesso volume, come, p. es., gli atomi o le molecole di un gas, esistono in genere delle interdipendenze tra di essi che vengono a infirmare la validità della legge di Boltzmann.

Se anche si esclude il caso che tra le molecole del gas si esercitino delle forze considerevoli, e cioè si considera il caso limite di un gas ideale, le molecole non si possono considerare indipendenti le une dalle altre a causa del fatto che esse sono indistinguibili tra di loro.

È noto che in un sistema contenente un certo numero di corpuscoli identici (quali, p. es., gli elettroni di un atomo, oppure le molecole di un gas) si osservano dei fenomeni peculiari dovuti all'identità dei corpuscoli. Da questo punto di vista i diversi tipi di corpuscoli si possono classificare in due categorie.

a) Corpuscoli, per cui vale il principio di Pauli (p. es. elettroni, protoni): hanno la proprietà che uno stato quantico semplice può essere occupato al più da un solo corpuscolo; uno stato degenere può essere il massimo occupato da tanti corpuscoli, quanto è il grado di degenerazione dello stato (v. atomo). Le autofunzioni sono in questo caso caratterizzate dalla proprietà di essere antisimmetriche (e cioè di cambiare di segno e non di valore) rispetto allo scambio delle coordinate di due qualunque delle particelle identiche.

b) Corpuscoli, per i quali vale la statistica di Bose-Einstein (la giustificazione di questo nome si vedrà tra breve), quali, ad es., il nucleo di elio, l'atomo d'idrogeno o di elio, i quanti di luce, ecc.: sono caratterizzati matematicamente dalla proprietà delle loro autofunzioni di essere simmetriche rispetto allo scambio di due dei corpuscoli. Per quanto interessa le applicazioni statistiche, la proprietà che importa notare è la seguente: siano N1, N2,..., Nr ... i numeri di corpuscoli che occupano rispettivamente il 1°, 2°, ... rmo, ... stato quantico; esiste uno, e un solo, stato del sistema definito dalla conoscenza dei "numeri di occupazione" N1, N2, ..., Nr ... Per intendere il significato di questo, si tenga presente che, per dedurre la legge di Boltzmann, abbiamo ammesso che lo stato predetto si potesse invece realizzare in

modi diversi.

È facile convincersi che la probabilità a priori dei diversi stati viene considerevolmente alterata da queste proprietà dei sistemi contenenti particelle identiche. Possiamo chiarire la situazione con un esempio particolarmente semplice: si abbia un sistema contenente due particelle identiche, ciascuna suscettibile di occupare due stati quantici 1,2. Siano N1 ed N2 i numeri di occupazione dei due stati; essi potranno a priori avere i valori

Il numero di modi per realizzare questi tre stati sono, nel caso di Boltzmann, rispettivamente 1,2,1 - il fatto che lo stato (1,1) si possa realizzare in due modi deriva dalla circostanza che le due particelle possono prendersi in un ordine oppure nell'ordine opposto -. Se invece vale la statistica di Bose-Einstein, i numeri di modi di realizzare i tre stati sono 1,1,1. Infine, se vale il principio di Pauli, i due stati (2,0) e (0,2) non si possono realizzare, e quindi i numeri di modi di realizzare i tre stati sono rispettivamente 0,1,0.

Si comprende agevolmente come queste peculiarità dei sistemi contenenti particelle identiche vengano ad alterare i pesi statistici da attribuirsi ai diversi stati di un gas, e quindi ad alterarne le proprietà.

I principî della statistica di Bose-Einstein furono per la prima volta usati dal fisico indiano Bose nell'applicazione alla teoria della radiazione del corpo nero considerata come un gas di fotoni (1925); successivamente Einstein riconobbe che il principio usato da Bose nella numerazione degli stati era suscettibile di applicazione più generale, e svolse la sua teoria di un gas ideale le cui molecole obbediscano alla statistica di Bose-Einstein.

Le conseguenze statistiche del principio di Pauli furono sviluppate da E. Fermi (1925); la statistica basata su questo principio è perciò chiamata statistica di Fermi.

Successivamente lo sviluppo della meccanica quantistica, particolarmente per opera di Heisenberg e Dirac, permise di riconnettere la validità della statistica di Fermi o di Bose-Einstein per le varie particelle elementari al carattere di antisimmetria oppure di simmetria delle autofunzioni rispetto allo scambio delle coordinate di due delle particelle identiche.

Le proprietà di un gas che obbedisca alla statistica di Fermi o a quella di Bose-Einstein, differiscono assai poco dalle leggi classiche dei gas perfetti (deducibili in base alla statistica di Boltzmann) finché la temperatura è elevata e la densità non troppo grande; le deviazioni diventano invece sensibili per basse temperature e per densità elevate, e sono, per le due nuove statistiche, in verso opposto. Precisamente, nel caso della statistica di Fermi, la pressione risulta più alta di quanto corrisponderebbe alla equazione di stato dei gas perfetti, mentre, se vale la statistica di Bose-Einstein, essa è più bassa. Tuttavia, se si considera un gas ordinario, il campo di temperatura e di pressione in cui queste deviazioni sono sensibili, è quello in cui si hanno già fortissime deviazioni dalle leggi dei gas perfetti, dovute all'azione delle forze intermolecolari e all'estensione finita delle molecole; queste deviazioni sono tanto grandi da mascherare l'effetto puramente statistico.

Per conseguenza l'importanza delle nuove statistiche nell'applicazione ai gas ordinarî è piuttosto scarsa. La statistica di Fermi ha invece trovato un'applicazione interessante allo studio del comportamento degli elettroni nell'interno di un metallo; è noto che alcuni degli elettroni nell'interno di un metallo possono spostarsi da atomo ad atomo e costituiscono una specie di "gas elettronico". La densità di questo è talmente grande, che le sue leggi statistiche e la sua equazione di stato deviano completamente dalle leggi dei gas perfetti, e obbediscono invece a quelle deducibili dalla statistica di Fermi. Le conseguenze della statistica di Fermi nello studio delle proprietà elettriche dei metalli sono state specialmente sviluppate da Sommerfeld (1927), che ha potuto, in base ad esse, dare un'interpretazione qualitativa della maggior parte delle proprietà dei metalli.

Raccogliamo qui i principali risultati delle nuove statistiche.

Legge di distribuzione: il numero medio di molecole in un stato quantico (completamente definito, sia per quanto riguarda lo stato interno, sia per quanto riguarda il moto del baricentro della molecola) è dato da

nel caso di Boltzmann;

nel caso di Bose-Einstein;

nel caso di Fermi; A è una costante, e w l'energia dello stato considerato. È chiaro che se l'espressione

è molto maggiore di 1, e cioè se la probabilità di occupazione dello stato è molto piccola, i risultati delle tre statistiche vengono praticamente a coincidere; altrimenti si hanno considerevoli deviazioni tra di esse.

La differenza tra la legge di ripartizione di Boltzmann e le leggi di ripartizione delle nuove statistiche ha come coseguenza una differenza nell'equazione di stato di un gas ideale (intendendosi con ciò un gas per il quale siano trascurabili le forze che si esercitano tra le varie molecole). Queste deviazioni, e i fenomeni ad esso connessi, si sogliono chiamare fenomeni di degenerazione.

L'entità dei fenomeni di degenerazione è determinata dal valore del parametro

dove n è il numero delle molecole per unità di volume ed m la massa molecolare. I fenomeni di degenerazione sono piccoli o grandi a seconda che D è piccolo o grande in confronto all'unità. Così, ad es., per un gas ideale monoatomico, costituito da N molecole alla temperatura T e pressione p, occupanti il volume V, vale, secondo la statistica di Boltzmann, la classica equazione di stato dei gas perfetti

Nel caso delle nuove statistiche si trovano invece equazioni di stato differenti, che nel caso limite di piccola degenerazione, si possono scrivere

Vale il segno superiore nel caso della statistica di Bose-Einstein, e il segno inferiore nel caso della statistica di Fermi.

Dalla (27) risulta che le divergenze dall'equazione classica dei gas perfetti tendono a scomparire, quando il parametro di degenerazione si annulla. Se invece D è comparabile con l'unità, cioè nel caso limite di forte degenerazione, le leggi del gas degenere vengono a differire completamente dalle leggi classiche.

Si trova così, p. es., che in un gas ideale che obbedisca alla statistica di Fermi, sia la pressione sia l'energia cinetica media delle molecole non si riducono a zero allo zero assoluto; esse tendono invece a valori limiti (detti rispettivamente pressione ed energia allo zero assoluto), dati da

Parimenti si trova che, per un gas ideale che obbedisca alla statistica di Fermi, il calore specifico Cv a volume costante non è costante, come risulterebbe dalla statistica di Boltzmann, ma decresce con la temperatura, e tende a zero per T = 0.

Queste proprietà, come abbiamo già accennato, hanno importanza per la spiegazione delle proprietà elettriche dei metalli. Si trova infatti che il gas di elettroni, a cui sono dovute queste proprietà, si trova in condizioni di degenerazione assai forte (infatti per esso, data la considerevole concentrazione e la piccola massa degli elettroni, il parametro D risulta molto grande anche a temperature elevate) e quindi il suo comportamento è sotto molti punti di vista del tutto differente da quello che avrebbe un gas secondo le leggi classiche.

Bibl.: L. Boltzmann, Leçons sur la théorie des gas, Parigi 1902; J. H. Jeans, The dynamical Theory of Gases, Cambridge 1925; R. H. Fowler, Statistical Mechanics, ivi 1929; L. Brillouin, Les statistiques quantiques et leurs applications, Parigi 1930; E. Fermi, Molecole e cristalli, Bologna 1934.