ERRORI D'OSSERVAZIONE

Enciclopedia Italiana (1932)

ERRORI D'OSSERVAZIONE

Corradino Mineo

D'OSSERVAZIONE 1. Oggetto della teoria degli errori d'osservazione. - Quando si voglia raggiungere la massima esattezza possibile nella determinazione di grandezze fisiche, si è portati a iterare le misure (siano queste dirette o indirette), in modo da avere più valori delle grandezze incognite. Resta allora a vedere come debbano esser combinate queste osservazioni sovrabbondanti allo scopo di dedurne i valori, sotto certi rispetti, più convenienti, delle incognite stesse.

Per alcuni il problema è di esclusivo dominio del calcolo delle probabilità (v.), in quanto gli errori d'osservazione obbediscono a una legge di probabilità e tendono a compensarsi in un grande numero di osservazioni: la conoscenza di quella legge è dunque necessaria per precisare in qualî condizioni questa compensazione si effettui nel miglior modo possibile.

Altri, invece, crede di poter fondare la combinazione delle osservazioni, indipendentemente da ogni legge di probabilità dell'errore, sulla nozione a priori della precisione delle misure, ossia dei limiti dentro cui presumibilmente debbano cadere gli errori.

2. Errori accidentali e legge di Gauss. - Se si misura più volte una grandezza fisica contentandosi d'una approssimazione grossolana, si trovano generalmente numeri che non differiscono l'uno dall'altro; ma se si cerca di conseguire la massima precisione possibile, quell'accordo sparisce e i numeri risultanti dalle misure differiscono più o meno tra loro. Questo fatto prova che le osservazioni sono soggette a inevitabili errori. È subito da avvertire che in questa teoria vanno considerati soltanto i cosiddetti errori accidentali o fortuiti, dovuti a cause ignote o mal note, variabili in modo imprevedibile da un'osservazione all'altra, per cambiamenti imponderabili e istantanei sia nelle condizioni dell'osservazione sia in quelle dell'osservatore; mentre si devono intendere esclusi gli errori sistematici, dovuti a cause costanti ben conosciute (imperfetta correzione degli strumenti, rifrazione atmosferica, variazioni di temperatura, flessione del cannocchiale, ecc.), dai quali le osservazioni si devono ritenere liberate. Ma poiché la certezza di aver preveduto tutte le cause costanti d'errore e d'avere provveduto a liberarne le osservazioni non si può aver mai, ne viene che la mancanza d'errori sistematici è un semplice desideratum; il quale costituisce, a ogni modo, un postulato essenziale della teoria degli errori, i cui risultati tanto valgono quanto questo postulato si possa in pratica ritenere verificato. Si supponga di misurare n volte una certa grandezza con la massima cura e nelle stesse condizioni (s'intende che sono le stesse le condizioni a noi note, lo stesso l'osservatore, gli stessi i metodi e strumenti, ecc.; mentre variano le altre a noi ignote, che costituiscono il caso e dànno luogo agli errori accidentali). Sia ξ il vero valore della grandezza; ξ1, ξ2, ..., ξn siano i risultati delle n misure: le differenze

sono i veri errori commessi nelle n misure.

Ma, generalmente, ξ è incognito (si misura per conoscere), salvo che non si tratti d'una costante a priori (p. es. la somma degli angoli d'un triangolo piano); d'altra parte non si può parlare del vero valore d'una grandezza fisica, determinabile sperimentalmente, se non in un senso relativo, alludendo p. es. a una misura della grandezza che si possa ottenere con mezzi e strumenti molto più precisi degli attuali e quindi con una incertezza trascurabile rispetto al grado di precisione in atto conseguibile. Il sistema dei veri errori (1) è quindi in generale sconosciuto. È però sempre possibile procurarsi in concreto un sistema di errori (1), o quando eccezionalmente il valore ξ sia noto a priori, o quando si abbia già della grandezza un valore incomparabilmente più preciso rispetto alle misure ξ1, ξ2, ..., ξn compiute con i mezzi attuali. Ora l'esperienza dimostra che, per n abbastanza grande, un siffatto sistema concreto di errori obbedisce (almeno in certi tipi di osservazioni come le geodetiche e astronomiche) alle seguenti leggi: 1. gli errori positivi sono altrettanto numerosi dei negativi, e, più precisamente, intervalli simmetrici rispetto allo zero contengono presso a poco lo stesso numero d'errori; 2. gli errori piccoli, in valore assoluto, sono più frequenti degli errori grandi, anzi la frequenza diminuisce al crescere dell'errore (in valore assoluto). Si può formare un diagramma in questo modo. Si scelga un numero positivo Δx abbastanza piccolo ma tale che tra x e x + Δx, essendo x compreso nell'intervallo degli errori, cada un certo numero di errori. Si costruisca quindi il punto A di ascissa Δx e di ordinata y (fig. 1) tale che il prodotto yΔx rappresenti la frequenza degli errori che cadono tra zero e Δx, cioè il rapporto tra il numero degli errori che cadono tra zero e Δx e il numero totale n degli errori; poi si costruisca il punto B di ascissa 2Δx e di ordinata y tale che yΔx rappresenti la frequenza degli errori compresi tra Δx e 2Δx, e così via. Similmente si costruisca il punto A′ di ascissa − Δx e di ordinata y tale che yΔx rappresenti la frequenza degli errori compresi tra zero e − Δx; ecc. Quando si tratta delle misure di precisione alle quali si è accennato, questo diagramma risulta simmetrico rispetto all'asse y e i vertici A, A′, B, B′, C, C′... si possorio, con buona approssimazione, ritenere appartenenti a una curva di equazione

essendo μ un conveniente parametro positivo, dipendente dal sistema delle misure e determinabile, come vedremo, sperimentalme nte.

Al diagramma discontinuo (curva a scala) si viene a sostituire con la (2) una curva continua, che si può immaginare ottenuta facendo tendere Δx a zero, e ormai si può intendere che

rappresenti la frequenza d'un errore compreso tra e x + dx, essendo dx un infinitesimo positivo. Evidentemente

è la frequenza d'un errore compreso tra a e b > a.

Poiché la frequenza è un numero razionale compreso tra 0 e 1, mentre la (3) rappresenta un numero reale compreso nello stesso intervallo, bisogna intendere così: se, per es., 0,686 è un valore razionale approssimato di (3) e se non si sono fatte che 100 osservazioni, ciò vuol dire che in (a, b) cadono circa 68 errori.

La legge (2) di frequenza relativa degli errori è la legge di Gauss o legge normale. Essa appare così come una legge approssimata, che viene stabilita, sulla base d'un grande numero d'esperienze, per tutte le osservazioni d'un determinato tipo. Quando una serie di misure di quel tipo non segue la legge, si ha ragione di presumere che la serie sia viziata da qualche causa specifica d'errore.

Alla parola frequenza si sostituisce generalmente la parola probabilità, il che faremo noi per uniformarci all'uso. Eisogna però notare che parlando di probabilità (non già in senso statistico ma in senso rigoroso) si viene ad ammettere una legge teorica degli errori d'osservazione. Infatti, della legge di Gauss, come diremo appresso, si sono tentate numerose dimostrazioni, e alcuni credono che essa abbia fondamento matematico. Altri invece ritiene che il suo fondamento più solido sia l'esperienza, e come una legge sperimentale essa è di fatti accettata da qualche trattatista (p. es. da F. R. Helmert).

3. La funzione θ (λ). - Se si opera il cambiamento di variabile

la probabilità

che l'errore sia compreso tra − α e + α, è data da

e ponendo

si ha ancora

essendo

La funziorie θ(λ) è di capitale importanza nella teoria delle probabilità e se ne sono calcolate numerose tavole (tra le quali citiamo quelle estesissime di R. Radau, nelle Annales de l'Observatoire de Paris, 1885). Nel seguente quadro riuniamo alcuni valori di questa funzione.

Variando λ nell'intervallo (0, + ∞), θ (λ) varia nell'intervallo (0,1), giacché

Come si vede dal quadro, θ (λ) tende rapidamente a 1 al crescere di λ, assumendo valori più grandi di 0,9 quando λ supera 1,2, valori più grandi di 0,99 quando λ supera 1,9, ecc. La frequenza o la probabilità degli errori compresi tra − ∞ e + ∞ è 1; il che è d'accordo col fatto che nell'anzidetto intervallo sono certamente compresi tutti gli errori. Ma se si tien conto dei valori di θ (λ), si deduce p. es. che la frequenza d'un errore compreso tra − 3μ e + 3μ è 0,9973, la frequenza d'un errore compreso tra − 4μ e + 4μ è 0,9999, ecc. Praticamente si può ritenere che gli errori cadano tra − 3μ e + 3μ. La possibilità, dunque, di errori grandi quanto si vogliano, implicata dalla legge di frequenza (2), non urta contro la realtà; giacché la frequenza di errori grandi, da escludere a priori, è piccolissima e quindi praticamente nulla.

4. Errore medio d'un sistema di misure. - Il parametro μ cararatterizza il sistema delle misure e dà un'idea della loro precisione, dovendosi il sistema ritenere tanto più preciso quanto più piccolo è μ. Fissato, infatti, il numero λ, la corrispondente frequenza, data dalla (6), è quella d'un errore compreso in un intervallo (− α, α), la cui ampiezza è tanto più piccola, giusta la (4), quanto più piccolo è μ. La curva di frequenza rende intuitivo questo fatto. L'area della parte di piano compresa tra la curva e l'asse delle x (asintoto della curva) vale 1; l'ordinata corrispondente all'origine è inversamente proporzionale al parametro μ: una seconda curva il cui parametro sia più piccolo avrà dunque più grande l'ordinata corrispondente all'origine, e poiché la sua area vale sempre1, le due curve sono disposte come nella fig. 2.

Se − β e β sono le ascisse dei punti d'incontro delle due curve, si vede che la curva di minor parametro assegna una maggior frequenza all'errore non più grande di β in valore assoluto, e una minor frequenza, invece, all'errore in valore assoluto più grande di β.

Il parametro μ è poi la radice quadrata del valor medio del quadrato dell'errore. Se X è una variabile casuale (v. probabilità) che può prendere i valori x1, x2, ..., xn, con le probabilità rispettive p1, p2, ..., pn (p1 + p2 + ... + pn = 1), si chiama valor medio della potenza rma di X l'espressione

Nel caso d'una variabile casuale continua, che può prendere ogni valore dell'intervallo (− ∞, + ∞) con probabilità ϕ (x) dx, il valor nedio della potenza rma è dato da

Ora, per un noto teorema di calcolo integrale, si ha

e la (7), tenendo presente la (2), prova che μ2 è il valor medio del quadrato dell'errore. La sua radice quadrata μ si chiama errore quadratico medio o semplicemente errore medio. Esso ha le stesse dimensioni dell'errore.

5. Parametro di precisione. - In pratica si suole introdurre un parametro h, legato all'errore medio dalla relazione

Questo parametro, inversamente proporzionale all'errore medio, si chiama precisione. L'equazione (2) della curva di frequenza diventa

6. Errore intermedio e probabile. - Si sogliono considerare altri errori tipici. Uno di questi è l'errore intermedio (durchschnittlicher Fehler), cioè il valor medio ϑ del valore assoluto dell'errore, dato da

Un altro errore tipico è l'errore probabile, cioè l'errore ρ tale che si abbia

ossia

Dal quadro del n. 3 si deduce λ ≅ 0,4769, epperò

Vi è tanta probabilità di superare ρ, in valore assoluto, quanta di non superarlo.

7. Momenti dei varî ordini dell'errore. - Iri generale, il valor medio M (x2r) della potenza 2rma dell'errore, o momento d'ordine 2

r, come anche si dice con evidente similitudine meccanica, è dato da

I momenti d'ordine dispari sono evidentemente nulli:

Per i momenti d'ordine dispari del valore assoluto dell'errore, si ha:

8. Stabilità della legge di Gauss. - Si dimostra facilmente l'importante teorema: Se le variabili casuali indipendenti X1, X2, ..., Xm seguono leggi normali con precisioni h1, h2, ..., hm, anche ogni combinazione lineare di esse, X = α1X1 + α2X2 + ... + αm,Xm, segue la legge normale con la precisione h data dalla formula

Si dice perciò che la legge normale è stabile (Lévy).

Chiamando μ1, μ2, ..., μm i valori quadratici medî di X1, X2, ..., Xm, e μ il valor quadratico medio di X, la (10) diventa

Questa formula è veramente fondamentale nella teoria degli errori. Essa ha una grande generalità e sì può stabilire in modo affatto elementare, ammettendo soltanto che le Xi siano a valor medio lineare nullo e abbiano valori quadratici medi finiti, senza alcuna condizione per le leggi delle rispettive probabilità.

9. Giustificazione della legge normale. - La prima deduzione di questa legge è data da K. F. Gauss nella sua Theoria motus corporum coelestium in sectionibus conicis solem ambientium, pubblicata la prima volta ad Amburgo nel 1809. Nel libro III di questa opera, Gauss dà quella che si suole chiamare la sua prima teoria degli errori d'osservazione. Limitandoci al caso d'una sola grandezza Ξ direttamente osservata (Gauss tratta un caso più complicato), supponiamo sia ξ il vero valore di essa, mentre ξ1, ξ2, ..., ξn siano i risultati di n misure. Chiamando x1, x2, ..., xn i veri errori, abbiamo

Gauss ammette che la probabilità d'un errore xi, o più propriamente d'un errore compreso tra xi, e xi + dxi, sia data da ϕ(xi) dxi, dove ϕ (x) è una funzione da determinare; epperò la probabilità a priori del sistema di errori indipendenti x1, x2, ..., xn è

Ma ξ è ignoto in generale (n. 2), e noi, prima delle misure; non possiamo che attribuire alla grandezza Ξ valori ipotetici compresi dentro un certo intervallo e aventi tutti la stessa probabilità a priori. Ora, se ξ è uno di questi valori ipotetici, Gauss dimostra che la (13), salvo un fattore costante, è la probabilità dell'ipotesi ξ (applicando così un principio - v. probabilità - che non differisce in sostanza dal principio della probabilità delle ipotesi o formula di Bayes). Egli ammette infine il principio della media aritmetica, vale a dire che la (13) debba esser massima per

cioè tutte le volte che si abbia

La legge (2) scaturisce allora rigorosamente.

Contro la dimostrazione di Gauss sono state fatte numerose obiezioni più o meno fondate. J. Bertrand (Calcul des probabilités, Parigi 1889, p. 177) sostiene che la probabilità d'un errore xi, debba esser funzione, oltre che di xi, del valore ξ della grandezza stessa; ma, come nota G. Castelnuovo (Calcolo delle probabilità, Bologna 1928, II, p. 12), il procedimento di misura deve essere, nel pensiero di Gauss, così accurato che la precisione delle osservazioni non dipenda dal valore della grandezza misurata. Secondo lo stesso Bertrand, la condizione da esigere non è già che la media delle misure sia il valore di massima probabilità, ma che essa coincida con il valor medio della grandezza Ξ: H. Poincaré (Calcul des probabilités, Parigi 1912, p. 176 segg.) cerca di rispondere a questa obiezione e di vedere quale debba essere la legge degli errori affinché la coincidenza voluta dal Bertrand si verifichi al divergere del numero delle osservazioni. Ma il criterio del Bertrand non appare meno arbitrario di quello di Gauss. Il punto veramente discutibile sta proprio nel voler fondare la legge degli errori su principî arbitrarî, estrinseci alla natura della questione. La cosa diventa ancora più grave se quei principî in pratica non possano essere verificati se non approssimativamente; perché, come avverte E. Borel (Eléments de la théorie des probabilités, Parigi 1924, p. 125), un'ipotesi poco differente può analiticamente condurre a un risultato sostansialmente diverso. Se, come accenna Gauss, la media aritmetica rappresenta soltanto approssimativamente il valore più probabile, sono allora possibili tante altre forme diversissime della legge di frequenza degli errori (p. es. y = Ce-h2x1). Questo argomento decisivo è addotto da P. Pizzetti nella sua importante monografia I fondamenti matematici per la critica dei risultati sperimentali, pubblicata nel 1892 negli Atti della R. Università di Genova.

10. Concezione di Laplace sulla genesi dell'errore e dimostrazioni fondate sulla teoria degli errori elementari. - Oggi il miglior fondamento teorico della legge di Gauss si crede di trovare in un celebre teorema di P.-S. Laplace, quando l'errore commesso in una misura si concepisca come la somma d'un grandissimo numero di minuscoli errori (errori elementari), dovuti a cause ignote o mal note. La questione, intorno alla quale si crede che il grande matematico abbia meditato trent'anni (dal 1780 al 1810), consiste nella ricerca della legge di probabilità di una variabile casuale che è somma d'un grande numero di variabili casuali indipendenti le cui leggi di probabilità sono ignote. Il risultato, al quale egli giunse in due memorie pubblicate nel 1810 e nel 1811, il cui contenuto è riprodotto nella Théorie analytique des probabilités (Parigi 1812), è che, al divergere del numero delle variabili casuali componenti, la variabile risultante ubbidisce, nelle sue oscillazioni intorno al valor medio, alla legge normale. Ma il procedimento seguito da Laplace è soggetto a gravi obiezioni, che non furono rimosse in dimostrazioni dovute a S.-D. Poisson e a molti altri autori (per una critica esauriente di queste dimostrazioni, v. la citata monografia del Pizzetti, Appendice C). La prima dimostrazione rigorosa del teorema di Laplace fu data da P. L. Čebyšev (Tchebychef) (in memorie apparse tra il 1873 e il 1887) e poi semplificata (1912) da A. Markov.

Il teorema di Laplace-Čebyšev è il seguente:

Sia X1, X2, ..., Xn, ..., una successione illimitata di variabili casuali indipendenti a valor medio nullo; sia μ il valor quadratico medio (dipendente da n) di

e sia

Se è

per r = 3, 4, 5, ..., la probabilità che X sia compresa tra αμ √2 e βμ √2 tende, al divergere di n (qualunque siano i valori fissi α e β > α), al limite

La dimostrazione di Čebyšev-Markov è fondata sul metodo dei momenti (n. 7). Una condizione assai più larga di validità del teorema fu trovata, il 1901, dal Ljapunov (Liapounoff) per un'altra ia più vicina al procedimento originale di Laplace. Posto

dove δ è un numero positivo, il Ljapunov dimostrò che il teorema è valido se esiste un valore di δ per il quale si abbia

e che la convergenza al limite

avviene in modo uniforme per ogni coppia di valori α e β.

Infine il Lindeberg (Mathematische Zeitschrift, XV, 1922, p. 211 segg.), con un metodo semplicissimo e originale, stabilisce due importanti teoremi, i quali, senza passaggio al limite, dànno l'errore che si commette quando alla legge di probabilità della somma d'un grande numero di variabili casuali si sostituisca la legge normale.

Un altro metodo per stabilire il teorema limite di Laplace-Čebyšev è quello della funzione caratteristica (introdotta dal Cauchy nei problemi di probabilità fin dal 1853), perfezionato in seguito dal Lévy (Calcul des probabilités, Parigi 1925, p. 191 segg.), dal Cantelli e da altri. Per un'ampia trattazione di questi argomenti, si veda l'opera già citata del Castenuovo. Restringendoci alla parte che riguarda l'errore commesso nell'eseguire una misura, vogliamo notare che il teorema fondamentale di Lindeberg conduce a questo risultato suggestivo: affinché l'errore, di valor quadratico medio noto μ, segua approssimativamente la legge di Gauss, basta che esso si possa riguardare come una somma d'un gran numero di errori elementari indipendenti, oscillanti in un intervallo ristrettissimo (− l, + l), tale da rendere molto piccolo il rapporto l/μ.

Non va, però, dimenticato il carattere asintotico della legge di Gauss, quale risulta dal teorema di Laplace-Čebyšev. Se un errore è da riguardare come somma d'un piccolo numero di errori elementari, non si può, in virtù di quel teorema, affermare che esso segua la legge di Gauss. Bisogna pensare che agiscano un grandissimo numero di cause accidentali d'errore (il che implica una concezione filosofica relativa alla struttura del mondo fisico e del nostro cervello) affinché il teorema si possa invocare.

11. Error medio del sistema delle medie. Sua valutazione mediante gli errori veri. - Chiamando μ l'error medio del sistema di n misure ξ1, v2, ..., ξn della grandezza Ξ, la formula (11) dà, per l'error medio μ0 della media di m (≤ n) delle misure stesse,

L'error medio μ0 dato dalla (14) non si riferisce veramente a una singola media di m misure, ma al sistema delle medie di m misure. In altri termini bisogna pensare a una grandezza

media aritmetica di m grandezze teoriche Ξ1, Ξ2, ..., Ξm, tutte eguali alla data grandezza Ξ; la media considerata è appunto una dete minazione empirica di questa grandezza fittizia Y; e μ si riferisce all'insieme d'un grande numero di siffatte medie. Al divergere di m (supponendo perciò che anche n diverga), μ tende a zero. Non bisogna però credere alla possibilità di raggiungere una precisione praticamente illimitata con l'accrescere il numero delle misure. Il Borel, studiando numerose serie di misure di basi geodetiche compiute per mezzo dell'apparecchio bifilare di Jäderin, viene alla conclusione che non è lecito sperare se non qualche decimale esatta di più, adoperando un centinaio di misure; ma che è difficile andare oltre, per via della difficoltà pratica di esser sicuri di misurare la stessa cosa, quando il numero delle misure raggiunga parecchie migliaia (cfr. i cit. Èléments, p. 138). In altri termini, gli errori costanti, non che essere evitati o corretti del tutto, possono semplicemente essere attenuati e resi trascurabili in un certo ordine d'approssimazione; ma col crescere della precisione desiderata, il disaccordo tra le ipotesi teoriche e le condizioni reali si fa maggiormente sentire e pone un limite all'esattezza conseguibile. Dal punto di vista sperimentale, la questione si trova anche approfondita nel pregevole trattato del Carvallo (Le calcul des probabilités et ses applications, Parigi 1912, p. 93 segg.).

Se si conoscono i veri errori xi, dati dalle (12), un valore empirico μ* dell'errore medio del sistema di misure, per la stessa definizione di error medio, è dato da

dove ci serviamo della notazione di Gauss universalmente adoperata nella teoria degli errori ([aa] = a12 + a22 + .. + an2, [ab] = a1b1 + a2b2 + ... + anbn, ecc.). Dalla precedente si deduce

come espressione dell'error medio empirico mediante gli errori veri. Non è possibile conoscere il vero valore dell'error medio teorico μ, ma si dimostra che la variabile casuale μ*2 − μ2 segue la legge normale con precisione h2n; epperò si deduce facilmente

dove (n. 3) η è un numero positivo, non superiore a 2 con probabilità 0,9545, non superiore a 3 con probabilità 0,9973, ecc.

12. Valutazione dell'error medio per mezzo degli errori apparenti. - Introduciamo la media ξ0 delle n misure ξ1, ξ2, ..., ξn:

e poniamo

Le δ1, si chiamano deviaziom dalla media, scostamenti o errori apparenti. Se chiamiamo ε l'errore ignoto della media ξ0, cioè poniamo

deduciamo facilmente

Invece dell'errore ε ignoto si suole porre nella precedente l'error medio teorico della media di n misure, che è μ/√n (n. 10); inoltre si sostituisce μ a μ*: il valore approssimato μ**, che si ottiene così dalla relazione precedente, è

La (21) è la formula adoperata dai pratici per calcolare l'error medio per mezzo degli errori apparenti. Il ragionamento con cui si deduce ha scarso valore. In modo più rigoroso, si può ricavare μ* per mezzo di μ dalla (16); poi si osservi che è

dove η* è un numero positivo non superiore a 2 con probabilità 0,9545, ecc. Si ricava allora dalla (20):

dove la probabilità che sussistano simultaneamente le diseguaglianze η ≤ 2, η* ≤ 2 è (per il teorema di Boole) superiore a 0,908, ecc. Trascurando il termine η*2/n, si può ancora scrivere

In pratica si può prendere per μ il valore

che non è meno accettabile del valore μ** (cfr. G. Castelnuovo, Calcolo delle probabilità, II, 21 segg.).

13. Peso d'un sistema di misure. Error medio unitario. - Un sistema di misure si riferisce di solito a un sistema fondamentale (reale o ideale) di misure dello stesso tipo. Sia μ0 l'error quadratico medio di questo sistema di riferimento (error medio unitario); allora se μi è l'error medio d'un qualsiasi altro sistema di misure della stessa specie, il numero

si chiama peso del sistema stesso rispetto al sistema fondamentale di misure (di peso unitario).

In due differenti sistemi di misure (della stessa grandezza) due errori si possono dire comparabili, se le frequenze di errori non più grandi in valore assoluto di essi sono rispettivamente eguali nei due sistemi. Per le formule (4) e (5) due errori ε1 e ε0, rispettivamente appartenenti a due sistemi di error medio μi e μ0, sono comparabili quando è

vale a dire quando

La (25) s'interpreta dicendo: un errore εi nel sistema di peso pi equivale a un errore εipi nel sistema di peso unitario.

Spesso il sistema di misure di peso pi, è dedotto dal sistema di misure primitivo in quanto contiene le medie aritmetiche di m misure del sistema unitario. Poiché (n. 10) l'error medio del sistema delle medie è μ0/√m, si deduce subito che il sistema delle medie aritmetiche di m misure di peso 1 ha per peso il numero m.

14. Valutazione a posteriori dell'error medio unitario. - Si supponga di possedere, della grandezza Ξ, n misure ξ1, ξ2, ..., ξn, appartenenti a sistemi differenti, delle quali si conoscano i pesi rispettivi p1, p2, ..., pn, rispetto a un sistema (reale o fittizio) di misure unitarie di error medio sconosciuto μ0. Si vuol cercare di risalire a questo valore μ0. Poiché (n. 12) i numeri xipi, (i = 1, 2, ..., n) si possono considerare come errori appartenenti al sistema di peso unitario, le cose procedono come al n. 10. Le (15) e (16) diventano

col solito significato del numero positivo η.

Se non si conoscono gli errori veri, si sostituiscono a essi le deviazioni δi = ξ0 − ξi, dalla media ponderata delle misure:

La (23) diventa

In pratica si prende il valore approssimato μ0** di μ0, dato da

15. Verifiche sperimentali della legge normale. - Di solito, la verifica alla quale si ricorre è la seguente. Calcolato il parametro μ (o il parametro di precisione h) relativo a un sistema di n misure della grandezza Ξ (n. 11), si può avere la probabilità θ(ha) d'un errore compreso tra − α e + α (n. 3); allora nθ(ha) è il numero teorico degli errori compresi tra − α e + α, col quale si può paragonare il numero degli errori (veri o apparenti) effettivamente compresi nell'intervallo stesso. Classiche le verifiche istituite da F. Wessel su numerose osservazioni in parte sue e in parte di J. Bradley, riportate in quasi tutti i trattati sulla teoria degli errori.

16. Errori a due e a quante si vogliano dimensioni. - Gli errori relativi a misure compiute per la determinazione d'una grandezza fisica, dei quali ci siamo finora occupati, si possono chiamare errori lineari o a una dimensione. Ma possiamo considerare serie di misure, ciascuna delle quali dia luogo a una coppia di valori osservati, i quali possono essere interpretati come le coordinate cartesiane d'un punto in un piano. Sianoξ, η le coordinate del vero punto, mentre le osservazioni hanno dato punti errati (ξi, ηi) con gli errori accidentali

Nell'ipotesi che gli errori xi e yi, separatamente presi, seguano la legge di Gauss, si tratta di trovare la legge di probabilità dall'errore a due dimensioni (xi, yi), cioè la probabilità elementare

che l'errore sia contenuto in un certo rettangolo infinitesimo del piano. Un esempio concreto ci è dato dal tiro a bersaglio, dove il centro del bersaglio è il punto (ξ, η), mentre i colpi dei proiettili rappresentano i punti errati (ξi, ηi). Alla questione si risponde assai facilmente se si ammette che gli errori in ascissa siano indipendenti dagli errori in ordinata. La legge fu stabilita, nel 1846, dal Bravais (Analyse mathématique sur les probabilités des erreurs de situation d'un point, in .Mém. présentés à l'Académic des Sciences, Parigi 1846, pp. 255 segg.) e poi dimostrata in modo assai più semplice dallo Schols (in una memoria pubblicata nel 1875 dall'Accademia delle Scienze di Amsterdam, riprodotta in francese, in Annales de l'Ècole Polytechnique de Delft, II, 1886, pp. 123 segg.). Ma l'ipotesi di quella indipendenza è errata, come si capisce subito osservando che, dato che l'indipendenza valga per un particolare orientamento degli assi, essa non sussiste più per un nuovo orientamento. Il Castelnuovo (Calcolo delle probabilità, II, 218 segg.), senza riprendere la questione ab initio, ha esteso assai semplicemente il teorema di Laplace-Čebyšev alle coppie di variabili casuali e ha quindi dimostrato in modo rigoroso la legge di distribuzione degli errori nel piano. Questa legge di frequenza (legge di Bravais) è rappresentata dalla funzione

dove F = ax2+ 2 bxy + cy2 è una forma definita positiva e C un'appropriata costante. Le curve F = costante sono ellissi concentriche e omotetiche, dette ellissi di probabilità costante: una di esse divide il piano in due regioni di eguale probaffilità 1/2 e si chiama ellisse probabile. Gli assi delle anzidette ellissi si chiamano assi principali di probabilità.

Il passaggio a uno spazio a tre e a più dimensioni non presenta ulteriori difficoltà.

17. Combinazione delle osservazioni. Criterio della probabilità massima. - Si supponga che della grandezza ξ si abbiano n misure ξ1, ξ2, ..., ξn, eseguite con la stessa precisione (n. 2). Se si accetta la legge di Gauss come un risultato dell'esperienza (giustificato, se si vuole, dal teorema di Laplace-Čebyšev), la media aritmetica delle misure è il valore di massima probabilità e può essere assunto come il valore più conveniente di ξ. Nella prima teoria di Gauss, invece, la media aritmetica è il valore più conveniente in virtù d'un postulato.

Dimostrazioni del principio della media aritmetica. - L'importanza di questo principio spiega i numerosi tentativi di ricondurlo a proposizioni più intuitive. Della sua utilità si occupa Lagrange, ma, come nota il Pizzetti, cade in una inesattezza che invalida le sue conclusioni. Laplace dimostra che in un numero grandissimo di osservazioni la media aritmetica è più probabile d'ogni altra combinazione. J. F. Encke e O. Stone credono di dare dimostrazioni rigorose, ma in realtà esse sono soggette a gravi obiezioni. È rigorosa la dimostrazione dello Schiaparelli, fondata su tre postulati, i quali, quando si indichi con f1, ξ2, ..., ξn) il valore più conveniente della grandezza, si esprimono come segue:

Dai soli postulati 1) e 2), indipendentemente da qualunque ipotesi di derivabilità o di continuità della f, si deduce

dove α1 + α2 + ... + αn = 1 e ϕ è un'arbitraria funzione omogenea di 1° grado dei suoi n − 1 argomenti ξ1 − ξn, ..., ξn-1 − ξn. Se al postulato 3) si sostituisce la proprietà caratteristica della media, suggerita dall'identità

e si aggiunge l'ipotesi che f sia funzione continua e simmetrica dei suoi argomenti, il principio della media segue pure facilmente (cfr. P. Tortorici, Sul principio della media aritmetica, in Rend. R. Acc. Lincei, s. 6ª, X, 1929, p. 393 e segg.).

Il Pizzetti dà una dimostrazione semplicissima del principio della media, ammettendo che i quadrati degli errori siano trascurabili. Anche il Poincaré crede che quel che giustifica il principio è la piccolezza degli errori, e, in questa ipotesi, rispondendo a una obieziorie del Bertrand, mostra che il principio della media si può applicare, non soltanto al valore ξ della grandezza, ma a qualunque funzione di ξ. Per maggiori sviluppi e per la bibliografia sull'argomento, rimandiamo alla già citata monografia del Pizzetti e a una importante memoria di F. Angelitti, Sul principio del medio aritmetico, in Pubbl. del R. Osservatorio di Palermo (1916, n. 40), in cui l'Angelitti ristampa in italiano tre note già pubblicate in latino nelle Astronomische Nachrichten dal 1910 al 1914.

Osservazioni d'ineguale precisione. Media ponderata. - Nel caso di n misure ξ1, ξ2, ..., ξn di pesi p1, p2, ..., pn (n. 14), la media ponderata

è il valore cui corrisponde la probabilità massima e viene scelta come la combinazione più vantaggiosa delle misure.

Osservazioni indirette. - Supponiamo che una grandezza l dipenda da un'altra t (o da più altre) secondo una legge (sperimentale o teorica) espressa dalla relazione

dove x, y, z... sono costanti incognite, non direttamente osservabili, da determinare per mezzo dell'esperienza. Così, p. es., l può essere la lunghezza d'un'asta metallica dipendente secondo una legge parabolica dalla temperatura t, o la lunghezza del pendolo semplice che batte il secondo dipenderite dalla latitudine t secondo la formula di Clairaut, ecc. Osservando valori corrispondenti ti, li delle grandezze t e l (direttamente misurabili), avremo quante si vogliono relazioni li = F (t, x, y, z,...), dalle quali potremo proporci di dedurre i valori più convenienti delle costanti x, y, z,... In questo problema ci si limita a supporre che le equazioni siano lineari rispetto alle incognite x, y, z,..., senza di che la soluzione diventa praticamente impossibile. Il caso delle relazioni lineari, inoltre, rientra meglio nello schema della probabilità. Ma è sempre possibile ricondurre le equazioni date alla forma lineare con tutta l'approssimazione desiderabile, determinando valori approssimati delle incognite e adoperando la formula di Taylor: quando occorra, si faranno più approssimazioni successive, ripetendo il procedimento. Siano

n relazioni date tra le m incognite x, y, z,..., supponendo che n sia assai più grande di m. Nelle (30) i parametri ai, bi, ci,... si suppongono noti esattamente o determinabili sperimentalmente con precisione molto maggiore di quella che si richiede per le incognite; le li, sono invece affette dagl'inevitabili errori d'osservazione. Le (30) costituiscono naturalmente un sistema incompatibile. Se con x, y, z,... s'intendorio i veri valori delle incognite, si avrà

ed εi saranno i veri errori commessi nelle misure. Supporremo che le misure siano della stessa precisione e che gli errori indipendenti εi seguano la legge di Gauss. Allora la probabilità a priori del simultaneo avverarsi di questi errori è proporzionale a e-h2[εε]. Nell'ignoranza in cui siamo sui veri valori delle incognite, noi non potremo che assegnare, in via ipotetica, un dominio di variabilità, dove x, y, z... possano assumere un sistema di valori qualunque, a priori con la stessa probabilità: riferendoci a uno di questi sistemi di valori ipotetici (x, y, z,...), le (31) dànno i corrispondenti errori ed e-h2[εε] rappresenta, salvo un fattore costante, la probabilità dell'ipotesi (x, y, z,...). Come valori più convenienti delle incognite si assumono quelli che rendono massima l'anzidetta probabilità, vale a dire quelli che verificano la condizione

ossia il sistema di equazioni normali (m equazioni con m incognite):

Questo sistema, il cui determinante è il quadrato d'una matrice rettangolare (e perciò non nullo, se il sistema originario (30) non è indeterminato), determina in modo univoco le incognite. Queste sono date, naturalmente, come lineari nelle quantità osservate l1, ..., ln; cioè si avrà

chiamando x0, y0, z0,... i valori più convenienti dedotti dalle (32).

Per conseguenza, in virtù della formula fondamentale (11), si possono calcolare gli errori medî (e quindi i pesi) delle determinazioni xo, y0, z0,..., dati da

dove μ è l'error medio 1/(h√2) del sistema di misure l1, ..., ln. Del resto si ha

dove Q11 verifica il sistema di m equazioni (facilmente deducibili dalle equazioni normali)

Così Q22, Q33,... verificano sistemi analoghi al sistema (35). Si vede che Q11, Q22, Q33,... sono le inverse dei pesi di x0, y0, z0,.... Per questa ragione le (35) e le analoghe si chiamano equazioni del peso. Posto

i v, sono gli scostamenti o residui d'osservazione. Tra i residui e gli errori veri si ha la relazione

dalla quale si può partire per calcolare μ mediante i residui noti, e si trova la formula pratica

La (37) è soggetta alle stesse critiche, segnalate a propositc della (21), e può essere convenientemente corretta. La somma [vv], come ha notato H. Andoyer, può essere calcolata direttamente con la formula

dove Δ è il determinante delle (32) e D si ottiene orlando Δ per mezzo dei secondi membri delle (32) e della somma [ll].

Osservazioni indirette di varia precisione. - Ci si riduce al caso precedente moltiplicando i due membri della generica equazione (30) per la radice quadrata del peso pi dell'osservazione li (n. 13).

Osservazioni indirette sottoposte a condizioni. - Le incognite x, y, z, ..., possono essere vincolate da relazioni teoriche, altre dalle (30). I valori xo, y0, zo, ..., dedotti per queste incognite col metodo esposto, verificheranno (se sono sufficientemente esatti) quelle relazioni, dentro i limiti degli errori d'osservazione. Tuttavia si suole dare un privilegio in pratica a quelle relazioni teoriche, imponendosi la condizione di rispettarle rigorosamente (s'intende, dentro l'approssimazione numerica che ci siamo prefissa). Nasce un problema di estremi condizionati, che si può ricondurre a un problema di estremi liberi, eliminando tra le (30) e le equazioni di condizione (supposte o ridotte lineari) tante delle incognite quante sono le equazioni di condizione; oppure si può trattare il problema in modo più simmetiico col metodo dei moltiplicatori di Lagrange (correlativi, secondo Gauss), come è insegnato in tutti i trattati di analisi infinitesimale. Per maggiori particolari sui procedimenti di calcolo in uso (algoritmo di Gauss, metodo delle osservazioni equivalenti di Helmert, ecc.), che del resto hanno importanza strettamente tecnica, rimandiamo ai trattati speciali.

18. Combinazione delle osservazioni secondo il criterio del minimo rischio d'errore. - Gauss nella Theoria combinationis observationum erroribus minimis obnoxiae (Gottinga 1821-26) fondò un nuovo metodo, che si ritiene più soddisfacente, non soltanto perché in esso Gauss prescinde da ogni particolare forma della legge degli errori, ma anche perché egli si affranca dal principio della probabilità delle ipotesi. Gauss comincia dal supporre che i valori più convenienti delle incognite x, y, z,..., verificanti le n equazioni (30), siano combinazioni lineari delle grandezze osservate l1, l2, ..., ln. Così si avrà identicamente

dove le αi verificano le m condizioni

Per la formula (11), che vale qualunque sia la legge degli errori, l'error medio μx, che compete al valore x determinato dalla (38), è dato da

Ora Gauss cerca i valori delle αi. che rendono minimo μx2 sotto le condizioni (39). Il valore medio del quadrato dell'errore è assunto dunque come misura del rischio d'errore. La convenzione è arbitraria; ma l'error medio (per un teorema dimostrato dallo stesso Gauss e poi stabilito in modo più semplice e generale da Bienaymé e Čebyšev) è adatto a misurare l'incertezza delle osservazioni ed è la più semplice funzione degli errori che goda di questa proprietà. Laplace (Théorie des probabilités) scelse invece la somma dei valori assoluti degli errori, cioè una funzione non analitica, che non è adatta ai calcoli.

Quel che si è detto dell'incognita va ripetuto per le altre. Il metodo conduce agli stessi risultati della Theoria motus, perché i valori più convenienti delle incognite verificano le equazioni normali (32).

19. Principio dei minimi quadrati di Legendre-Gauss. - Dal fatto che i valori più convenienti delle incognite rendono minima la funzione [pvv], cioè la somma dei quadrati dei residui moltiplicati per i rispettivi pesi, ha origine il nome di metodo dei minimi quadrati, dato al procedimento esposto di combinazione delle osservazioni. La denominazione è dovuta a A. M. Legendre, che fu primo a enunciare e proporre il principio nell'importante scritto Nouvelles méthodes pour la détermination des orbites des comètes (Parigi 1805-06). Il principio può senz'altro venir posto a fondamento della teoria della combinazione delle osservazioni; ma se si dimenticano i presupposti rigorosi sull'accuratezza delle misure e sul carattere degli errori accidentali, come pur si fa in qualche questione geodetica e in altre ricerche, il metodo dei minimi quadrati non è giustificabile con criteri di probabilità e perde ogni vantaggio, dal punto di vista concettuale, su altri metodi (di Cauchy, dei momenti, delle aree, ecc.), che in pratica dànno pure buoni risultati.

20. Combinazione delle osservazioni fondata sui limiti degli errori. - Il Legendre, nello scritto citato, propone più generalmente di combinare le osservazioni in modo che i residui cadano dentro intervalli la cui ampiezza sia la minima possibile; in particolare, propone di render minima la somma dei quadrati dei residui. Ispirandosi alle idee del Legendre, E. Goedseels (Théorie des erreurs d'observation, 3ª ed., Lovanio-Parigi 1909; 4ª ed., Parigi 1914) presenta una teoria della combinazione delle osservazioni fondata sui limiti degli errori. Dati un sistema di equazioni (36) ed n intervalli (A1, B1,), (A2, B2), ..., (An, Bn), nei quali presumibilmente debbano rispettivamente cadere i residui v1, v2, ..., vn, si tratta di trovare per ogni incognita, p. es. per x, l'intervallo minimo (I, S), tale che per ogni valore di x, inferiore a I o superiore a S, uno o più dei residui v1, v2, ..., vn escano dagl'intervalli assegnati. Il problema si riduce alla risoluzione di due sistemi di inequazioni, esigendo calcoli lunghi e laboriosi; ma il Goedseels, giovandosi di risultati di C. de la Vallée Poussin, è riuscito a perfezionare di molto i suoi procedimenti. Nel caso di misure dirette d'una grandezza ξ (n. 2), supponiamo che siano rispettivamente ξ1, e ξn la più piccola e la più grande delle misure trovate e ammettiamo che gli errori siano compresi nell'intervallo (− M, + M), essendo M > 0. Naturalmente è

Il vero valore ξ della grandezza, secondo il metodo della maggiore approssimazione, verifica la limitazione

Vi è dunque vantaggio a moltiplicare le osservazioni, perché ξn − M non può diminuire e ξ1 + M non può crescere. Il valore più approssimato della grandezza è la media delle misure estreme: questa media è il valore esatto della grandezza, se M = (ξn − ξ1)/2. Se è M 〈 (ξnξ1)/2, i dati sono assurdi. Ma il punto debole sta nella scelta di M. Questa scelta non può che essere arbitraria e nulladimeno tutto dipende da questa scelta: a seconda del valore assegnato a M, la media aritmetica di tutte le misure e anche la maggior parte delle misure stesse possono non appartenere all'intervallo (ξn − M, ξ1 + M). Il limite M, che l'errore non può in valore assoluto oltrepassare, non si può scompagnare dalla probabilità che vi è di commetterlo: se questa probabilità è piccola, il numero M darà un'idea troppo sfavorevole della precisione o approssimazione delle misure. Il metodo di Gauss potrà talvolta dar luogo a qualche residuo troppo forte, e ci sarà da studiare donde provenga (senza arbitraria esclusione d'osservazioni discordanti); ma questa non è una ragione decisiva per condannarlo.

Bibl.: Oltre le opere fondamentali citate nel testo, sono da indicare come trattati speciali, dove la materia è ampiamente svolta: J. Bertrand, Méthode des moindres carrés, Parigi 1855, che è la traduzione francese degli scritti di Gauss; C. L. Gerling, Die Ausgleichungsrechnungen der praktischen Geometrie oder die Methode der kleinsten Quadrate mit ihren Anwendungen für geodätische Aufgaben, Amburgo 1843; F. R. Helmert, Die Ausgleichungsrechnung nach der Methode der kleinsten Quadrate mit Anwendungen auf die Geodäsie und die Theorie d. Messinstrumente, 1ª ed., Lipsia 1872; 2ª ed., Lipsia e Berlino 1907; A. Ferrero, Espos. del metodo dei minimi quadrati, Firenze 1876; E. Czuber, Theorie d. Beobachtungsfehler, Lipsia 1891; R. Henke, Über die Methode der kleinsten Quadrate, Lipsia 1894; R. Deltheil, Erreurs et moindres carrés, Parigi 1930.

TAG

Metodo dei moltiplicatori di lagrange

Variabile casuale continua

Metodo dei minimi quadrati

Calcolo delle probabilità

Osservatorio di palermo