Ipotesi

Enciclopedia on line

Supposizione di fatti (o situazioni, sviluppi di un’azione ecc.) ancora non realizzati ma che si prevedono come possibili o si ammettono come eventuali, oppure spiegazione, fondata su indizi e intuizioni, che in via di tentativo si dà di un fatto o di una serie di fatti, noti o comunque che si ritengono accertabili. In senso scientifico ed epistemologico, i. è una prima formulazione di una legge, non ancora sperimentata o sperimentabile in sé, intesa a fornire – insieme a una descrizione di eventi particolari e a regole di deduzione – una spiegazione o una previsione di taluni fenomeni; tale formulazione provvisoria serve a determinare ulteriori ricerche dalle quali l’i. stessa può avere o meno conferma; se l’i. si riferisce a un complesso organico di leggi e se accade che, dopo conferma sperimentale e rielaborazione tecnica, l’i. assuma una forma completa ed esauriente, essa prenderà il nome di teoria.

Filosofia

La filosofia antica considerava quella enunciata in i. una forma inferiore di conoscenza. Concependo la ricerca scientifica come volta all’acquisizione di proposizioni certe e quindi irrivedibili, un’i. non era che un asserto provvisoriamente assunto per dedurre, insieme ad altri asserti gnoseologicamente non problematici (gli assiomi), certe conseguenze. Tale svilimento gnoseologico delle i. doveva perdurare nella filosofia scolastica, che tendeva a considerarle come asserti sulle cause dei fenomeni, un’idea fatta propria in seguito da J. Locke e da G.W. Leibniz, e avversata da I. Newton (nel suo celebre motto hypotheses non fingo), quando l’i. finiva per assumere un carattere altamente congetturale e sganciato da ogni esperienza possibile. Newton, infatti, concepiva l’i. nel senso codificato da Galileo, ossia come un asserto la cui validità è in stretta dipendenza dai fenomeni osservabili. È questo il senso avallato dai filosofi della scienza del Novecento, i quali – abbandonata la credenza che si possa arrivare a un sistema certo e necessario di teorie e abbracciata una prospettiva fondamentalmente fallibilista – hanno sostenuto la natura intrinsecamente ipotetica di ogni teoria, evidenziando per ciò stesso il ruolo fondamentale delle i. ai fini del progresso della conoscenza.

Linguistica

In grammatica, periodo ipotetico è quello formato da due proposizioni in stretta correlazione fra loro (anche per l’uso dei modi e tempi del verbo), di cui una (protasi) esprime la condizione necessaria per l’avverarsi del fatto espresso dall’altra (apodosi). La protasi, che è subordinata all’apodosi, è introdotta dalla congiunzione se. Nella sintassi italiana si distinguono 3 ‘tipi’ di periodo ipotetico: della realtà, quando l’i. è un fatto reale e la conseguenza è affermata come sicura: es., se mi disturbi (protasi), non posso lavorare (apodosi); della possibilità, quando si pone per condizione un fatto possibile che può verificarsi: es., se continuasse a piovere, dovremmo rinviare la gita; dell’irrealtà, quando si ammette, per pura supposizione, un fatto irreale: es., se tornassi a nascere, farei un altro mestiere.

Nella terminologia filologica, i. è un breve discorso premesso ai testi classici di poesia e di prosa per esporne l’argomento e dare altre notizie. La parola, già attestata nell’antica scuola peripatetica da cui ebbero inizio gli studi di filologia, fu confermata nell’uso, seguito poi fino all’età bizantina, da Aristofane di Bisanzio (3° sec. a.C.), le cui i. drammatiche offrono notizie intorno alle tragedie greche. Diversa dall’i., perché limitata allo schematico sommario del contenuto, è la perioca (➔).

matematica

Si indica come i. ciò che si presuppone nella dimostrazione di un teorema. In altri termini, le i. di un teorema sono le condizioni preliminari che si presuppongono verificate dagli enti che si considerano, e dalle quali, attraverso una catena di deduzioni (dimostrazione), discende la validità di una o più nuove proprietà, mutue relazioni ecc., degli enti stessi (tesi). Può accadere che la tesi possa essere dedotta anche supponendo valide i. più generali, che contengono le precedenti come caso particolare: si dirà allora che il teorema vale sotto i. più ampie. Quando, omettendo una delle i., la tesi non è più valida, si dirà che quell’i. è essenziale.

I. del continuo Si dà questo nome all’i., avanzata da G. Cantor, che consiste nel supporre che non esista una potenza intermedia tra quella del numerabile e quella del continuo: secondo essa, se un insieme di infiniti elementi si può mettere in corrispondenza biunivoca con una parte dell’insieme dei numeri reali, allora o lo si può porre in corrispondenza biunivoca con l’intero insieme dei numeri reali (e allora ha la potenza del continuo), oppure con l’insieme dei numeri naturali (e allora ha la potenza del numerabile). La legittimità dell’i. del continuo è stata chiarita nel 1963 dal matematico americano P.J. Cohen, il quale ha provato che sia l’i. del continuo sia la sua negazione sono compatibili con gli assiomi della teoria degli insiemi (dando luogo, di conseguenza, a due diverse teorie degli insiemi).

Statistica

È detto controllo (o test) delle i. un ramo della statistica che cerca di valutare l’attendibilità di un’i. alla luce dei risultati di un esperimento o di una serie di osservazioni. Le i. considerate possono essere le più varie e nei campi più disparati; si può cercare cioè di accertare mediante esperimenti la validità di una legge naturale (in fisica, in biologia ecc.); o di controllare, mediante osservazioni su un fenomeno economico, sociale ecc., se l’andamento del fenomeno stesso segue determinate regole. È raro che i risultati osservati permettano di determinare con certezza se un’i. è vera o falsa; in generale, nei risultati intervengono fattori casuali che si sovrappongono ai fattori che agiscono sul fenomeno, mascherandone o addirittura capovolgendone gli effetti. È necessario, quindi, nell’esame della validità di un’i., ricorrere al calcolo delle probabilità, che è l’unico strumento che permette in qualche modo di controllare l’azione dei fattori casuali. Per mettere in luce le caratteristiche principali del controllo delle i., consideriamo il seguente esempio, al quale sono riconducibili molte situazioni più complesse. Si lancia 100 volte un dado, osservando le frequenze delle diverse facce. Possiamo, in base ai risultati, dire se il dado è ‘buono’, se cioè tutte le facce hanno la stessa probabilità 1/6 di presentarsi? Il problema si presenta più agevole se sappiamo quali caratteristiche può presentare a priori il dado, quali sono cioè le i. alternative che si possono presentare oltre a quella che il dado sia buono, che chiameremo i. nulla. In queste condizioni si può prendere in considerazione la verosimiglianza di ciascuna delle i. alla luce delle osservazioni fatte, cioè la probabilità con cui ciascuna i. determina il risultato che si è ottenuto. Per es., se su 100 lanci si è ottenuto 50 volte il numero 6, la verosimiglianza dell’i. nulla (che il dado sia buono) è piuttosto bassa; è più verosimile che il dado sia truccato a favore di 6. La verosimiglianza com’è stata definita, però, non è sufficiente per la scelta tra le varie i., in quanto trascura le eventuali informazioni possedute prima dell’esperimento. Se, per es., il dado è stato acquistato presso un buon negozio, solo una verosimiglianza molto bassa c’indurrà a scartare l’i. nulla, mentre se non ne conosciamo la provenienza basterà una leggera differenza tra le verosimiglianze per farci preferire un’i. alternativa. Ciò porta a prendere in considerazione l’attendibilità delle varie i. prima delle osservazioni sperimentali, o probabilità a priori delle i.; l’attendibilità delle i. dopo l’esperimento, o probabilità a posteriori, dipende dalle probabilità a priori e dalle verosimiglianze. Su questi elementi si è sviluppato un vastissimo campo di studi, con applicazioni a diverse situazioni e a numerosissime scienze.

Nel modello matematico si assume in generale che il risultato x (variabile in un insieme dello spazio euclideo a n dimensioni) si ottenga con probabilità (o funzione di densità) p(x, ϑ) dipendente dal parametro ϑ; l’i. è che ϑ assuma un valore ϑ0 (i. semplice) o appartenga a un insieme (i. composta). La teoria è stata sviluppata secondo varie impostazioni. Nell’impostazione di T.B. Bayes il parametro ϑ ha una distribuzione di probabilità a priori individuata da una funzione di ripartizione F(ϑ); la funzione di ripartizione a posteriori G(ϑ) è data dalla formula di Bayes

[1]

[1]

da cui si calcola la probabilità a posteriori di una data ipotesi. Date due i. semplici alternative H0 (ϑ=ϑ0) e H1 (ϑ=ϑ1) si considerano l’errore di prima specie (accettare l’i. H1 quando è vera l’i. H0) e l’errore di seconda specie (accettare H0 quando è vera H1). Un test fra le due i. viene individuato da una funzione di decisione, che fa corrispondere a ogni possibile risultato x una delle due i., o più in generale da una funzione di decisione aleatoria che fa corrispondere a ogni risultato x una probabilità ϕ(x), e sceglie poi aleatoriamente H0 o H1 con probabilità, rispettivamente, ϕ(x) e 1−ϕ(x). La scelta del test migliore o più potente si fa fissando un livello di significatività che la probabilità dell’errore di prima specie non deve superare, e scegliendo, tra le funzioni di decisione soggette a tale limitazione, quella che rende minima la probabilità dell’errore di seconda specie. Tale funzione è individuata dal lemma fondamentale di J. Neyman e E.S. Pearson, e dipende essenzialmente dal rapporto di verosimiglianza p(x, ϑ)/p(x, ϑ0). I test più comuni nelle applicazioni si basano sul confronto delle medie di una serie di dati (si usa a tale scopo l’analisi delle medie, basata sull’indice t di Student) o sul confronto delle varianze (analisi della varianza basata sull’indice F di Fisher e Snedecor).

CATEGORIE
TAG

Insieme dei numeri naturali

Calcolo delle probabilità

Corrispondenza biunivoca

Funzione di ripartizione

Aristofane di bisanzio