PREVISIONI METEOROLOGICHE

XXI Secolo (2010)

Previsioni meteorologiche

Luca Mercalli
Valentina Acordon
Claudio Castellano
Claudio Cassardo

Le prime formulazioni teoriche della previsione meteorologica numerica, risalenti al 1904 e dovute al lavoro del meteorologo norvegese Vilhelm Bjerknes (1862-1951), non poterono essere tradotte in pratica a causa della mancanza degli strumenti di calcolo automatico necessari per integrare la gran mole di equazioni su vaste aree geografiche e per ragionevoli periodi di tempo. Soltanto a partire dal 1950 Jule G. Charney (1917-1981) e John von Neumann (1903-1957) fecero funzionare il primo modello di previsione meteorologica sul computer a valvole ENIAC (Electronic Numerical Integrator And Computer) dei laboratori militari statunitensi di Aberdeen (Maryland).

In questi ultimi sessant’anni il progresso della modellistica meteorologica e i significativi risultati da essa raggiunti sono da imputarsi, più che a vere e proprie nuove scoperte scientifiche teoriche nell’ambito della fisica dell’atmosfera, alla sempre maggior potenza di calcolo resa disponibile dai supercalcolatori a parallelismo massivo che hanno permesso di considerare equazioni sempre più complesse e complete.

Inoltre, migliorata l’affidabilità delle previsioni a breve termine, è anche maturata la possibilità di spingersi verso intervalli temporali più lunghi, fornendo l’evoluzione meteorologica più probabile a due settimane (previsioni con modelli ensemble) e la tendenza climatica dei mesi a venire (previsioni stagionali). Ciò consente un più diffuso e migliore utilizzo delle previsioni meteorologiche sia nell’ambito della protezione civile (allerta nel caso di calamità) sia come quotidiano strumento di pianificazione in quanto ausilio all’attività decisionale di enti pubblici e aziende private o all’organizzazione della vita dei singoli (dalle vacanze alla scelta dell’abito). Questo costante contatto con il pubblico differenzia la meteorologia da altre scienze. La diffusione delle previsioni meteorologiche nei mezzi di comunicazione si è tradizionalmente avvalsa della mediazione di un professionista (il meteorologo televisivo o la rubrica previsionale sui quotidiani); tuttavia, dall’inizio del 21° sec. la capillare penetrazione di Internet ha consentito l’accesso diretto a dati e prodotti meteorologici da parte di persone che, spesso, non possiedono le conoscenze scientifiche necessarie per poterli comprendere pienamente. È quindi oggi possibile per chiunque, utilizzando il proprio computer, consultare innumerevoli bollettini meteorologici emessi dalle fonti più disparate, che includono sia autorevoli centri meteorologici internazionali e nazionali dai quali viene generata l’informazione modellistica, sia una pletora di siti che rielaborano e reinterpretano i dati, purtroppo talora senza alcuna attendibilità scientifica.

Quest’apparente maggiore offerta di informazione ha creato, in realtà, una condizione di crescente confusione che tende a suscitare a volte critiche e una minore fiducia nei confronti delle attuali previsioni le quali, al contrario, non sono mai state così affidabili. Ignorando sia i metodi che danno luogo a una previsione sia il funzionamento e, soprattutto, i limiti dei modelli meteorologici, è molto arduo districarsi tra la mole di informazioni circolanti: nel leggere o ascoltare tante previsioni tra loro discordanti, si può avere l’impressione che il meteorologo si affidi più alla sorte che a solidi processi scientifici. È pertanto necessario saper attribuire il giusto peso a ciascun tipo di previsione: se è corretto attendersi un’elevata affidabilità dalle previsioni per il giorno successivo, non altrettanto si può dire per quelle relative al quinto giorno, o addirittura per la stagione successiva. Le previsioni a lungo termine (soprattutto quelle stagionali), insieme ai modelli climatici, rappresentano infatti il campo di ricerca meteorologica più avanzato: vanno considerate quindi come prodotti ancora sperimentali che saranno affinati in futuro.

Le basi scientifiche dei modelli meteorologici

Le leggi fisiche che governano i moti atmosferici sono note da oltre due secoli; si tratta, infatti, di applicare le leggi della meccanica classica (conservazione della quantità di moto, conservazione della massa di aria e di acqua, conservazione dell’energia) a un fluido in movimento. A queste si aggiungono la legge dei gas perfetti (equazione di stato) e la relazione idrostatica, che legano tra loro densità e pressione. Le tre equazio­ni (una per ciascuna componente del vento) che descrivono la conservazione della quantità di moto prendono il nome di equazioni di Navier-Stokes. Nel 1904 Bjerk­nes affermò per primo che, per poter effettuare previsioni meteorologiche, cioè per descrivere lo stato futuro dell’atmosfera, sarebbe risultato sufficiente conoscere le equazioni del moto e applicarle allo stato dell’atmosfera al tempo t=0 (stato iniziale). Questo avrebbe consentito di calcolare con esattezza gli stati dell’atmosfera in ciascun istante successivo (t=1, 2 ecc.). Il problema si limitava, quindi, al solo reperimento dei dati iniziali e al tempo di calcolo. Si tratta del medesimo approccio deterministico che, per es., viene applicato con successo alla previsione dei moti astronomici. Purtroppo, nel caso dell’atmosfera, la situazione è diversa. Riflettendo sulle equazioni del moto, si ottiene che ad agire su una massa d’aria in movimento sono la forza di gradiente di pressione, la forza di Coriolis, la forza centrifuga, la forza di gravità e la forza di attrito. Inoltre, bisogna considerare la conservazione della massa, legata alla densità dell’aria e alla velocità del vento, e la conservazione dell’energia, sia meccanica sia termodinamica, in cui entrano in gioco, tra gli altri termini, gli scambi radiativi tra Sole, atmosfera e superficie terrestre. Alla difficoltà di esprimere matematicamente tutte queste relazioni, si aggiungono due ulteriori problematiche: le variabili in gioco sono tra loro interdipendenti e, inoltre, il sistema di equazioni contiene al suo interno termini non lineari, fatto che ne impedisce una soluzione analitica.

È indispensabile, quindi, ricorrere a un’integrazio­ne numerica, come intuito nel 1915 dall’inglese Lewis Fry Richardson (1881-1953), che sia cioè basata sull’approssimazione delle equazioni differenziali originarie e sulla loro risoluzione mediante algoritmi numerici come lo schema alle differenze finite. I campi delle variabili atmosferiche, che nella realtà sono continui, devono essere discretizzati suddividendo l’atmosfera in un grigliato tridimensionale; le equazioni differenziali del moto sono, dapprima, opportunamente semplificate tramite parametrizzazioni (per poter tenere conto anche dei fenomeni meteorologici che avvengono su scale spaziali più piccole rispetto al volume della griglia considerato) e, poi, integrate e risolte con metodi numerici soltanto sui nodi della griglia.

Nel 1922 Richardson tentò per primo una soluzione numerica di un set semplificato di equazioni, risolvendole senza l’ausilio di elaboratori su una porzione limitata dell’Europa. Per la determinazione delle condizioni iniziali fu organizzata una rete di osservazione e venne utilizzato un grigliato orizzontale di 25 celle di 250 km di lato; la soluzione dei calcoli relativi alle variazioni di pressione previste per il giorno successivo richiese sei settimane di lavoro, ma la previsione risultò completamente errata e il metodo fu accantonato.

Tuttavia, proprio il fallimento del modello di Richard­son mise in evidenza i limiti della modellistica numerica dei fenomeni atmosferici; tali limiti oggi si riescono in parte ad aggirare ma, intrinsecamente, sono ancora alla base degli errori nei processi di previsione e continuano a stimolare la ricerca di settore.

Essi possono essere schematizzati nel seguente modo: l’impressionante mole di calcoli richiesti che, per essere risolti in tempo utile, necessitano di supercomputer sempre più potenti; l’inevitabile approssimazione dello stato iniziale dell’atmosfera e lo sviluppo di tecniche sempre più sofisticate di osservazione delle grandezze atmosferiche e di inizializzazione dei modelli numerici; la complessità delle equazioni del moto e la necessità di ricorrere a parametrizzazioni; l’impredicibilità dell’evoluzione dell’atmosfera a causa della sua intrinseca natura caotica e lo sviluppo di tecniche probabilistiche o di ensemble.

La risoluzione spaziale: dai modelli globali a quelli ad area limitata

L’atmosfera terrestre è formata da un miscuglio di gas che, fino a un’altitudine di 90 km circa, mantengono una composizione chimica costante (omosfera). La massa dell’atmosfera è di 5 milioni di miliardi di tonnellate e, per il 99%, è concentrata nei primi 3 km di spessore, mentre i fenomeni meteorologici si sviluppano nei primi 15 km. Le variabili attraverso cui si rappresenta il comportamento fisico dell’atmosfera (temperatura, densità, pressione ecc.) sono campi continui e, per descriverle con esattezza, bisognerebbe co­noscerne il valore su ognuno dei virtualmente infiniti punti che compongono l’atmosfera stessa, obiettivo evidentemente irraggiungibile. Si rende, quindi, necessario suddividere l’atmosfera in un grigliato formato da celle tridimensionali e assegnare il valore che ogni variabile assume su ciascun nodo della griglia. Ovviamente, maggiore sarà la risoluzione del grigliato, cioè minore sarà la dimensione di ciascuna cella, migliore sarà l’accuratezza con cui si rappresentano i campi delle variabili atmosferiche. I modelli globali di ultima generazione (GCM, General Circulation Models) utilizzano un grigliato orizzontale con celle di circa 20-40 km di lato e un grigliato verticale con celle di ampiezza variabile (fino a un centinaio di metri nei bassi strati) generalmente, però, limitato ai primi 90-100 km di atmosfera.

In realtà, i sistemi di coordinate usati dai modelli nella direzione verticale sono piuttosto complessi e sono stati sviluppati principalmente per evitare che alle quote più basse i livelli verticali intersechino l’orografia. Una soluzione possibile è quella di utilizzare un sistema di coordinate in cui i livelli seguano l’andamento del terreno nei bassi strati (quindi si incurvino), e diventino invece via via più orizzontali all’aumentare della quota. È il caso del sistema di coordinate sigma in cui la base del grigliato è definita a livello del suolo e ciascun punto nella verticale viene individuato in base al rapporto tra la differenza di pressione tra il punto in esame e il limite superiore del grigliato e la differenza di pressione tra la base e il limite superiore del grigliato. Proprio perché le coordinate sigma seguono il naturale andamento del suolo, esse portano a una migliore rappresentazione dei campi delle variabili meteorologiche in aree caratterizzate da orografia complessa. Inoltre, la risoluzione verticale è maggiore vicino al suolo (i livelli sono più fitti), per cui si riescono a modellizzare al meglio tutti i fenomeni che avvengono nello strato limite planetario (indicativamente il primo chilometro di atmosfera), come la turbolenza e gli scambi radiativi. Le coordinate sigma non sono invece altrettanto efficaci nel modellizzare i fenomeni che avvengono sottovento alle catene montuose, come la formazione di minimi di pressione orografici (lee-cyclogenesys) e l’accumulo di aria fredda (cold air damming), e possono provocare errori nel calcolo del gradiente di pressione nei pressi dei rilievi, dove i livelli si incurvano.

Per ovviare a questo problema, è stato sviluppato il sistema di coordinate eta che utilizza come base del grigliato la pressione media a livello del mare. Anche la coordinata eta è definita dal rapporto tra la differenza di pressione tra il punto in esame e il limite superiore del grigliato e la differenza di pressione tra la base e il limite superiore del grigliato. Essendo una coordinata di pressione, i livelli verticali non intersecano mai l’orografia del terreno; inoltre, per evitare gli errori nel calcolo del gradiente di pressione, i livelli vengono mantenuti sempre orizzontali, modellizzando i rilievi con una serie di gradini. Questa struttura a gradini può causare alcuni problemi nella descrizione dei flussi in prossimità delle catene montuose e nella valutazione di alcune variabili a essi associate come, per es., le precipitazioni, soprattutto nei modelli a bassa risoluzione, in cui il grigliato non è molto fitto. Per questo motivo, le coordinate eta vengono oggi utilizzate prevalentemente su modelli locali con grigliati a risoluzione molto elevata.

Tutti i principali modelli globali, che per limitare i tempi di calcolo devono utilizzare grigliati meno fitti, negli ultimi anni hanno optato per un sistema ibrido di coordinate verticali, basato su un sistema sigma nei bassi strati e un sistema theta (cioè che utilizza la temperatura potenziale come coordinata verticale) alle quote più elevate. Questa soluzione trova una giustificazione fisica nel fatto che nella libera atmosfera i moti sono prevalentemente isoentropici e la temperatura potenziale, che si conserva sulle superfici a entropia costante, è quindi un’affidabile coordinata verticale. Tale ragionamento non è, invece, valido nello strato limite planetario, dove viene quindi usato un sistema di coordinate sigma che, come visto, è molto efficace nel descrivere i moti che avvengono nelle prime centinaia di metri di atmosfera. Per es., l’ultima versione (T1279) del modello IFS (Inte­grated Forecast System) dello European centre for medium-range weather forecasts (ECMWF), operativa dal 2010, utilizza un grigliato orizzontale con una risoluzione di 16 km e un grigliato verticale ibrido con 91 livelli; si ottiene così un numero complessivo di 194.804.064 celle nell’intera atmosfera terrestre.

Tenendo conto che, mediamente, un modello globale esegue alla massima risoluzione una previsione fino a 10 giorni, tramite step temporali dell’ordine della decina di minuti, e che le equazioni del moto vanno risolte per ciascun punto del grigliato e per ciascun intervallo temporale, si ha un’idea dell’impressionante mole di calcoli necessaria per emettere una previsione meteorologica (dell’ordine di alcune decine di migliaia di miliardi di operazioni). Per tale motivo, il miglioramento dei modelli di previsione è andato di pari passo con lo sviluppo di calcolatori sempre più potenti, con una notevole accelerazione dalla fine degli anni Novanta del 20° sec., grazie alla tecnologia dei supercalcolatori a parallelismo massivo o distribuito, in cui migliaia di processori vengono usati in modo coordinato all’interno di un unico grande computer o di una rete di computer. Se Richardson nel 1922 impiegò sei settimane per calcolare la variazione di pressione su 6 ore su un grigliato di 25 celle, oggi i moderni supercalcolatori impiegano circa 6 ore per calcolare una previsione fino a 10 giorni a livello globale. Infatti, il supercalcolatore IBM operativo presso l’ECMWF dal 2005 risolve queste equazioni in circa 3 ore, alle quali bisogna aggiungere il tempo necessario per il processo di assimilazione dei dati (v. oltre L’assimilazione dei dati di osservazione dell’atmosfera) che richiede altre 3 ore. Confrontato con il suo antenato CRAY-1A, operativo nel 1977, il supercalcolatore IBM ha un nu­mero di processori (CPU, Central Processing Unit) 4500 volte maggiore, una frequenza del processore (1,9 GHz) 24 volte maggiore, una performance di picco (34,2 Tflops) 220.000 volte maggiore, una memoria (4,5 Tbytes) 550.000 volte maggiore e uno spazio su disco (50 Tbytes) 20.000 volte maggiore.

Sempre all’ECMWF, a livello sperimentale, nel 2005 è stata implementata una previsione a 1 giorno, aumentando la risoluzione del modello globale fino a un grigliato di 10 km. Questa singola previsione ha richiesto due milioni di miliardi di operazioni che sono state svolte in circa un’ora. Nonostante questo tentativo abbia mostrato come gli algoritmi del modello siano in grado di funzionare correttamente anche a risoluzioni molto più elevate, al momento attuale i tempi e la capacità di calcolo richiesti appaiono ancora eccessivi per un utilizzo in tempo reale. Eppure, per poter prevedere i fenomeni meteorologici locali, sia che essi siano indotti dalla presenza di rilievi (per es., la circolazione di brezza e i fenomeni di sbarramento) sia che avvengano su scale spaziali di ordine inferiore alla decina di chilometri (per es., i fenomeni convettivi), è indispensabile utilizzare grigliati con una risoluzione molto maggiore di quella dei modelli a circolazione globale. Infatti, un modello globale non può descrivere fisicamente i fenomeni meteorologici che avvengono su scale spaziali più piccole rispetto alla dimensione del suo grigliato, cioè alla sua risoluzione (fenomeni di sottogriglia), ma li può soltanto rappresentare artificialmente attraverso parametrizzazioni.

Per migliorare la qualità delle previsioni locali, negli ultimi decenni sono stati pertanto sviluppati i modelli ad area limitata (LAM, Limited Area Models): si tratta di modelli con una risoluzione molto elevata, ma che vengono fatti girare soltanto su una porzione limitata di territorio (generalmente a scala nazionale o regionale). I LAM utilizzano come condizioni iniziali e al contorno le uscite dei modelli globali (in gergo tecnico si dice che il LAM viene innestato, nested, sul modello globale); in questo modo, il LAM non è un modello indipendente ma risente inevitabilmente delle caratteristiche e delle parametrizzazioni utilizzate dal modello globale sul quale viene innestato. Migliore è la qualità di un LAM, maggiore è la sua capacità di differenziarsi dal corrispondente modello globale, facendo risaltare i fenomeni meteorologici a piccola scala che i modelli globali, a causa della loro scarsa risoluzione, non sono in grado di rappresentare correttamente. In generale, quest’operazione viene effettuata soltanto per le previsioni a breve termine; infatti, oltre il terzo o quarto giorno di previsione, i LAM tendono ad allinearsi ai risultati del modello globale sul quale sono stati innestati, oppure gli errori dovuti alle interpolazioni dei dati iniziali sui bordi del grigliato provenienti dai modelli globali possono rendere inaffidabile la loro previsione.

Per es., in Italia, sulle uscite del modello globale dell’ECMWF viene innestato il modello locale BOLAM (Bologna LAM), sviluppato negli anni Novanta dall’Istituto di scienze dell’atmosfera e del clima (ISAC) del CNR di Bologna. Il modello è operativo in due versioni; la prima (BOLAM21) viene innestata sulla corsa (run) delle ore 00 del modello ECMWF e fornisce una previsione a 3 giorni (72 ore) sul Mediterraneo e sull’Europa continentale utilizzando un grigliato di 22.176 celle orizzontali (risoluzione di 21 km) e 30 livelli verticali. La seconda (BOLAM6.5) viene innestata direttamente sulla prima e fornisce una previsione a 48 ore sull’Italia settentrionale utilizzando un grigliato di 18.200 celle orizzontali (risoluzione di 6,5 km) e 40 celle verticali. Infine, dal giugno 2007, nell’ambito del progetto internazionale MAP D-PHASE (Mesoscale Alpine Programme Demonstration of Probabilistic Hydrological and Atmospheric Simulation of flood Events), è stato reso operativo il modello MOLOCH (MOdello LOCale in H coordinates), sviluppato dal CNR-ISAC di Bologna. MOLOCH è un modello non idrostatico (v. oltre Le equazioni del moto e le previsioni meteorologiche) che viene innestato sul BOLAM6.5 e fornisce una previsione a 48 ore sull’Italia settentrionale utilizzando un grigliato di 39.200 celle orizzontali (risoluzione di 2,2 km) e 50 livelli verticali. La catena operativa dei modelli BOLAM-MOLOCH è un ottimo esempio di come venga progressivamente aumentata la risoluzione dei modelli, diminuendo l’ampiezza del dominio spaziale e l’estensione temporale della previsione (fig. 1).

Altri LAM operativi sull’area italiana e facilmente reperibili sono: il modello Eta, innestato sul modello globale statunitense GFS (Global Forecast System, il modello globale della NOAA, National Oceanic and Atmospheric Administration), che fornisce sia una previsione a 144 ore sull’Italia con una risoluzione di 10 km sia una previsione a 72 ore sulle regioni settentrionali con una risoluzione di 5 km; i WRF-NMM (Weather Research and Forecasting Non-hydrostatic Mesoscale Models), modelli sempre innestati sul GFS, con una risoluzione in generale intorno ai 7 km; il mo­dello COSMO (prodotto dall’omonimo consorzio europeo, COnsortium for Small-scale MOdeling, e utilizzato dal Servizio meteorologico nazionale dell’Aeronautica militare), innestato su ECMWF, con una risoluzione di 7 km (COSMO7) sul Mediterraneo e sull’Europa continentale e di 2 km (COSMO2) sull’Italia.

La minore onerosità di un LAM in termini di tempo di calcolo e la disponibilità in rete delle uscite di alcuni modelli globali rendono possibile l’implementazione di questo tipo di modelli anche a centri meteorologici di piccole dimensioni.

L’assimilazione dei dati di osservazione dell’atmosfera

Come già ricordato, le previsioni meteorologiche necessitano delle condizioni iniziali: per poter prevedere l’evoluzione dell’atmosfera al tempo t=t0+Δt, è necessario conoscerne lo stato al tempo t0. Su tutto il globo esiste una rete interconnessa di stazioni meteorologiche sinottiche, coordinate dall’Organizzazione meteorologica mondiale (WMO, World Meteorological Organization), che effettuano misure in continuo delle variabili fisiche di interesse e le trasmettono ai centri di raccolta dati. Come si può immaginare, la distribuzione dei punti di misura non è omogenea: i rilevamenti sono più fitti nei Paesi industrializzati e molto più scarsi in quelli non industrializzati, nelle aree desertiche e sugli oceani, proprio dove nascono i cicloni che interessano le medie latitudini e le regioni tropicali. Sono pochissime, poi, le stazioni che eseguono rilievi del profilo verticale dell’atmosfera utilizzando i palloni sonda (circa un migliaio in tutto il mondo). In compenso, negli ultimi anni è enormemente aumentata la disponibilità di misure da satellite che, quindi, garantiscono una maggiore uniformità di rilevamento sul globo. Tuttavia, questi dati sono non convenzionali, in quanto non vengono rilevati i valori delle tradizionali variabili fisiche (temperatura, pressione ecc.), ma viene misurata la ra­dianza, cioè l’energia emessa dall’atmosfera verso lo spazio a unità di tempo e di superficie e in un determinato intervallo spettrale. È quindi necessario trattare preliminarmente i dati da satellite, per uniformarli a quelli convenzionali; così facendo, si introduce un errore che limita i vantaggi di queste misurazioni solo alle zone scarsamente coperte dalle reti meteorologiche tradizionali; anche in questo caso, tuttavia, la ricerca scientifica consente miglioramenti quotidiani nel numero e nella qualità dei dati che si possono ricavare dalle misure satellitari. Al momento, però, le osservazioni sullo stato iniziale dell’atmosfera di cui si dispone sono disomogenee, frammentarie e, in certi casi, asincrone, cioè effettuate in istanti di tempo differenti. Questo rende impossibile il loro utilizzo diretto all’interno dei modelli di previsione. Bisogna, quindi, ricostruire con opportune tecniche matematiche e statistiche lo stato iniziale dell’atmosfera in modo da filtrare eventuali errori nelle osservazioni e assegnare i valori iniziali delle variabili atmosferiche a ciascun punto del grigliato regolare del modello. Questo processo di preparazione è definito assimilazione dei dati e, in termini di tempo di calcolo ed elaborazione, è la parte più pesante di un modello, tanto che ormai viene sviluppata in modo autonomo.

La modalità sicuramente più intuitiva per incorporare le osservazioni reali all’interno delle condizioni iniziali di un modello è quella di operare una semplice interpolazione spaziale, assegnando un peso diverso alle differenti misure in base alla loro distanza dai punti griglia del modello. Tecniche di questo tipo furono utilizzate solo nei primissimi anni di sviluppo dei modelli meteorologici, a causa dei notevoli errori introdotti dalla disomogeneità dei dati all’interno del modello. In seguito, si fece ricorso a un processo iterativo in cui le osservazioni reali, opportunamente pesate a seconda della loro qualità e della loro distanza dal punto di griglia considerato, vengono confrontate e inglobate all’interno di un campo detto di prima scelta (background o first-guess) ottenuto facendo eseguire al modello una previsione a brevissimo termine (in genere, 6 ore); il risultato di tutte queste operazioni viene definito analisi e si traduce in un insieme di dati su grigliato che rappresenta lo stato dell’atmosfera in una determinata ora del giorno (generalmente l’orario di inizializzazione del modello di previsione). L’analisi può, tuttavia, differire dallo stato reale dell’atmosfera a causa dei processi di omogeneizzazione e interpolazione cui vengono sottoposte le osservazioni reali. Si può dire che l’analisi rappresenta lo stato iniziale dell’atmosfera come è visto dal modello.

Negli ultimi anni sono state sviluppate tecniche ancora più sofisticate di assimilazione dei dati, note come analisi variazionali in tre o quattro dimensioni (3D-Var o 4D-Var). In particolare, la più avanzata, la 4D-Var, adottata dal modello dell’ECMWF dal 1997, è una tecnica di interpolazione statistica nello spazio e nel tempo tra una distribuzione di osservazioni meteorologiche e una stima a priori dello stato del modello (il campo di prima scelta). L’interpolazione viene eseguita in modo da tener conto della dinamica e della fisica del modello di previsione, al fine di essere certi che le osservazioni vengano usate in modo meteorologicamente coerente. Intuitivamente si può pensare che, all’interno di un determinato intervallo di tempo (di solito 6 o 12 ore), tra tutte le evoluzioni (traiettorie nello spazio delle fasi) che il modello può seguire al variare delle condizioni iniziali, viene scelta quella che più si avvicina all’insieme delle osservazioni. In pratica, nelle tecniche variazionali di assimilazione dati, si parte dalle differenze tra i valori analizzati e le osservazioni e i valori del campo di prima scelta. Le analisi si ottengono determinando con procedimenti iterativi gli aggiustamenti alla previsione di prima scelta che minimizzano la somma delle misure pesate di queste differenze (matematicamente, tale risultato viene ottenuto minimizzando un funzionale denominato cost function). I pesi applicati dipendono dalla stima degli errori delle osservazioni e delle previsioni di prima scelta; per es., essi tengono conto degli squilibri dinamici (imbalance) tra i campi di vento e di pressione che possono essere generati dal modello in caso di errori nelle osservazioni. Nella tecnica 3D-Var le differenze dalle osservazioni vengono artificialmente assunte come valide solo in corrispondenza di determinati tempi di analisi (generalmente gli orari sinottici 00, 06, 12, 18 UTC). Nella tecnica 4D-Var, le differenze vengono processate in ogni istante di ciascuna osservazione. La procedura di minimizzazione richiede quindi successive iterazioni del modello su tutto il periodo nel quale vengono assimilate le osservazioni, tipicamente di 6 o 12 ore (la cosiddetta finestra di assimilazione). Questo porta, ovviamente, a un notevole aumento del tempo di calcolo.

In generale, occorrono alcune ore per completare un processo di assimilazione dei dati a scala globale, e le risorse umane e finanziarie investite per il miglioramento di queste tecniche sono superiori a quelle finalizzate al miglioramento della struttura dei modelli predittivi stessi. Per l’assimilazione dei dati relativi ai quattro cicli giornalieri del modello IFS del centro europeo ECMWF sono necessari 4000 miliardi di operazioni che utilizzano i dati di 40.000 stazioni di osservazione al suolo e in quota. Questa enorme mole di calcoli fa sì che soltanto i grandi centri meteorologici internazionali e nazionali (il centro europeo ECMWF di Reading, il britannico MetOffice, Météo-France, lo statunitense NOAA e pochissimi altri) siano in grado di gestire un processo di assimilazione dati come quello sopra descritto e, quindi, di implementare un modello meteorologico a scala globale (GCM). In particolare, la tecnica 4D-Var che, come si è detto, è operativa sul modello IFS del centro europeo ECMWF già dal 1997, in dieci anni ha portato a una sensibile diminuzione degli errori nel processo di assimilazione e a un conseguente miglioramento dell’affidabilità delle previsioni. La tecnica 4D-Var è stata resa operativa anche da Météo-France (nel 2000) e da MetOffice (nel 2004). Nei prossimi anni l’aumento dei dati disponibili da satellite e l’ulteriore incremento della potenza di calcolo dei computer renderà probabilmente possibile l’implementazione di tecniche di assimilazione dati con una risoluzione ancora maggiore. L’ECMWF sta valutando di testare una versione a 15 km di risoluzione del modulo di assimilazione dati 4D-Var, provvedendo a estendere la finestra di assimilazione oltre le 12 ore. Un’altra linea di ricerca prevede lo sviluppo di una tecnica probabilistica (ensemble) anche nelle procedure di assimilazione 4D-Var. Questo dovrebbe in futuro rendere possibile un’agevole quantificazione dell’accuratezza di ciascun campo di analisi. Inoltre, i dati ottenuti serviranno anche come input ai modelli di tipo ensemble. Al mo­mento si stima che si potranno far girare in parallelo da 5 a 10 assimilazioni 4D-Var, basate su differenti set di osservazioni perturbate; le informazioni ottenute dall’ensemble potranno anche essere usate direttamente nello stesso sistema di assimilazione in modo da variare i pesi attribuiti alle differenti osservazioni.

Le equazioni del moto e le previsioni meteorologiche

Le equazioni che descrivono l’evoluzione dei moti atmosferici e che devono essere risolte per poter formulare una previsione meteorologica, sebbene teoricamente semplici, hanno una forma in realtà molto complessa a causa delle numerose forze che agiscono su una massa d’aria in movimento e di tutti i fenomeni fisici di cui bisogna tenere conto. Inoltre, le equazioni di Navier-Stokes contengono termini non lineari che ne impediscono una soluzione analitica, rendendone necessaria una soluzione numerica tramite la loro discretizzazione. Per ridurre gli errori che inevitabilmente vengono introdotti da questa approssimazione, si fa ricorso ai modelli spettrali in cui, tramite un’estensione dell’analisi di Fourier, le variabili vengono scomposte in una serie di armoniche. Più è alto il numero di armoniche utilizzato, maggiore è la precisione dell’approssimazione. Inoltre, l’analisi spettrale ha il pregio di adattarsi bene alla natura ondulatoria caratteristica di un gran numero di fenomeni atmosferici (per es., le onde di Rossby). La risoluzione di un modello spettrale (da non confondersi con la risoluzione del grigliato, anche se tra le due vi è una certa correlazione) viene generalmente indicata dalla sigla Tn, in cui n è l’indice della più piccola lunghezza d’onda 2πR/n, dove R è il raggio terrestre. L’ultima versione (T1279) del modello IFS dell’ECMWF, citata in precedenza, tronca quindi l’analisi di Fourier alla 1279-esima armonica.

Gli algoritmi numerici permettono quindi di risolvere il problema dell’impossibilità di ottenere una soluzione analitica delle equazioni del moto ma, nel processo di discretizzazione, vengono introdotte ulteriori approssimazioni: infatti, risolvendo le equazioni solo sui nodi del grigliato, si trascurano tutti i fenomeni meteorologici che avvengono su scale più piccole della dimensione delle celle del grigliato. Alcuni esempi sono quelli dei moti convettivi, dei processi microfisici di formazione delle nubi e delle precipitazioni, dei moti turbolenti che avvengono nello strato limite atmosferico e dei processi superficiali. Tutti questi fenomeni, se ignorati, possono portare a sensibili errori nelle previsioni. Per tenerne conto, bisogna quindi ricorrere a parametrizzazioni raffinate.

Un’altra semplificazione molto usata è quella di operare un’analisi di scala, cioè valutare l’importanza relativa di ciascun termine delle equazioni alle diverse scale del moto. Per es., per quanto riguarda i moti a scala sinottica (ossia quelli che avvengono su distanze spaziali dell’ordine di centinaia o migliaia di chilometri) e quelli in quota, si può certamente trascurare l’influenza delle forze d’attrito che assumono importanza solo negli strati più bassi, quelli in cui l’atmosfera viene a contatto con il suolo. Analogamente, nella direzione verticale si possono descrivere i moti come se fossero determinati solo dall’equilibrio tra la forza di gravità e quella di gradiente di pressione, trascurando così le accelerazioni verticali dell’aria e i termini verticali della forza di Coriolis e derivando la componente verticale della velocità del vento dall’equazione di continuità. In pratica, si considera che, nei moti a grande scala, la massa d’aria si comporta come se fosse ferma nella direzione verticale e i moti avvenissero soltanto sul piano orizzontale; in effetti, la dimensione orizzontale dei cicloni extratropicali è di almeno due ordini di grandezza superiore al loro sviluppo verticale (1000 km contro 10 km) e i moti prevalenti, a grande scala, sono orizzontali. Di conseguenza, l’accelerazione verticale a scala sinottica è di svariati ordini di grandezza inferiore all’accelerazione di gravità. Questa approssimazione viene definita approssimazione idrostatica ed è comunemente usata nei modelli globali (GCM) e nella maggior parte dei modelli locali (LAM) a bassa risoluzione. In questo tipo di modelli, i fenomeni meteorologici caratterizzati anche da moti verticali delle masse d’aria come, per es. i moti convettivi (cioè quelli che, per es., avvengono nei fenomeni temporaleschi), non possono essere trattati esplicitamente tramite equazioni fisiche, ma devono essere parametrizzati, cioè espressi da relazioni empiriche che fanno uso di coefficienti determinati sperimentalmente (parametri); quest’operazione introduce inevitabilmente un certo grado di errore. Tuttavia, l’approssimazione idrostatica è un buon compromesso, poiché consente un’ottima previsione di tutti i fenomeni meteorologici che avvengono su scale di moto più grandi del passo griglia del modello e contribuisce a ridurre i tempi di calcolo.

L’approssimazione idrostatica perde invece validità se utilizzata su modelli con risoluzione inferiore a 5-10 km. Negli ultimi anni, grazie all’aumento della potenza di calcolo, è stato possibile implementare modelli LAM con risoluzione fino a 2 km, che non utilizzano l’approssimazione idrostatica e riescono quindi a descrivere i moti convettivi risolvendone direttamente le equazioni fisiche, aumentando così notevolmente la precisione delle previsioni a scala locale: è il caso, per es., del modello MOLOCH, cui si è accennato in precedenza, che opera con una risoluzione di 2,2 km su un dominio spaziale centrato sull’Italia settentrionale. Recentemente, però, anche altri centri meteorologici locali hanno implementato versioni non idrostatiche di modelli LAM operativi sulle aree di loro interesse: per es., in occasione dei Campionati mondiali di sci alpino del 2009 a Val d’Isère in Francia, Météo-France ha sviluppato il nuovo modello locale AROME (Applications de la Recherche à l’Opérationnel à Méso-Echelle) con una risoluzione di 1 km.

Previsioni diverse, valutazione delle cause

Abbiamo visto che esistono svariati modelli meteorologici globali (ECMWF, GFS, MetOffice ecc.) ognuno dei quali utilizza diverse risoluzioni, parametrizzazioni e tecniche di assimilazione dei dati, fornendo quindi, molto spesso, evoluzioni differenti tra di loro, soprattutto dopo i primi 2 giorni di previsione. Inoltre, su ciascun modello globale possono venire innestati diversi LAM, a loro volta anch’essi differenti in base alla risoluzione e alle parametrizzazioni adottate. Un meteorologo ha, perciò, a disposizione molteplici strumenti conoscitivi su cui basare la propria previsione e deve scegliere quello a suo giudizio più affidabile. Inoltre, la previsione non può essere formulata utilizzando meramente le uscite del modello, ma queste ultime devono essere calibrate e integrate dal previsore che, in base alla sua esperienza e alla sua conoscenza della morfologia e delle caratteristiche climatiche del territorio, può anche arrivare a stravolgere la previsione di un modello numerico. Su alcuni siti Internet vengono proposte, con risultati spesso molto scadenti, previsioni generate in modo automatico a partire dalle uscite dei modelli meteorologici; la tecnica è quella di prelevare semplicemente i valori delle variabili atmosferiche sul punto di griglia corrispondente, o di interpolarle tra i punti griglia più vicini; in questo modo, risulta possibile associare una previsione particolareggiata a ogni città o addirittura a ogni singolo comune. Questo tipo di previsioni non è generalmente affidabile perché queste operazioni non tengono conto di tutta una serie di fattori locali e, soprattutto, perché interpolano in modo grossolano le uscite del modello a una scala molto inferiore a quella del modello stesso.

Generalmente i vari centri meteorologici tendono a basarsi in prevalenza su uno o al massimo due mo­delli, utilizzando gli altri soltanto come strumento di controllo in situazioni particolari. Per questo motivo, le previsioni emesse da due centri meteo possono essere, a volte, anche molto diverse tra loro in quanto basate su due differenti modelli di previsione. Questo fenomeno è particolarmente evidente in Paesi come l’Italia, in cui le competenze meteorologiche sono state frammentate tra lo Stato, le Regioni e alcuni soggetti privati.

Affidabilità delle previsioni

Il progressivo aumento della risoluzione dei modelli globali, lo sviluppo dei LAM, l’implementazione di tecniche sempre più sofisticate di assimilazione dei dati hanno notevolmente migliorato l’affidabilità delle previsioni meteorologiche. Nel 1975 si stimava che una previsione meteorologica a un giorno avesse un’affidabilità intorno al 60%, mentre nel 2000 si è raggiunta un’affidabilità superiore al 90%. Inoltre, è migliorata anche la capacità di fare previsioni nel medio termine: infatti, l’affidabilità di una previsione a tre giorni nel 2000 è pari a quella di una previsione a un giorno nel 1975. Ciononostante, nel pubblico permane la sensazione che le previsioni meteorologiche siano uno strumento poco affidabile ed esse, ancora troppo spesso, vengono paragonate e affiancate agli oroscopi. Questa percezione è sicuramente, nella maggior parte dei casi, puramente soggettiva in quanto è influenzata sia dalle esperienze negative personali, che rimangono più impresse nella memoria, sia da una certa tendenza, soprattutto in Italia, a rimanere ancorati a vecchi detti e credenze popolari che si ritengono più affidabili dei prodotti scientifici. Tuttavia, vi sono anche ragioni oggettive per le quali l’affidabilità dichiarata dei modelli di previsione non coincide con quella percepita.

In effetti, le percentuali di affidabilità sopra espresse vengono calcolate tramite procedimenti statistici, quali il metodo dei minimi quadrati o quello dell’errore assoluto, generalmente solo sul campo di altezza di geopotenziale (in prima approssimazione è la quota alla quale si trova una determinata superficie isobarica) previsto alla quota standard corrispondente a 500 hPa (circa 5500 m), in quanto lo scopo dei modelli globali è descrivere i moti atmosferici a scala sinottica. Sicuramente, la previsione sarà meno precisa nei bassi strati e in prossimità dei rilievi che, come abbiamo visto, vengono descritti in maniera approssimata dai modelli a seconda della loro risoluzione. Questo è proprio il caso del territorio italiano che, per la maggior parte, è montuoso e si trova, relativamente ai flussi dominanti, sottovento alle Alpi e agli Appennini; in tale situazione si formano, per ragioni fluidodinamiche, strutture depressionarie secondarie (ciclogenesi) di più difficile previsione. Inoltre, un conto è prevedere il valore dell’altezza di geopotenziale, che è una variabile prognostica risolta direttamente dal modello, un altro è prevedere l’evoluzione della nuvolosità e delle precipitazioni che vengono calcolate attraverso algoritmi e parametrizzazioni, introducendo quindi un’ulteriore fonte di errore che diminuisce, anche se di poco, l’affidabilità della previsione di questi parametri. In aggiunta, all’utente finale generalmente interessa sapere quali siano le condizioni rispetto alla pioggia o all’esposizione al Sole e non il valore dell’altezza di geopotenziale a 5500 m di altezza; ciò allontana i risultati dei test statistici di affidabilità dalle esigenze dell’utente. Test più obiettivi sulla validità delle previsioni, utilizzati in particolare per la presenza/assenza di pioggia, sono, per es., il Brier skill score e il critical success index (CSI, o threat score). MeteoSvizzera ha sviluppato un sistema per valutare nel modo più obiettivo possibile la qualità della previsione delle varie grandezze meteorologiche tenendo conto di tutti questi fattori e, nel 2007, ha stimato di aver raggiunto un’affidabilità dell’85,5% sul primo giorno di previsione e, in media, del 76,3% dal secondo al quinto giorno di previsione; questo significa comunque un aumento del 4% rispetto alla media degli ultimi dieci anni.

Le previsioni emesse dai meteorologi con il supporto dei modelli numerici hanno quindi raggiunto un grado di affidabilità molto elevato, ma trattandosi pur sempre di previsioni sono inevitabilmente soggette a errori anche gravi. Si consideri che un’affidabilità dell’85,5% significa avere, in un anno, 53 giorni con previsioni sbagliate. Questi errori sono talora esaltati se avvengono in momenti particolari, come nel caso dei periodi festivi, in cui vanno a incidere sugli interessi di talune categorie imprenditoriali (per es., gli albergatori). È quanto accadde in occasione della Pasqua del 2004, in cui tutti i modelli globali e locali delineavano sull’Italia un’evoluzione caratterizzata da tempo grigio e piovoso, mentre il giorno di Pasqua e il successivo si rivelarono soleggiati e miti, dando vita a minacciate richieste di rimborso dei danni da parte degli operatori turistici che, a loro dire, avevano rilevato meno presenze a causa delle previsioni sbagliate. Questi inevitabili incidenti di percorso, amplificati notevolmente dai media, fanno dimenticare gli altri 312 giorni all’anno in cui le previsioni sono corrette e in cui, in caso di eventi meteorologici estremi, sono di valido supporto alle attività della protezione civile. Si pensi alle previsioni degli eventi alluvionali, come quelli del 15 ottobre 2000 in Pianura Padana o, più recentemente, del 29 maggio 2008 sull’Italia nord-occidentale, tutti ben delineati con alcuni giorni di anticipo dai modelli di previsione. Oppure, ancora, si pensi alle previsioni ormai ottimali delle nevicate che permettono di organizzare in anticipo le attività di sgombero neve, evitando maggiori disagi alla circolazione e al traffico aereo. Anche nelle zone tropicali i modelli permettono ormai di prevedere con notevole precisione entro 2-3 giorni la traiettoria e l’intensità di uragani e tifoni, permettendo alle popolazioni di mettersi il più possibile in salvo; anche in questi casi, nonostante l’aumentata affidabilità, possono sussistere alcuni errori di previsione ma, di fronte al rischio di perdite in vite umane è prioritaria la necessità di salvaguardare la sicurezza rispetto alla messa in discussione della professionalità dei meteorologi. Per es., nel settembre 2005 venne evacuata parte del Texas, compresa la città di Houston, in quanto si temeva l’arrivo dell’uragano Rita, che in realtà arrivò poi sulla terra emersa con un’intensità inferiore al previsto e risparmiò la città di Houston, causando nonostante ciò circa 11 miliardi di dollari di danni. Soltanto tre settimane prima l’uragano Katrina aveva raggiunto New Orleans, inondando la città, non prontamente evacuata, e causando 1500 vittime nella sola Louisiana: ignorare le previsioni nel caso successivo sarebbe stato troppo rischioso.

Le previsioni probabilistiche

Abbiamo visto che anche le stime più ottimistiche vedono diminuire l’affidabilità di un modello di previsione da oltre il 90% del primo giorno a meno del 20% oltre il settimo. In futuro si potrà migliorare ulteriormente la risoluzione dei modelli e arrivare a risolvere direttamente gran parte delle equazioni che descrivono i fenomeni atmosferici, ma anche in questo caso non si giungerà mai a una previsione completamente affidabile oltre i 6-10 giorni. Questo limite intrinseco di predicibilità deriva dalla natura non lineare e caotica dell’atmosfera: è, cioè, una caratteristica peculiare del sistema atmosferico e non dipende dall’abilità o meno degli scienziati. Una delle caratteristiche principali dei sistemi caotici è la loro dipendenza sensibile dalle condizioni iniziali: variazioni infinitesime di queste danno luogo a grandi variazioni nel comportamento a lungo termine del sistema. Non si conoscono con esattezza le condizioni iniziali del sistema atmosfera, in quanto si dispone soltanto di osservazioni disomogenee, frammentarie e asincrone, da cui si trae artificialmente uno stato iniziale approssimato. Se anche questo stato fosse solo infinitesimamente diverso dallo stato iniziale reale, dopo un periodo di tempo sufficientemente lungo esso evolverebbe in maniera completamente imprevedibile. Tale concetto è sintetizzato nella celebre espressione butterfly effect che prende spunto dal titolo della relazione (Predictability. Does the flap of a butterfly’s wings in Brazil set off a tornado in Texas?), presentata il 29 dicembre 1972 al 139° Congresso dell’AAAS (American Association for the Advancement of Science) dal matematico statunitense Edward N. Lorenz, padre della teoria del caos, che negli ultimi anni Sessanta si accorse per primo dei motivi della imprescindibilità dei moti atmosferici. L’effetto farfalla non va interpretato alla lettera ma, piuttosto, inteso nel senso che una minuscola variazione nelle condizioni iniziali di un sistema può farlo evolvere in un modo completamente diverso da quello atteso, il che può contemplare anche lo sviluppo di fenomeni estremi. L’effetto farfalla, che sembrerebbe porre una pietra tombale sulla speranza di poter formulare previsioni meteorologiche a lungo termine, è stato in realtà uno sprone, a partire dalla fine degli anni Novanta del 20° sec., allo sviluppo di una nuova generazione di modelli meteorologici, i modelli ensemble. Essi, risolvendo le equazioni del moto in termini probabilistici e non deterministici, hanno consentito di estendere il limite temporale delle previsioni meteorologiche fino a due settimane.

Il concetto di ensemble si concretizza nella valutazione di un insieme di possibili previsioni. In termini molto semplificati ciò si realizza nel modo seguente. Nella visione deterministica, applicando le equazioni del moto a uno stato iniziale si ha un’evoluzione del sistema che porta a un determinato stato finale. Sa­pendo che lo stato iniziale è un’approssimazione di quello reale dell’atmosfera, e che probabilmente contiene alcuni errori, si può creare artificialmente un insieme di più stati iniziali all’interno del quale ricadrà ragionevolmente anche lo stato reale dell’atmosfera. L’insieme di stati iniziali è ottenuto perturbando artificialmente lo stato iniziale singolo del modello deterministico, cioè introducendovi piccole variazioni. A questo punto, le equazioni del moto sono applicate a ciascuno degli N membri dell’insieme degli stati iniziali, ottenendo quindi N evoluzioni diverse che daranno luogo a N stati finali, all’interno dei quali ragionevolmente ricadrà lo stato finale reale. Dall’analisi statistica sugli N stati finali, che spesso sono mostrati graficamente come fasci di linee e per questo detti spaghetti plots, si otterrà l’evoluzione meteorologica più probabile. Nella figura 2 ciascuna linea rappresenta la previsione di un membro dell’ensemble relativo all’altezza di geopotenziale a 500 hPa (isolinee di 5600 e 5800 m di geopotenziale). Nella previsione a 24 ore (A) le linee seguono tutte lo stesso andamento e la previsione ha, quindi, un grado di affidabilità molto elevato. A mano a mano che si estende l’intervallo temporale della previsione, i membri dell’ensemble iniziano a evidenziare evoluzioni tra loro diverse (B, previsione a 120 ore) e le carte appaiono più confuse. Oltre gli 8 giorni (C, previsione a 192 ore) l’andamento è completamente caotico e le previsioni hanno un grado di affidabilità molto basso; è, tuttavia, possibile evidenziare l’evoluzione più probabile, rappresentata dalle linee nere più scure. La formulazione delle previsioni meteorologiche non sarà più quindi del tipo «tra dieci giorni il cielo sarà sereno» (modello deterministico), ma del tipo «vi è una probabilità del 30% che tra dieci giorni il cielo sarà sereno» (modello probabilistico).

In effetti, questo approccio, oltre a consentire una visione dell’evoluzione più probabile dell’atmosfera anche a lungo termine, permette di stimare l’affidabilità delle previsioni deterministiche. Se una previsione è affidabile, l’evoluzione dei diversi membri dell’ensemble non sarà, infatti, molto diversa; questo accade generalmente nei primissimi giorni di previsione, mentre dopo il terzo o quarto giorno i vari membri dell’ensemble iniziano a divergere sensibilmente. Tuttavia, in alcuni casi, caratterizzati da situazioni sinottiche particolarmente instabili, anche le previsioni a uno o due giorni mostrano una notevole dispersione dei membri dell’ensemble; in questi casi, la previsione è poco affidabile anche a 1-2 giorni, e questo può essere segnalato nei bollettini meteorologici, preavvertendo l’utente della possibilità di evoluzioni diverse. Per es., nel caso delle previsioni della Pasqua 2004, un esame dei modelli ensemble avrebbe messo in evidenza come alcuni membri, probabilmente non la maggioranza, seguivano un’evoluzione diversa, che prevedeva condizioni soleggiate su gran parte d’Italia. Mentre la previsione deterministica era di pioggia, quella probabilistica sarebbe stata, per es., 70% di probabilità di pioggia, 30% di probabilità di bel tempo. La previsione sarebbe stata comunque sbagliata, ma avrebbe aiutato l’utente a comprenderne meglio il grado di incertezza e a evitare verosimilmente gran parte delle manifestazioni di malcontento. L’approccio probabilistico è sicuramente uno dei più promettenti sviluppi futuri nel campo delle previsioni meteorologiche, non solo dal punto di vista dello sviluppo dei modelli numerici, ma anche riguardo alla comunicazione delle previsioni al pubblico. Al momento, tuttavia, la sua diffusione incontra resistenze sia da parte dei previsori (che, pur utilizzando già i modelli ensemble, tendono a formulare ancora previsioni deterministiche) sia da parte degli utenti (che, se non sono informati, possono rimanere confusi). In Italia, solo MeteoTrentino emette un bollettino in cui è segnalata la probabilità di alcuni fenomeni meteorologici intensi nei sei giorni successivi.

Peraltro, tutti i principali modelli globali vengono attualmente implementati anche in una versione ensemble, fornendo una previsione fino a 360 ore. Inoltre, come ultima linea di tendenza, all’interno di un ensemble viene anche variata in parte la fisica del modello, scegliendo, per es., parametrizzazioni diverse per uno stesso fenomeno meteorologico. Un’altra tecnica recentemente sviluppatasi è quella dei multimodel ensemble, in cui si utilizzano come membri le evoluzioni secondo modelli diversi, pesandone poi i risultati in uscita.

Un’ulteriore applicazione è quella dello Short range EPS (Ensemble Prediction System), in cui la tecnica ensemble è usata anche su gruppi di modelli a scala locale per ottenere previsioni probabilistiche a breve termine; questa tecnica è stata applicata con successo per prevedere l’alluvione avvenuta nell’agosto 2005 in Svizzera, grazie al modello COSMO-LEPS (Limited-area Ensemble Prediction System) del consorzio europeo COSMO, cui partecipano anche alcuni enti italiani (tra cui il Servizio meteorologico dell’Aeronautica militare, in veste di leader, e le Agenzie regionali prevenzione e ambiente dell’Emilia Romagna e del Piemonte).

Infine, negli ultimi anni si stanno sviluppando modelli in grado di prevedere la tendenza meteorologica dei sei mesi successivi (modelli stagionali). A scale temporali così lunghe, le condizioni meteorologiche sono influenzate dalle lente fluttuazioni della temperatura superficiale degli oceani; queste variazioni influenzano il tempo soprattutto nelle regioni tropicali (si pensi ai fenomeni El Niño/La Niña, che causano cambiamenti radicali nella distribuzione stagionale delle piogge sul Pacifico), ma si propagano, più debolmente, anche alle restanti regioni del globo (teleconnessioni). Per effettuare previsioni stagionali bisogna evidentemente rinunciare alla descrizione dei fenomeni meteorologici a piccola e media scala che, per quanto esposto in precedenza, risultano impredicibili su tempi così lunghi, e tenere invece conto dell’interazione tra l’atmosfera e gli oceani. Se ne ricavano previsioni che indicano la probabilità che nei mesi, o trimestri successivi, le variabili atmosferiche assumano valori superiori o inferiori alle medie climatologiche. Sebbene vengano messe in risalto dai media, le previsioni stagionali sono ancora strumenti a carattere sperimentale, con risultati per il momento poco soddisfacenti, in particolare in alcune regioni del globo come quella mediterranea. Per questo motivo, le previsioni stagionali dovrebbero essere usate con cautela solo dai professionisti del settore a fini di verifica per il loro miglioramento.

Bibliografia

A. Pasini, I cambiamenti climatici. Meteorologia e clima simulato, Milano 2003.

R. Scotton, L. Mercalli, C. Castellano, D. Cat Berro, Introduzione ai modelli numerici di previsione meteorologica (NWP), «Nimbus», 2003, 29-30, pp. 9-32.

Forecast verification. A practitioner’s guide in atmospheric science, ed. I.T. Jolliffe, D.B. Stephenson, Chichester 2003.

P. Lynch, The emergence of numerical weather prediction. Richardson’s dream, Cambridge-New York 2006.

A. Woods, Medium-range weather prediction: the European approach. The story of the European Centre for medium-range weather forecasts, New York 2006.

Si veda inoltre il sito del Servizio meteorologico nazionale http://www.meteoam.it.