Equazioni differenziali alle derivate parziali

Enciclopedia Italiana - VII Appendice (2006)

Equazioni differenziali alle derivate parziali

Roberto Natalini

Una delle idee che caratterizza l'analisi matematica e le sue applicazioni scientifiche e tecnologiche è il concetto di derivata di una funzione, che fornisce una misura del cambiamento locale della funzione, ovvero la pendenza punto per punto del suo grafico. Per es., se la funzione descrive la posizione di un punto in movimento su una retta, la sua derivata rispetto al tempo è proprio la velocità istantanea. Non sorprende quindi che, da I. Newton in poi, sia stato possibile proporre un gran numero di modelli di equazioni differenziali per descrivere le più diverse situazioni applicative. Le equazioni differenziali sono le identità che esprimono le relazioni che intercorrono tra una o più funzioni incognite e le loro derivate. Nel caso di funzioni tra cui intercorra più di una relazione, si parla propriamente di sistemi di equazioni differenziali. Se le funzioni incognite e le relative relazioni dipendono da una sola variabile, le equazioni differenziali vengono dette ordinarie; se le funzioni e le relazioni che le legano dipendono da più variabili, le equazioni differenziali vengono dette alle derivate parziali.

Le equazioni differenziali sono alla base di molti modelli che si presentano nello studio delle più diverse discipline scientifiche, come la fisica quantistica e gravitazionale, la chimica o la biologia, o in applicazioni a carattere tecnologico, come i semiconduttori, la fusione nucleare, il movimento di dati, il traffico automobilistico, le estrazioni petrolifere, l'aerodinamica, la fisiologia o la finanza.

I modelli matematici basati sulle equazioni differenziali, ordinarie o alle derivate parziali, vengono ottenuti partendo da alcune leggi fisiche fondamentali o anche da semplici approssimazioni fenomenologiche, ponendosi su un ben definito livello di approssimazione o a una certa scala di descrizione spaziale e temporale. Così, se si volesse descrivere il moto di un gas, si potrebbero usare le traiettorie e le interazioni delle singole molecole tramite le equazioni differenziali basate sulle tre leggi di Newton della dinamica, oppure occuparsi della densità di distribuzione delle molecole, con una data posizione e una data velocità, tramite le equazioni di Boltzmann, oppure ancora studiare l'evoluzione di quantità macroscopiche, come la densità di molecole e la loro velocità media ed energia specifica, con le equazioni di Eulero. Inoltre, per tempi molto lunghi, ci si potrebbe accorgere che gli effetti diffusivi risultano essere dominanti e le equazioni di Navier-Stokes diventerebbero allora più adeguate a descrivere il comportamento asintotico del gas. Allo stesso modo, se si volesse descrivere il traffico automobilistico, si potrebbe utilizzare la meccanica dei solidi e la termodinamica per descrivere il movimento di ogni singola automobile, o utilizzare le equazioni differenziali ordinarie per descrivere il moto dei veicoli, considerati come puntiformi, in movimento su strade sinteticamente descritte come curve nel piano; alternativamente sarebbe possibile studiare l'evoluzione della densità di automobili utilizzando la conservazione del numero dei veicoli e, quindi, equazioni differenziali di tipo fluidodinamico.

L'utilizzo di un determinato modello dipende in gran parte dal grado di precisione che si vuole raggiungere, dalla scala dimensionale su cui si sta lavorando e, infine, specie nelle applicazioni, dalla potenza di calcolo che è possibile usare per trovare le soluzioni. I modelli differenziali esclusivamente basati su teorie fisiche fondamentali sono pochissimi, e spesso non adatti al contesto applicativo. Nella grande maggioranza dei casi vengono utilizzati modelli fenomenologici basati sull'esperienza empirica, e che semplificano la complessità del problema.

Una volta scritte le equazioni, il primo problema che si deve affrontare è quello di trovare almeno una soluzione e, nel caso vengano specificati opportuni vincoli, determinare se questa soluzione è unica, ossia se i dati del problema sono sufficienti a descrivere univocamente il fenomeno. Per es., nel caso delle equazioni differenziali ordinarie del prim'ordine, ossia quelle in cui compare solo la derivata prima delle funzioni incognite, un possibile vincolo esterno consiste nell'assegnare il valore delle funzioni incognite in un punto. Ispirandosi al caso in cui la variabile è il tempo, come per es. nel moto di un punto nello spazio, il valore assegnato a un certo istante viene chiamato condizione iniziale e il problema completo, ossia l'equazione differenziale e la sua condizione iniziale, viene detto problema di Cauchy. Un'altra possibilità, chiamata problema ai limiti, consiste nell'assegnare il valore delle funzioni alle estremità del dominio considerato. Per entrambi i problemi esistono condizioni di compatibilità e di regolarità delle equazioni stesse che assicurano l'esistenza di almeno una soluzione e, per una larga classe di problemi, anche la sua unicità. Un problema ulteriore di grande interesse per le applicazioni è il seguente. Si immagini di aver trovato un'unica soluzione a un'equazione nel problema di Cauchy. Cosa succede se vengono perturbati di poco i dati del problema, ossia la condizione iniziale o anche i parametri che definiscono le equazioni differenziali stesse? In generale ci si vorrebbe assicurare che anche le soluzioni subiscano solo piccole variazioni rispetto a quelle del problema non perturbato, almeno in prossimità del punto iniziale in cui viene assegnato il dato, e che la differenza tra la soluzione del problema perturbato e quella non perturbata sia stimabile in termini della perturbazione stessa. Questo risulta fondamentale nelle applicazioni, perché i dati a disposizione in ogni modo saranno imprecisi e inoltre, lavorando con un computer, necessariamente si dovranno troncare le espressioni a un numero finito di cifre decimali, commettendo così errori ineliminabili nella determinazione dei dati, che non si vorrebbe alterassero troppo il comportamento della soluzione stessa.

Riassumendo, il punto di partenza per l'analisi delle equazioni differenziali è composto da tre passi: la soluzione esiste, la soluzione è unica, la soluzione dipende con continuità dai dati in una opportuna topologia. Queste condizioni, proposte per la prima volta nel 1902 dal matematico francese J. Hadamard, definiscono la nozione di problema ben posto e sono state verificate con successo per larghe classi di equazioni differenziali ordinarie e alle derivate parziali, costituendo ancora il paradigma di base per il loro studio matematico.

I primi modelli di e. d. alle d. p. risalgono alla fine del 17° secolo. Tuttavia, le ricerche in questo settore hanno avuto un notevole sviluppo solo a partire dagli anni Trenta del 20° sec., a causa di due fattori. Da un lato l'utilizzo dei metodi astratti dell'analisi funzionale, introdotti negli anni Venti da D. Hilbert e S. Banach, che permisero di considerare problemi altrimenti inaccessibili: invece di provare a risolvere direttamente i problemi studiati, cercando soluzioni esplicite, si passò a utilizzare in modo sistematico opportune approssimazioni, ossia linearizzazioni, regolarizzazioni, perturbazioni singolari, approssimazioni numeriche, per poi studiarne la convergenza alla soluzione proprio nella topologia degli spazi di funzioni.

Un secondo fattore fu la diffusione dei calcolatori elettronici, a partire dalle idee sviluppate indipendentemente, durante la Seconda guerra mondiale, da J. von Neumann e A. Turing, e la conseguente possibilità di effettuare in modo efficiente l'approssimazione numerica delle soluzioni delle equazioni ottenendo risultati estremamente precisi per problemi anche molto complicati, che hanno allargato enormemente lo spettro delle possibili applicazioni e gli orizzonti stessi della ricerca. In questo modo, lo studio della buona positura del problema venne concettualmente separato dal calcolo effettivo delle soluzioni. Si osservi che, nel caso di equazioni alle derivate parziali, la natura stessa del problema della buona positura cambia, e in particolare il tipo di vincoli che vengono imposti alle soluzioni. Per es., il problema di Cauchy per un'equazione alle derivate parziali del prim'ordine in cui una variabile è il tempo e le altre variabili sono le coordinate spaziali, richiede che venga assegnato il valore della soluzione all'istante iniziale in tutti i punti dello spazio, ossia il dato questa volta non è più un valore reale, ma una funzione. La teoria della buona positura è in questo caso molto più complessa e incompleta rispetto alle equazioni differenziali ordinarie, e le condizioni imposte alle soluzioni possono cambiare drasticamente secondo il tipo di equazione.

In generale, si distinguono tre importanti classi di equazioni, le cui proprietà qualitative differiscono drasticamente: ellittiche, paraboliche e iperboliche.

Le equazioni ellittiche, il cui prototipo è dato dall'equazione di Laplace, modellizzano problemi stazionari che vanno dall'elasticità all'elettrostatica, alla fluidodinamica, e intervengono tra l'altro per caratterizzare i minimi in problemi del calcolo delle variazioni. Queste equazioni posseggono soluzioni solitamente regolari per casi in cui la funzione incognita è assegnata su tutto il bordo del dominio in cui è posto il problema, ma risultano mal poste rispetto al problema di Cauchy.

Le equazioni paraboliche nascono dalla descrizione di fenomeni diffusivi che evolvono nel tempo, come la propagazione della temperatura in una sbarra di metallo o la diffusione di un inquinante in un liquido. Il modello base è dato dall'equazione del calore o di Fourier. In questo caso, anche se il dato iniziale è concentrato in una piccola regione dello spazio, la soluzione si propaga istantaneamente in tutto il dominio, diffondendosi a velocità infinita. Il problema di Cauchy è ben posto in particolari classi funzionali, ed è possibile anche assegnare diversi tipi di condizioni al bordo sui domini spaziali in cui si studia il problema.

Infine, le equazioni iperboliche, nate per descrivere fenomeni ondulatori, hanno come prototipo l'equazione delle onde di D'Alembert, e sono caratterizzate dalla propagazione delle perturbazioni a velocità finita e dalla conservazione dell'energia totale della soluzione. Per esse il problema di Cauchy è sempre ben posto, almeno per le equazioni lineari, ed è ancora possibile assegnare diversi tipi di condizioni sul bordo del dominio spaziale assegnato.

Per molte di queste equazioni la teoria è stata elaborata in un modo soddisfacente nel caso lineare, ossia nel caso in cui i coefficienti dell'equazione dipendano linearmente dalla funzione incognita, e semilineare, in cui solo le derivate di ordine massimo dell'incognita hanno coefficienti indipendenti dalla soluzione stessa. La situazione cambia in modo radicale nel caso di problemi non lineari, in cui le equazioni possono presentare diversi tipi di problemi, come sviluppo di singolarità, mancanza di unicità, fenomeni di instabilità, e per cui occorrono tecniche innovative e spesso legate alla specifica equazione.

Nel seguito ci si limiterà a fornire una breve presentazione della teoria della buona positura del problema di Cauchy per le leggi di conservazione iperboliche in una variabile spaziale. Si osservi in primo luogo che la maggior parte dei problemi di evoluzione della fisica matematica si esprime in termini di leggi di conservazione, o di bilancio nel caso sia presente una sorgente. Supponendo di operare in una dimensione spaziale, si consideri la densità (scalare) n di una certa sostanza, cercando di studiare come evolve nel tempo l'integrale

per ogni intervallo reale dato (a, b), che rappresenta semplicemente la quantità totale di sostanza che occupa l'intervallo. Facendo l'ipotesi che all'interno dell'intervallo non vi siano fattori di produzione o assorbimento, si scrive l'equazione di evoluzione

dove F è il flusso della sostanza attraverso i bordi dell'intervallo. Supponendo che la densità della sostanza sia regolare, e tenendo conto dell'arbitrarietà dell'intervallo considerato, è possibile dedurre, utilizzando risultati classici del calcolo differenziale, che per ogni t e x debba valere la seguente legge di conservazione differenziale

Il caso più semplice interviene quando il flusso F è una funzione lineare della densità, ossia si ha F=an, dove a è una costante data. In questo caso la soluzione dell'equazione differenziale è semplicemente una traslazione a velocità a del dato iniziale verso destra, se a>0, o verso sinistra, se a〈0. Questo tipo di equazione esprime bene la propagazione di un'onda semplice non dissipata. Una generalizzazione immediata dell'esempio precedente è data da un sistema di equazioni alle derivate parziali lineare del primo ordine a coefficienti costanti in una dimensione spaziale, che in generale si può scrivere

✄ [1]

dove la funzione incognita u=(u1,…, un) appartiene a ✄n, lo spazio vettoriale reale a n-dimensioni, e dipende da una variabile temporale t>0 e da una variabile spaziale x∈✄, mentre A è una matrice n × n a valori reali. Il problema di Cauchy corrispondente consiste nel trovare una soluzione u del sistema [1] che coincida con una funzione assegnata u0 per t=0.

Si può allora dimostrare che il problema di Cauchy relativo a [1] è ben posto nello spazio funzionale L2 delle funzioni di quadrato sommabile, se e soltanto se la matrice A è fortemente iperbolica, ossia ha autovalori reali e possiede una base completa di autovettori. In particolare questa condizione è soddisfatta nel caso in cui gli autovalori siano reali e distinti.

La versione non lineare di questi sistemi è data dai sistemi di n leggi di conservazione, sempre con simmetria unidimensionale, in cui il flusso è una funzione puntuale delle densità, ossia del tipo

✄ [2]

La funzione incognita u=(u1,…, un) è un vettore n-dimensionale che dipende dalle variabili temporale t e spaziale x. La funzione di flusso f=f(u) è una funzione vettoriale dell'incognita u. Le leggi di conservazione provengono in buona parte da modelli fisici, come, per es., le equazioni della dinamica dei gas, l'elasticità non lineare, la magnetoidrodinamica (che interviene nella modellazione dei plasmi utilizzati nella fusione nucleare a scopi civili), i modelli continui di traffico, il flusso bifasico in mezzi porosi, le equazioni delle acque basse.

Se la funzione u=u(t, x) è regolare allora, ponendo A(u)=DF(u) per la matrice delle derivate prime della funzione f, il sistema [2] è equivalente al sistema quasi lineare

✄ [3]

Volendo risolvere il problema di Cauchy, relativo alla condizione iniziale

✄ [4]

si farà l'ipotesi, come nel caso lineare, che il sistema sia iperbolico per ogni valore fissato dello stato u, almeno in un intorno del dato iniziale. Si dimostra allora che se il dato iniziale u0 è una funzione abbastanza regolare, per es. possiede almeno la derivata prima continua, allora, almeno per un piccolo intervallo di tempo, esiste una soluzione regolare u(t, x) del problema [3]-[4]. In generale, queste soluzioni regolari cessano di esistere in tempo finito anche in esempi di rilevanza fisica, come accade, per es., nel prototipo di tali equazioni, costituito dalle equazioni della dinamica dei gas formulate da L. Eulero nel 17° secolo. Queste equazioni, trascurando in prima approssimazione i fenomeni di viscosità e di scambio termico, esprimono rispettivamente i principi della conservazione della massa, della quantità di moto e dell'energia per un gas in equilibrio termodinamico, mediante le incognite macroscopiche di densità, velocità, pressione ed energia. Già nel 19° sec., ci si rese conto di alcune difficoltà teoriche di questa formulazione, potendo esibire soluzioni che diventavano discontinue in un tempo finito, anche partendo da dati regolari. Questo fenomeno rendeva apparentemente inutilizzabile il modello differenziale proposto, che presuppone come minimo l'esistenza di derivate prime delle soluzioni, ed esclude quindi a priori soluzioni discontinue. L'origine fisica di queste discontinuità, chiamate onde di shock, nasce in effetti dall'avere trascurato gli attriti e le viscosità che in realtà esistono nei gas. Privi di un meccanismo di dissipazione, gli effetti compressivi tendono quindi a creare onde d'urto discontinue. Una soluzione possibile del problema consiste nell'aggiungere alcuni termini supplementari di tipo dissipativo, con il rischio però di complicare ulteriormente il modello matematico e di non avere una precisa descrizione dei termini fisicamente rilevanti. Un'altra possibilità è quella di studiare direttamente queste soluzioni discontinue, utilizzando la primitiva formulazione integrale del problema. Alla fine del 19° sec., il matematico tedesco B. Riemann propose lo studio di un problema in cui la condizione iniziale è data da due stati costanti separati da una singola discontinuità, conosciuto proprio sotto il nome di problema di Riemann, e che sarebbe divenuto il punto di partenza di quasi tutti gli studi successivi. Riemann mostrò che esistevano vari tipi di soluzioni che potevano presentare anche una o due discontinuità, dette onde d'urto (o di shock), a seconda dei valori scelti per i dati iniziali. Fu però solamente con la Seconda guerra mondiale, con gli studi legati alle esplosioni atomiche e ai primi aerei a reazione, e sotto l'impulso di scienziati come von Neumann e R. Courant, che questa teoria dei gas comprimibili, opportunamente generalizzata, diventò uno dei problemi centrali della moderna teoria delle equazioni differenziali.

Uno dei primi problemi incontrati nella formulazione integrale è che si può vedere, già con esempi elementari, che le soluzioni integrali, chiamate anche soluzioni deboli, non sono in generale uniche. Per selezionare la soluzione fisicamente rilevante, è necessario introdurre condizioni supplementari di ammissibilità che devono essere soddisfatte dalle soluzioni. Queste condizioni sono chiamate condizioni di entropia, perché nel caso delle equazioni dei gas di Eulero corrispondono esattamente a tenere conto del secondo principio della termodinamica, ossia a scegliere le soluzioni per cui l'entropia fisica è crescente. In pratica consistono nel chiedere che la soluzione non produca nuove informazioni a partire dalle onde di discontinuità, e si verificano imponendo alla soluzione di soddisfare alcune disuguaglianze funzionali, chiamate appunto disuguaglianze di entropia.

Nel 1957 P.D. Lax, matematico americano di origine ungherese, dimostrò l'esistenza di soluzioni per il problema di Riemann per un qualsiasi sistema iperbolico di dati con discontinuità di salto abbastanza piccole. Il primo risultato di esistenza di soluzioni fu ottenuto nel 1965 da un allievo di Lax, J. Glimm, utilizzando un metodo basato sull'approssimazione delle soluzioni con funzioni costanti a tratti. Queste approssimazioni venivano fatte evolvere nel tempo utilizzando tanti problemi di Riemann, localizzati e poi incollati insieme in modo opportuno. Le soluzioni potevano essere discontinue, ed erano ottenute per dati con piccola variazione totale. La difficoltà essenziale di questa costruzione consisteva nel far vedere che queste onde d'urto discontinue, sommate a quelle che si creano durante l'evoluzione stessa della soluzione, sono in realtà delle quantità che interagiscono in modo dissipativo, smorzandosi durante la loro evoluzione, permettendo infine alla soluzione di stabilizzarsi ed evolversi in modo stabile.

Questo risultato, come molte delle successive ricerche, fu motivato principalmente dalla volontà di giustificare in modo rigoroso gli algoritmi numerici largamente utilizzati nelle simulazioni di tipo aerodinamico, come gli schemi di Lax-Friedrichs, Lax-Wendroff e Godunov, metodi che si sarebbero poi diffusi e sviluppati negli anni Settanta e Ottanta a livello applicativo, per migliorare i codici di simulazione della gas dinamica. Per es., uno degli ingredienti principali nella teoria di Glimm era il controllo della variazione totale delle soluzioni o, in altre parole, dell'ampiezza delle loro oscillazioni, che in seguito diventerà uno degli obiettivi delle approssimazioni numeriche di alto ordine negli anni Ottanta e Novanta.

Dopo questo risultato, per quasi trent'anni molti problemi teorici sono rimasti aperti, soprattutto nella direzione dell'unicità e della dipendenza continua dai dati iniziali delle soluzioni, ossia della buona positura del problema. Il matematico italiano A. Bressan ha dato un contributo decisivo alla comprensione di questi fenomeni, nel caso di sistemi in una dimensione spaziale. È stato dimostrato che le soluzioni ottenute con i metodi di Glimm definiscono un problema ben posto, ossia sono uniche e dipendono con continuità dal dato iniziale. Qualsiasi altra soluzione costruita con un diverso procedimento, ma che soddisfi le condizioni di entropia citate in precedenza, coincide con le soluzioni di Glimm.

Un approccio completamente diverso al problema è stato studiato in seguito dallo stesso Bressan, in collaborazione con S. Bianchini, e consiste nell'approssimare il problema [2] con l'aggiunta di una piccola viscosità, ossia di un termine diffusivo a destra nel sistema dato dalle derivate seconde della soluzione, moltiplicate per un piccolo parametro, chiamato parametro di viscosità artificiale. L'aggiunta di questo termine cambia in modo radicale la natura del problema, che diventa in questo modo parabolico e non singolare. La soluzione approssimata rimane infatti regolare per tutti i tempi e le condizioni di entropia sono automaticamente soddisfatte. Questo procedimento risulta consistente con l'idea base che sta dietro a tutta la teoria delle soluzioni discontinue di leggi di conservazione, ossia che nei gas reali esistono degli effetti di attrito e di viscosità, difficilmente valutabili e operanti su scale molto piccole, che impediscono lo sviluppo di discontinuità. Le soluzioni entropiche tengono conto di questi effetti e costituiscono il limite, se esiste, a cui tendono tutte le approssimazioni viscose quando la viscosità tende a zero. L'approssimazione viscosa consiste semplicemente nell'introdurre una viscosità uguale su tutte le variabili, per questo chiamata viscosità artificiale. Si osservi che, se la soluzione limite del problema [2] è regolare, questo risultato rientra in tecniche già conosciute da diversi decenni. Tuttavia, come già sottolineato in precedenza, le soluzioni del problema iperbolico possono presentare discontinuità di salto, anche per dati iniziali regolari. In questo caso la convergenza verso la soluzione entropica diventa molto più difficile da analizzare. L'idea di Bianchini e Bressan presenta un approccio estremamente innovativo al problema. Per prima cosa si osserva che vi sono alcune soluzioni particolari del problema approssimante che permettono di capire il comportamento di tutte le altre soluzioni, e sono le onde viaggianti viscose, che hanno la forma particolare u(t, x)=U(xct), che mantengono quindi inalterato il loro profilo durante la loro evoluzione. Una volta costruite queste soluzioni particolari, è possibile decomporre una qualunque soluzione, almeno localmente, come una sovrapposizione di onde viaggianti viscose. Quest'idea permette di costruire le soluzioni in casi molto generali, alcuni dei quali non coperti dal precedente approccio di Glimm.

In conclusione, nonostante alcuni notevoli progressi compiuti, sono ancora molti i problemi che rimangono aperti. Il vero limite della teoria attuale è che tutti questi risultati per le soluzioni discontinue sono ristretti al caso di una sola variabile spaziale. Dal punto di vista fisico questo può essere interessante, poiché in molti casi si può restringere l'attenzione a un fronte che avanza in una direzione data, trascurando cosa succede intorno, ma in generale vi sono fenomeni che intervengono in aerodinamica supersonica, come le riflessioni di Mach di un'onda d'urto su di un ostacolo, o anche in magnetoidrodinamica, che hanno un comportamento più complesso e veramente multidimensionale. Alcuni lavori mostrano che le difficoltà sono notevoli e difficilmente superabili già in due dimensioni spaziali, e che nuove idee dovranno essere utilizzate per ottenere una comprensione soddisfacente del problema.

Bibliografia

A. Bressan, Hyperbolic systems of conservation laws: the one-dimensional Cauchy problem, Oxford-New York 2000.

C.M. Dafermos, Hyperbolic conservation laws in continuum physics, Berlin-New York 2000, 20052.

TAG

Equazione alle derivate parziali

Equazioni di navier-stokes

Calcolo delle variazioni

Equilibrio termodinamico

Approssimazione numerica