I cambiamenti climatici preoccupano il mondo per il loro enorme impatto in ogni ambito, dalla salute all’economia, per questo motivo è fondamentale poter prevedere con accuratezza ciò che accadrà
“Non ci sono più le mezze stagioni”, “Le previsioni del tempo non ci azzeccano mai”… frasi del genere si sentono tutti i giorni oramai, ma non per questo siamo giustificati a sminuirne l’importanza. La meteorologia è, infatti, una scienza molto complessa, che deve analizzare un sistema in cui operano tantissimi fattori, spesso dipendenti l’uno dall’altro. I modelli ad oggi disponibili vanno continuamente aggiornati per tenere conto dei dati rilevati e, soprattutto, degli effetti dei cambiamenti climatici. Il Dipartimento dell’Energia americano ha, però, di recente sviluppato un nuovo modello molto preciso che potrebbe facilitare non di poco le previsioni per il futuro.
“Aggiornarti, evolverti e correre sempre”: breve storia della meteorologia
La citazione dalla canzone “Altrove”, degli Eugenio in Via di Gioia, è quanto mai azzeccata in questo caso: la meteorologia è da sempre frutto di nuove scoperte e continue raccolte di dati sempre più precise e accurate. I primi progressi che portarono il metodo scientifico nelle previsioni del tempo risalgono al Cinquecento e Seicento, con l’invenzione di un igrometro (strumento di misura dell’umidità dell’aria) da parte di Leonardo da Vinci, di un termometro ad opera di Galileo Galilei e di un barometro (per misurare la pressione) grazie a Evangelista Torricelli. Da allora fino agli anni ’60 del secolo scorso il progresso è stato segnato dalla formulazione di nuove leggi fisiche e dalla disponibilità di strumenti migliori, in primis le equazioni di stato dei gas (la più celebre è quella dei gas perfetti, formulata da Emile Clapeyron) e recentemente l’uso di satelliti meteorologici. Da allora i maggiori risultati sono stati trovati, invece, usando modelli sempre più precisi, accurati e interconnessi. Un elemento costante è rimasto la necessità di ottenere grandissime quantità di dati, con misurazioni ripetute su più periodi e in zone diverse, sia per latitudine e longitudine che per altitudine. Un bell’esempio di questa necessità lo si trova nel film “The aeronauts”, prodotto da Amazon, che racconta la salita in mongolfiera nel 1862 oltre i 9000 metri di altitudine di James Glaisher. L’obiettivo era quello di misurare a varie altitudini temperatura, pressione e umidità, ma si trattò di un’impresa a dir poco folle: a quell’altezza, infatti, l’ossigeno è molto poco e le temperature possono toccare anche i -20 °C. In ogni caso, aumentare i dati disponibili è proprio ciò che hanno fatto i ricercatori dell’ufficio scientifico del Dipartimento dell’Energia degli Stati Uniti d’America, per far fronte agli avvenimenti più recenti. Il 2019 è stato dichiarato il 2° anno più caldo di sempre e il mese di luglio dello stesso anno ha segnato i massimi record di temperatura. L’impatto che ha avuto è stato ed è ancora sotto gli occhi di tutti: il cambiamento climatico in atto causa fenomeni atmosferici disastrosi e peggiora costantemente le nostre condizioni di vita, attaccando la salute, l’economia e perfino la demografia, causando flussi migratori non indifferenti. Come spiega Robert Jacob, scienziato della divisione di Scienze Ambientali dell’Argonne National Laboratory: “il cambiamento climatico può anche avere un forte impatto sulla nostra necessità e capacità di produrre energia, di gestire le riserve idriche e di anticipare le implicazioni sull’agricoltura. Per questo motivo il DOE (Department of Energy, ndt) vuole un modello di previsioni che possa descrivere i cambiamenti climatici in maniera sufficientemente dettagliata per aiutare chi dovrà prendere decisioni.”
Energy Exascale Earth System Model: un progetto made in USA
Il progetto in questione è nato, come detto, su richiesta del DOE, ovvero il Dipartimento per l’Energia degli USA e coinvolge ben sette laboratori di ricerca sul suolo americano, tra cui l’Argonne National Laboratory nell’Illinois. L’obiettivo era quello di ottenere una nuova versione più dettagliata del modello E3SM, ovvero Energy Exascale Earth System Model: si tratta di un progetto americano di modellizzazione, simulazione e predizione che punta alla creazione e perfezionamento di un modello in grado di descrivere i fenomeni terrestri per soddisfare le necessità del governo americano in materia di gestione dell’energia. Ovviamente, il suo impatto si estende al di là dei confini politici. Si tratta di un modello per descrivere il “sistema terra” in modo da simulare come vari pattern di temperatura, correnti d’aria, precipitazioni, correnti oceaniche e morfologia del territorio posso influenzare il clima di una regione. Il fine ultimo è quello di essere in grado di prevedere cambiamenti ed eventi catastrofici per predisporre misure adeguate: alcuni esempi che sicuramente hanno toccato gli Stati Uniti nel 2019 sono stati le piogge torrenziali che han causato alluvioni nel centro e nel sud del paese e le condizioni di caldo e siccità all’origine degli incendi in Alaska e California. Il progetto, quindi, tocca una lunga serie di questioni fondamentali sia per le scienze del clima che della terra. Innanzitutto, si parla del ciclo dell’acqua, simulando possibili scenari per studiare i cambiamenti del corso dei fiumi e della disponibilità di acqua potabile. Si parla poi di biogeochimica, con un occhio particolare verso la risposta degli ecosistemi all’aumento di anidride carbonica nell’aria e alle variazioni delle concentrazioni di azoto e fosforo. Nei tre anni passati, si è conclusa la Fase I del progetto, che ha ottenuto importanti dati sulla relazione tra oceani e criosfera, in particolare studiando le interazioni tra scioglimento dei ghiacci in Antartide e innalzamento del livello del mare. Infine, grazie alla Fase I si è passati dalla versione 0 alla 1 (per così dire, la prima completa) testando l’efficienza e le strutture necessarie: aumentando i parametri e la loro precisione, introducendo più variabili e richieste, si è automaticamente alzato il costo computazionale del programma. Il tutto, infatti, si basa sui calcoli eseguiti da supercomputer nei vari laboratori e ciò ha un prezzo elevato, che si spera di ripagare coi progressi resi possibili dai risultati delle ricerche.
Uno sguardo ravvicinato al modello
La notizia dei risultati della simulazione della Fase II sono stati pubblicati di recente sul Journal of Advances in Modeling Earth Systems, dove si spiega anche come funziona il modello. L’E3SM divide il mondo in migliaia di celle interdipendenti: per essere esatti, 86.400 solo per l’atmosfera. Stando alle parole di Azamat Mametjanov, ingegnere della Argonne’s Mathematics and Computer Science division, il nuovo modello ha aumentato la risoluzione di ben quattro volte in ogni direzione. Per essere più chiari, ogni cella è larga 25km (o un quarto di grado sessagesimale) in ogni direzione rispetto ai nodi della griglia che si crea, un po’ come nel sistema di coordinate di latitudine e longitudine. I vecchi modelli prevedevano celle molto più grandi, avendo lati di 100km. Un altro grande passo in avanti è l’intervallo di tempo abbracciato dal modello. Ad oggi, esistono sistemi più precisi dell’E3SM, ma valgono per previsioni tra i 5 e i 10 anni. Anche grazie all’utilizzo di supercomputer molto veloci, le simulazioni del nuovo modello possono spingersi fino a 50 anni nel futuro. Per ognuna delle 86.400 celle si devono eseguire decine di calcoli per misurare parametri come la velocità del vento, la pressione atmosferica e l’umidità e ciò si ripete per decine di migliaia di volte al giorno. Aumentare la risoluzione, significa fare più calcoli e rallentare il computer: la simulazione dei prossimi 50 anni ha richiesto, in termini di tempo reale, 1 anno intero per essere conclusa. Un’altra dinamica di cui si deve tener conto è quella delle forzanti, ovvero quei fattori che tendono a portare il clima in una certa direzione. Alcune, come il sole, sono sostanzialmente costanti nel tempo, ma altre sono cambiate parecchio negli ultimi anni in seguito a fenomeni naturali e, soprattutto, antropogenici, come la concentrazione di CO2 o di polveri come quelle vulcaniche. Uno dei miglioramenti più significativi ottenuti fin ora riguarda la temperatura superficiale degli oceani e la percentuale di ghiaccio che li ricopre. Focalizzandosi sul Mare del Labrador, nel nord dell’oceano Atlantico, i ricercatori hanno visto che il vecchio modello sovrastimava la quantità di ghiaccio, abbassando le temperature e peggiorando la qualità delle previsioni sia in quell’area che a valle delle correnti. Una maggior risoluzione, che tenesse conto anche delle correnti d’aria e d’acqua, ha permesso di risolvere la questione delle correnti oceaniche in accordo coi dati forniti dai satelliti e dalle navi, oltre che migliorando gli studi sulla Corrente del Golfo. Il team di ricerca spera di riuscire a compiere una simulazione dei prossimi 100 anni, poiché il 2100 è una data molto spesso usata per studiare i cambiamenti climatici e prendere globalmente decisioni politiche in merito. Il progetto è, quindi, ancora attivo e si lavora alle versioni 3 e 4 che saranno la base delle simulazioni della Fase III. La speranza è che i risultati arrivino in fretta, aiutando tutto il pianeta a far fronte ai cambiamenti climatici con previsioni ultra-dettagliate anche per lunghi periodi, sempre a patto che lo sforzo sia comune e non vincolato al tornaconto economico di multinazionali e governi.