Climate Lab – Fatti e Dati in Materia di Clima

Tra la fine del 2015 e l’inizio del 2016, poco dopo la fine della COP21 di Parigi, abbiamo messo a punto un documento pubblicato nella sua interezza (e scaricabile qui in vari formati) con il titolo “Nullius in Verba, fatti e dati in materia di clima”. L’idea è nata dall’esigenza di far chiarezza, ove possibile e nei limiti dell’attuale conoscenza e letteratura disponibili, in un settore dove l’informazione sembra si possa fare solo per proclami, quasi sempre catastrofici.

Un post però, per quanto approfondito e per quanto sempre disponibile per la lettura, soffre dei difetti di tutte le cose pubblicate nel flusso del blog, cioè, invecchia in fretta. Per tener vivo un argomento, è invece necessario aggiornarlo di continuo, espanderlo, dibatterle, ove necessario, anche cambiarlo. Così è nato Climate Lab, un insieme di pagine raggiungibile anche da un widget in home page e dal menù principale del blog. Ad ognuna di queste pagine, che potranno e dovranno crescere di volume e di numero, sarà dedicato inizialmente uno dei temi affrontati nel post originario. Il tempo poi, e la disponibilità di quanti animano la nostra piccola comunità, ci diranno dove andare.

Tutto questo, per mettere a disposizione dei lettori un punto di riferimento dove andare a cercare un chiarimento, una spiegazione o l’ultimo aggiornamento sugli argomenti salienti del mondo del clima. Qui sotto, quindi, l’elenco delle pagine di Climate Lab, buona lettura.

  • Effetti Ecosistemici
    • Ghiacciai artici e antartici
    • Ghiacciai montani
    • Mortalità da eventi termici estremi
    • Mortalità da disastri naturali
    • Livello degli oceani
    • Acidificazione degli oceani
    • Produzione di cibo
    • Global greening

____________________________________

Contenuti a cura di Luigi Mariani e revisionati in base ai commenti emersi in sede di discussione e per i quali si ringraziano: Donato Barone, Uberto Crescenti, Alberto Ferrari, Gianluca Fusillo, Gianluca Alimonti, Ernesto Pedrocchi, Guido Guidi, Carlo Lombardi, Enzo Pennetta, Sergio Pinna e Franco Zavatti.

Arrivano 5 anni di caldo, parola di nuovi metodi di previsione

Posted by on 06:00 in Attualità, Climatologia | 12 comments

Arrivano 5 anni di caldo, parola di nuovi metodi di previsione

Tanto per chiarire, la novità è nel metodo, non nei risultati. Un nuovo approccio alla previsione di breve periodo per la scala temporale climatica che gli ideatori definiscono PROCAST, acronimo di probabilistic forecast.

A novel probabilistic forecast system predicting anomalously warm 2018-2022 reinforcing the long-term global warming trend

Per la verità non si parla proprio di clima, ma della sola temperatura media superficiale annuale e, se la temperatura in se non è l’integrale del sistema, la sua media annuale lo è ancora meno, ma tant’è, per i prossimi 5 anni secondo questo paper avremo a che fare con un incremento del trend positivo della temperatura del pianeta. Il metodo, che potete andare a conoscere personalmente perché il paper è liberamente disponibile, ha il pregio di aver bisogno di capacità di calcolo risibili, per non dire praticamente insignificanti, rispetto alle enormi risorse necessarie per far girare i modelli climatici tradizionali: pochi secondi di un laptop rispetto alle due/tre settimane dei supercalcolatori, tale è la differenza. E’ pur vero però che per iniziare a lavorare, questo metodo ha bisogno degli output dei modelli tradizionali, per cui il miglioramento sarà semmai nei risultati, qualora questi, in sede di verifica, dovessero essere migliori di quanto ottenuto finora.

Che non è un gran che, visto che i modelli climatici prevedono un rateo di aumento della temperatura globale ben superiore a quello che si sta verificando dall’inizio di questo secolo. E, proprio con il periodo di stasi (o iato) della temperatura globale giunto inaspettatamente (cioè imprevisto 😉 e per l’ennesima volta consacrato a livello scientifico nonostante i duri e puri dell’AGW non ne vogliano sentir parlare ) nelle ultime due decadi, è stato condotto l’esperimento di hindcast (cioè la previsione del passato al fine di paragonare gli output con le osservazioni note) di questo nuovo metodo, con risultati che, secondo gli autori, hanno equiparato i sistemi tradizionali, ovvero con approccio non probabilistico.

Come in tutti questi tipi di ricerca, il lavoro si basa tuttavia su assunti piuttosto condizionanti, che sempre gli autori giudicano comunque “ragionevoli”. La risposta, ed è forse questo il vero valore aggiunto di questa previsione, la darà comunque la realtà delle osservazioni e, trattandosi di soli cinque anni di previsione, non ci sarà da aspettare molto. Sarà inoltre piuttosto interessante vedere come questa previsione reggerà al confronto dell’attuale minimo solare e dell’attività ridotta cui sembra stia andando la nostra stella, fattori che invece “tirano” il parametro temperatura nella direzione opposta.

Una curiosità. Nel commento che Science Daily ha dedicato a questo paper, leggiamo che più che all’aumento dei fenomeni di caldo, il rafforzamento del trend delle temperature dovrebbe venire dall’assenza di importanti episodi di freddo, naturalmente tutto spalmato nel tempo e nello spazio. Inoltre, all’origine del riscaldamento dovrebbe esserci una significativa tendenza al riscaldamento dell’Oceano Atlantico, che invece è in significativa anomalia negativa. Del resto su questo bisognerà prima o poi prendere una decisione: o l’Atlantico si raffredda perché si sciolgono i ghiacci artici, e questo ha impatto (freddo) sul clima europeo, oppure si riscalda e questo ha impatto sulla temperatura globale. Le due cose insieme non possono accadere.

Basta così, vi lascio al paper e mi godo i miei primi cinquant’anni 😉

Facebooktwittergoogle_pluslinkedinmail

Le Temperature a Plateau Rosà

Posted by on 10:00 in Attualità, Climatologia | 3 comments

Le Temperature a Plateau Rosà

La stazione di Plateau Rosa (codice sinottico 160520) afferisce alla rete del Servizio Meteorologico dell’Aeronautica Militare ed è mi pare la più alta in Europa essendo collocata a 3488 metri di quota.

Partendo dai dati giornalieri di temperatura massima e minima (Tx e Tn) disponibili nel dataset GSOD dal 1973 al 2018 ho dapprima calcolato le temperature orarie utilizzando l’algoritmo di Parton e Logan e ho poi calcolato i cumuli di risorse termiche orarie al di sopra della soglia di 0°C, che immagino efficaci per dar luogo a scioglimento dei ghiacci.

I cumuli sono riferiti per ogni anno al periodo da 1 gennaio a 4 agosto (data fino alla quale dispongo dei dati per il 2018).

I dati sono riportati nel diagramma in figura 1. Si noti che purtroppo sono assenti le annate del 2000 al 2004 in cui la stazione probabilmente non funzionava. Peccato perché sarebbe stato interessate vedere il cumulo di risorse termiche del 2003.

Quel che emerge è un sensibile trend positivo nel cumulo annuo di risorse termiche con 2015, 2017 e 2018 che sono le tre annate più calde in assoluto, seguite ad 1983 e 1990. Una verifica del sito in cui è collocata la stazione e che non sono in grado di svolgere potrebbe dare informazioni accessorie utili ad interpretare il significato locale e/o sinottico delle elevate risorse termiche registrate negli anni 2015, 2017 e 2018.

Facebooktwittergoogle_pluslinkedinmail

Livello dell’Oceano globale e del Mediterraneo e loro spettri

Posted by on 06:00 in Attualità, Climatologia | 13 comments

Livello dell’Oceano globale e del Mediterraneo e loro spettri

Premessa
L’annunciata serie di articoli sul livello del Mediterraneo, di Donato Barone, di cui è uscita la prima puntata su CM, mi ha spinto a ricontrollare i risultati di due miei articoli precedenti, sulla crescita e l’accelerazione del livello del mare in varie zone del globo, tra cui l’Italia, il primo (d’ora in poi CM49) e sulla presenza dello shift climatico della fine degli anni ’80 del secolo scorso nei dati mareografici del Mediterraneo il secondo (d’ora in poi CM83).

Poi, un commento di Robertok06 all’articolo di Donato Barone mi ha rimandato alla tesi di dottorato (2016) di Marco Olivieri dove, tra le molte informazioni interessanti, si accenna ad una possibile periodicità di 60 anni presente nelle misure.
L’articolo di Olivieri e Spada del 2013, sempre citato da Robertok06, mi è sembrato meno interessante ai fini di questo articolo. Forse si possono trovare lavori e dati globali più completi (ad es. Jevrejeva et al, 2008; Colorado Univ. Sea Level Research GroupEPA).

Ho quindi deciso di utilizzare i dati EPA (medie annuali globali) per verificare la presenza del periodo di circa 60 anni riferito nella tesi di Olivieri.

Nel riguardare i dati mensili delle stazioni del Mediterraneo, ho notato (v. fig.1, pdf) che la funzione di autocorrelazione (ACF) delle tre stazioni italiane presenta sistematicamente una maggiore persistenza, rispetto alle altre tre stazioni, che testimonia la necessità di correggere gli spettri per la memoria a lungo termine.

Fig.1: Confronto tra le ACF di tre stazioni italiane e tre stazioni dell’Adriatico orientale. Notare come le stazioni italiane contengano più persistenza delle altre. Il grafico in basso è lo zoom sui primi 5 mesi (lag).

Ricordo brevemente che per dati teorici non autocorrelati l’ACF vale 1 a lag 0 e 0 per tutti gli altri lag. Dati reali non autocorrelati avranno lo stesso andamento ma con fluttuazioni più o meno ampie attorno allo zero. Nel caso di figura 1, le stazioni della costa ex-jugoslava mostrano proprio fluttuazioni attorno allo zero, in particolare se si considera l’andamento asintotico; per le stazioni italiane l’oscillazione avviene attorno al valore 0.3 e mostra la presenza di memoria a lungo termine, anche se non particolarmente forte.

I Dati
Qui uso due tipi di dati:

  1. il livello marino medio globale disponibile sul sito dell’EPA (agenzia americana per la protezione dell’ambiente) come valori annuali dal 1880 al 2013 e
  2. il livello marino medio mensile di 23 stazioni mareografiche del Mediterraneo, disponibili al sito PSMSL; queste ultime sono le stesse mostrate in CM83 con l’aggiunta della stazione di Bakar (Croazia) e quindi sono vincolate alla presenza di dati nel periodo attorno allo shift climatico della fine degli anni ’80. L’estensione temporale di queste serie è compresa tra 28 e 143 anni. Rimando a CM83, al suo sito di supporto e al sito di supporto di questo articolo per tutti i valori disponibili.

Dati globali
I dati globali sono in figura2 (pdf) insieme ai fit lineare e parabolico e ai loro parametri.Da notare il valore dell’accelerazione molto vicino a quello pubblicato in Church and White, 2006 (0.013±0.006 mm/yr^2, da Olivieri, tesi, pag.27). Nei quadri in basso lo spettro Lomb a due livelli di dettaglio.

Fig.2: Dati annuali globali del livello marino e loro spettro Lomb. Nello spettro sono identificati i periodi (in anni) di molti massimi, indipendentemente dalla loro potenza. La “siepe” di massimi di bassa potenza nella parte sinistra dello spettro in basso è l’insieme delle firme di El Nino.

In questo spettro, oltre al massimo principale a 132 anni, il massimo di periodo 55-60 anni sembra confermare quanto scritto da Olivieri nella sua tesi e anche il fatto che le grandi oscillazioni oceaniche (AMO, NAO, AO, PDO, …) lascino un segno nello spettro del livello marino. I periodi tra 7.5 e 30 anni trovano anch’essi un riscontro nello spettro di NAO invernale (DJFM), ad esempio nella figura 6 di questo articolo su CM (in cui NAO è confrontata con l’Indice Mediterraneo MOI).

Nella “siepe” di massimi di bassa potenza e alta frequenza dei dati EPA si notano -pur non essendo indicati dal valore del periodo- quelli a ~1.3 e a ~3.9 anni e in generale quelli tra 1 e 7 anni (estremi esclusi) che identificano l’influenza di El Niño (ad es. qui, figura 5).

Quando, però, si osserva la funzione di autocorrelazione dei dati EPA di figura 3 (pdf) e la si confronta con quella della derivata prima numerica dei dati “osservati” si vede che una correzione è necessaria.

Fig.3: ACF dei dati globali EPA e confronto con l’ACF della derivata prima dei dati stessi. Si noti come la derivata cancelli quasi completamente l’autocorrelazione. Come ormai abituale, i valori di H (l’esponente di Hurst) non sono attendibili, essendo calcolati sull’ACF a lag 1 mentre dovrebbero tenere conto del valore asintodico dell’autocorrelazione.

La correzione, mostrata in figura 4 (pdf), cambia poco la distribuzione dei massimi spettrali (cancella il massimo a 132 anni e, forse, ne trasferisce in parte la potenza ai due massimi a 73 e 51 anni) ma cambia il rapporto tra le potenze, in particolare rendendo quella della “siepe” tra 1 e 7 anni ricordata sopra la maggiore di tutto lo spettro. I massimi tra 7 e 30-35 anni sono ancora facilmente identificabili.

Fig.4: I dati EPA e il loro spettro Lomb, dopo l’uso della derivata prima. Come in tutti i grafici, i periodi minori o uguali a 1 anno non vengono presi in considerazione, assumendo che rappresentino fluttuazioni stagionali.

In conclusione, i dati globali del livello del mare, dopo la correzione per la memoria a lungo termine, non confermano -o confermano in modo non troppo nitido e con bassa potenza- la possibilità di un periodo di 60 anni derivabile dai mareografi. Viene invece messa in evidenza l’influenza globale di El Niño.

Dati del Mediterraneo
Per le 23 stazioni mareografiche del Mediterraneo elencate nella tabella successiva ho calcolato gli spettri Lomb dei valori osservati e delle loro derivate prime ed anche le funzioni di autocorrelazione di entrambe.

Tide Gauge
Station
Country Range
(yr)
Extent
(yr)
Alexandria EG 1944-2006 63
Alexandroupolis GR 1969-2016 48
Alicante 1 ES 1952-1996 45
Alicante2 ES 1960-1996 37
Bakar CR 1930-2013 84
Ceuta ES 1944-2016 73
Genova1 IT 1884-1997 114
Iraklion GR 1984-2011 28
Khalkis-n GR 1969-2016 48
Khalkis-s GR 1977-2016 40
Khios GR 1969-2015 47
Koper SL 1962-1991 30
Malaga ES 1944-2013 70
Marseille FR 1885-2017 133
Nice FR 1978-2017 40
Port Vendres FR 1984-2017 34
Siros GR 1969-2016 48
Soudhas GR 1969-2011 43
Split1 CR 1952-2011 60
Thessaloniki GR 1969-2016 48
Trieste1 IT 1875-2017 143
Varna BG 1928-1996 69
Venezia4 IT 1909-2000 92

La tabella riporta il nome della stazione, la nazione, l’estensione temporale e l’intervallo dei dati. Il foglio di calcolo nel sito di supporto riporta anche la presenza di almeno un massimo spettrale nei 6 intervalli in cui sono stati divisi i periodi disponibili (1=presenza; 0=non presenza) e per l’intervallo 1-7 anni (El Niño) il dettaglio dei periodi su 6 intervalli. Le stesse informazioni sono ripetute per le derivate prime -i dati corretti per la persistenza. Dodici “brutali” istogrammi mostrano, anche in forma grafica, in quanti dei primi 6 intervalli sono presenti massimi spettrali.
Rimando al sito di supporto per i grafici e i valori numerici di tutte le stazioni, mentre i parametri dei fit lineare e parabolico sono qui.
Mostro a titolo di esempio il più breve (28 anni, Iraklion) e il più lungo (143 anni, Trieste1) dei dataset disponibili.

Fig.5: (pdf). Spettro dei valori osservati di Iraklion.

Fig.6: (pdf). Spettro delle derivate prime di Iraklion. Con una serie lunga 28 anni e con una mancanza di dati di circa 3 anni complessivi, il periodo molto debole di 35 anni deve essere considerato spurio o, almeno, soggetto ad una incertezza molto elevata.

Fig.7: (pdf). Confronto fra le ACF delle due serie precedenti.

Fig.8: (pdf). Spettro dei valori osservati di Trieste 1.

Fig.9: (pdf). Spettro delle derivate prime di Trieste 1.

Fig.10: (pdf). Confronto tra le ACF delle due serie precedenti.

In conclusione, i mareografi del Mediterraneo mostrano molte similitudini con il livello dell’Oceano globale;

 

  • in particolare il periodo 60-80 anni che viene registrato dalle serie osservate di adeguata lunghezza, ma che scompare con l’uso della derivata prima.
  • I periodi legati (presumibilmente) a El Niño sono massicciamente presenti nelle serie mediterranee (dal 100% dei casi per 1-2 anni al 50% per 6-7) e denotano una vasta influenza dell’oscillazione del Pacifico tropicale, anche dopo la correzione per la persistenza (ad es. per 6-7 anni la percentuale scende dal 50 al 46).
  • I periodi nell’intervallo 10-50 anni nel Mediterraneo si osservano anche negli spettri (sia osservato che corretto per la persistenza) dell’indice SOI (Southern Oscillation Index) calcolato dal BOM (Bureau Of Meteorology) australiano, che io ho chiamato SOIBOM, il più esteso tra quelli disponibili (1876-Nov.2016). SOIBOM e il suo spettro è disponibile sul sito dell’atlante spettrale o, su CM, qui.

Un’ultima curiosità: A pagina 40 della tesi di Olivieri si sottolinea l’esistenza di una relazione tra la lunghezza del record e l’accelerazione; questa relazione viene mostrata in forma grafica nella figura 2.9. Applicando lo stesso sistema ai dati del Mediterraneo (sia all’accelerazione che alla pendenza) si ottengono i grafici di fig.11 (pdf).

 

Fig.11: Relazione tra accelerazione e pendenza dei fit parabolici e lunghezza in anni dei dataset. Questa figura può essere confrontato con la figura 2.9 a pag.40 della tesi di Olivieri.

Le accelerazioni di dataset con estensione temporale minore di 50 anni sembrano essere più disperse di quelle con range più estesi. La relazione lineare tra range e accelerazione, per estensioni minori di 50, anni dovrebbe essere solo apparente e dovuta al numero non elevato dei dataset: infatti il confronto con la figura 2.9 di Olivieri mostra che in generale la dispersione più grande è simmetrica rispetto alla linea di accelerazione nulla.
Una situazione analoga si verifica con la pendenza, più stabile dopo i 50 anni di estensione del dataset.

Bibliografia

  • Church, J. A., White, N. J.: A 20th century acceleration in global sea–level. Geophys. Res. Lett.33, L01602, 2006.
  • S. Jevrejeva, J.C. Moore A., Grinsted and P. L. Woodworth: Recent global sea level acceleration started over 200 years ago? Geophys. Res. Lett.35, L08715, 2008.dx.doi.org/10.1029/2008GL033611
Tutti i dati relativi a questo post si trovano nel sito di supporto qui
Facebooktwittergoogle_pluslinkedinmail

E’ Estate e a Milano fa Caldo

Posted by on 06:00 in - Stazioni Meteo, Attualità, Climatologia, Meteorologia | 6 comments

E’ Estate e a Milano fa Caldo

Per l’areale milanese il 2018 non è stato fin qui particolarmente estremo dal punto di vista dello stress termico da caldo.

Era il 38 luglio e faceva molto caldo ed era scoppiata l’afa”… ve la ricordate la canzoncina degli Squallor del 1971 (testo e storia)? E’ chiaro che senza il talismano, il piede di porco a pile della zia Woller, mettersi a “ragionare di climatologia” significa volersi fare del male, e poi fa troppo caldo….. Ciò nonostante nei giorni scorsi mi sono cimentato nell’analisi dei dati di temperatura massima e minima dell’areale rurale circostante a Milano per confrontare il 2018 con i 67 anni precedenti in termini di occorrenze di temperature estreme e di stress termico. Qui di seguito riporto i dati utilizzati e il metodo adottato in modo da porre tutti gli interessati in condizione di ripetere l’analisi svolta e commento brevemente i risultati ottenuti.

Dati e metodi

Ho utilizzato una serie storica di temperature massime e minime giornaliere costruita con i seguenti dati:

  • 19510108-19721231: Linate 16080 (fonte Servizio Meteo AM)
  • 19730101-19921231: Linate 16080 (fonte dataset GSOD)
  • 19930101-20171231: Montanaso Lombardo (fonte CREA)
  • da 20180101: Linate 16080 (fonte dataset GSOD).

Si noti che Montanaso Lombardo (figura 2) è stata da me introdotta per limitare l’effetto Isola di calore urbano (UHI) che su Linate si fa ormai sentire in modo sensibile. Purtroppo la Banca Dati Agrometeorologica Nazionale (BDAN) che fino al 2017 veniva aggiornata con solo pochi giorni di ritardo rispetto alla misura, ha i propri dati fermi al gennaio 2018, per cui ho dovuto tornare ad utilizzare i dati di Linate. Segnalo inoltre che i pochi dati risultati mancanti nei 68 anni della serie storica considerata sono stati ricostruiti sulla base di dati di stazioni limitrofe con un semplice modello a medie pesate con peso inversamente proporzionale al quadrato delle distanze previa omogeneizzazione per la quota.

Per ogni anno ho estratto il numero di giorni con temperatura massima maggiore o uguale a 33 e a 35°C (TX33 e TX35) e temperatura minima maggiore o uguale a 23 e a 25°C (TN23 e TN25). Al riguardo si consideri che sulle temperature minime l’isola di calore di Milano pesa oggi circa 2/5°C, per cui 25°C registrati nell’area rurale significano grossomodo 27/30°C a Milano.

A questo punto ho prodotto un indice empirico di stress termico strutturato come segue:

IEST=TX33+TX35*2+TN23+TN25*3

Si noti che il maggior peso da me attribuito a TN25 deriva dal fatto che per chi vive come me in città lo stress termico da caldo è legato soprattutto al disturbo del sonno, che si registra quando nelle nostre stanze da letto le temperature notturne non scendono sotto i 30°C.

Tutti i valori ricavati dal 1 gennaio al 4 agosto per gli anni che vanno dal 1951 al 2018 sono riportati in  tabella 1 e nel diagramma in figura 1.

Figura 1 – Indice di stress termico IEST per l’area rurale prossima a Milano. Analisi riferita al periodo 1 gennaio – 7 agosto per gli anni che vanno dal 1951 al 2018.

Risultati

Dall’analisi del diagramma di figura 1 si notino anzitutto i 4 anni con livelli di stress più elevati dell’intera serie e cioè il 2015 con IEST di 40 seguito 2003 E 2017 (25), dal 2013 (21) e 1983 (20). Il 2018, con un punteggio di 13 si colloca al 9° posto in termini di stress a pari merito con 1952 e 2016.

Si noti anche il trend all’incremento dei livelli di stress, con IEST che da una media di 3,2 del periodo 1951-1990 è salito a 4,3 nel 1991-2000 per giungere a 10,1 nel periodo 2001-2010 e a 16,5 nel periodo 2011-2018. Ciò riflette il cambiamento climatico registratosi in Europa e pone in evidenza il nuovo clima con cui dobbiamo oggi confrontarci.

Alcune riflessioni finali

Il nuovo clima che ho delineato in termini di stress termico può divenire problematico soprattutto in ambito urbano per effetto del’isola di calore (figura 2). Ciò porta a suggerire per chi sta all’aperto di sfruttare il più possibile l’effetto di ombreggiamento di alberi ed edifici. Per chi staziona all’interno di edifici non ben coibentati è consigliabile far ricorso ad un oculato uso dei condizionatori  e a tenere ben arieggiati i locali cercando il più possibile di sfruttare le “correnti d’aria”. Peraltro riguardo a questo ultime so per esperienza diretta che gli anziani sono ahimè diffidentissimi in virtù di secoli di pregiudizio (“sole di vetro e aria di fessura portano alla sepoltura”…).

Figura 2 – l’areale rurale circostante Montanaso Lombardo (al centro – la stazione Crea si trova in coincidenza con il pallino giallo) confrontato con un frammento del centro di Milano (a sinistra) e con dell’aeroporto di Linate (a destra). Si notino i diversi livelli d’intensità dell’urbanizzazione che si traducono in diversi livelli dell’isola di calore urbano.

Concludo evidenziando il fatto che dai dati da me analizzati e riferiti all’area rurale circostante alla grande conurbazione milanese (accreditata di oltre 7,5 milioni di abitanti) risulta che il 2018 non è stato fin qui particolarmente estremo dal punto di vista dello stress termico da caldo.

Ribadisco inoltre che il nuovo clima con cui ci stiamo confrontando dagli anni ’90 ha grandi vantaggi nel periodo invernale, durante il quale si registra il picco annuo di mortalità per cause meteorologiche, picco che la maggior mitezza termica tende a moderare.

Si tratta di concetti fondati su dati che i nostri grandi media (TV, quotidiani) ignorano scientemente con l’obiettivo di incrementare l’audience creando ansia nella collettività. Si tratta di una strategia che non mi stancherò mai di condannare perché la trovo particolarmente odiosa nei confronti delle fasce della popolazione più deboli ed influenzabili. Peraltro la strategia si palesa nella risposta data da Aldo Cazzullo, giornalista di norma assai equilibrato nei suoi giudizi, sul Corriere della sera del 5 agosto 2018 alla lettera del lettore Aldrea Bucci:

scrive Andrea Bucci: “Caro Aldo, ricordo che dopo la maturità sono stato al lago di Kemijarvi nella Lapponia finlandese una cinquantina di km a Nord del circolo polare. Era fine luglio, eppure io e il mio compagno di avventure nordiche abbiamo fatto il bagno tranquillamente mentre alcune ragazze prendevano il sole sulla spiaggetta. Più a sud c’era Turku, l’antica capitale delle Finlandia. La piscina all’aperto era costantemente affollata. Trent’anni fa il riscaldamento globale non c’era. Ora, grazie ai 390 gradi registrati al circolo polare, si prevedono sfracelli climatici. Procurare allarme conviene.  Tanta gente è infatti convinta che in Scandinavia ci sia neve anche ad agosto.”

Risponde Aldo Cazzullo: “Caro Andrea, come ho sentito dire da qualche parte negare il riscaldamento del pianeta perché fa fresco o si aveva già avuto caldo in passato è un po’ come negare la fame nel mondo perché si è appena mangiato un cheeseburger. Si rassegni: per quanto possiamo essere affezionati a noi stessi non siamo il centro dell’universo.”

La lettera di Andrea Bucci, per quanto “tagliata” per ragioni di spazio, esprime dubbi circa il dogma, e la risposta di Cazzullo afferma di fatto la morte della climatologia come scienza: non contano prove documentali come quelle addotte da Andrea Bucci o magari dati osservativi, il dogma è dogma e non si discute! A questo punto trovo che abbia ragione da vendere Sergio Pinna che nel suo scritto di critica a un articolo uscito guarda caso sul Corriere conclude come segue: in doveroso ossequio alle verità ufficiali, l’articolo del Corriere si conclude con una frase di alto significato (scientifico e morale): «e pensare che c’è chi ancora dubita del cambiamento climatico». Senza dubbio una bella frase, alla quale però preferirei questa: «e pensare che fino ad una ventina d’anni fa si poteva ancora discutere di climatologia . . .».

Se almeno avessimo il talismano della zia Woller….

Tabella 1 – Giorni con temperature maggiori o uguali a determinate soglie critiche per l’area rurale prossima a Milano. Analisi riferita al periodo 1 gennaio – 7 agosto per gli anni che vanno dal 1951 al 2018.

Facebooktwittergoogle_pluslinkedinmail

Deglaciazioni e Circolazione Oceanica (AMOC)

Posted by on 06:00 in Attualità, Climatologia | 6 comments

Deglaciazioni e Circolazione Oceanica (AMOC)

Vi sono dei periodi storici in cui gli scienziati ed i mezzi di comunicazione di massa si concentrano su argomenti che fino a quel momento avevano trascurato. E’ quello che sta accadendo con le correnti termoaline e, in modo particolare, con la Corrente del Golfo. Lo scorso mese di aprile ho avuto modo di occuparmi di essa commentando due articoli scientifici che discutevano il rallentamento della Corrente del Golfo e le sue cause (qui su CM). Solo pochi giorni fa G. Guidi ha pubblicato un post, segnalando un altro articolo che indagava gli stessi temi e giungeva alla conclusione che le variazioni di velocità della Corrente del Golfo potessero avere cause naturali (qui su CM).

Due giorni fa su Nature Communications è stato pubblicato l’articolo a firma di Hong Chin Ng ed altri colleghi (da ora Ng et al., 2018).

Coherent deglacial changes in western Atlantic Ocean circulation

Come ormai ben sanno i lettori di CM, la circolazione termoalina distribuisce su tutto il globo terrestre il calore che gli oceani immagazzinano nella fascia equatoriale. Con il termine AMOC (acronimo che sta per Atlantic Meridional Overturning Circulation) si intende il complesso sistema di correnti marine che caratterizza l’Oceano Atlantico e la cui componente più famosa è proprio la Corrente del Golfo. Appare ovvio che variazioni della velocità dell’AMOC, siano capaci di influire profondamente sulle condizioni climatiche di tutto l’emisfero nord, per cui non stupisce che gli scienziati siano alla continua ricerca delle cause che determinano queste variazioni. Qualche anno fa L. Mariani ha dedicato a questa tematica un  post su CM che illustra sinteticamente il funzionamento di AMOC e la sua influenza su eventi climatici improvvisi come gli eventi di Heinrich o quelli di Dansgaard-Oeschger.

Nel post dello scorso aprile ho cercato di confrontare due tesi contrapposte: una attribuiva il rallentamento della Corrente del Golfo a cause naturali, l’altra lo imputava a cause antropiche. In quell’occasione feci notare che il lavoro che attribuiva le variazioni di velocità della Corrente del Golfo a cause naturali, era viziato dal fatto che le misurazioni riguardavano sedimenti trasportati dal ramo freddo della corrente a nord di Capo Hatteras, per cui potevano rendere conto di eventi locali che, quindi, non riguardavano l’intero sistema che definiamo AMOC.

Ng et al., 2018 sembra essere riuscito a eliminare questo problema, in quanto basa i suoi risultati su un record di tredici campioni prelevati da svariati siti oceanici. In linea di principio lo studio cerca di mettere in relazione la velocità dell’AMOC o, per essere più precisi, la sua capacità di trasportare calore, con bruschi cambiamenti climatici ben documentati. I ricercatori hanno individuato tre eventi che hanno caratterizzato il periodo temporale compreso tra l’ultima glaciazione e l’Olocene: Heinrich Stadial 1 (~ 19-15 mila anni fa), Bølling-Allerød (~ 15-13 mila anni fa) e Younger Dryas (~ 13-11 mila anni fa). Successivamente hanno esaminato tredici carote di sedimenti di cui si conosce la cronologia stratigrafica. Nei sedimenti presi in esame, gli studiosi hanno individuato il rapporto tra le concentrazioni di due radionuclidi: il 231Pa ed il 230Th.  Questi due isotopi sono presenti anche negli oceani odierni secondo rapporti ben precisi, determinati da diversi fattori, tra cui la velocità delle correnti oceaniche. Secondo Ng et al., 2018 il rapporto isotopico 231Pa/230Th costituisce, pertanto, un dato di prossimità efficace per individuare la velocità delle correnti oceaniche, in corrispondenza dei cambiamenti climatici presi in considerazione. Nell’immagine che segue, tratta dalla fig. 1) di  Ng et al., 2018, possiamo vedere i siti da cui sono stati estratti i tredici campioni.

Fig. 1: I cerchi ed i quadrati rappresentano i punti di prelievo dei campioni, le croci rappresentano i punti di prelievo dei campioni su cui sono state effettuate analisi granulometriche per individuare grani di diametro inferiore ai 63 micrometri.

La metodologia si basa sul fatto che i radionuclidi presi in esame, vengono prodotti secondo un rapporto ben preciso (circa 0,093). A causa dei diversi tempi di permanenza in acqua (50-200 anni per 231Pa contro 10-40 anni per 230Th), il rapporto tra i due isotopi nei sedimenti è diverso da quello di produzione. I radionuclidi vengono adsorbiti, infatti, dalle particelle trasportate dalle correnti oceaniche profonde e, a causa del diverso tempo di permanenza in acqua dei due isotopi, si verificano degli scambi tra radionuclidi che alterano il rapporto tra di essi. A migliaia di chilometri dal punto di produzione, il rapporto 231Pa /230Th  cambia e rappresenta una “firma” del trasporto laterale e delle vicende che caratterizzano la colonna d’acqua sovrastante il ramo profondo della corrente oceanica. I dati oceanici odierni ci consentono di stabilire una firma isotopica corrispondente allo stato attuale dell’AMOC, valori inferiori o superiori del rapporto 231Pa /230Th , rappresentano un indice di maggiore o minore velocità della corrente oceanica. Valutando il rapporto isotopico nei campioni di sedimenti risalenti a diverse migliaia di anni fa, siamo in grado di stimare la velocità delle paleocorrenti. I ricercatori hanno fatto ricorso, ovviamente, a metodi di calibrazione che sono illustrati nell’articolo liberamente accessibile e che in questa sede tralascio di descrivere, per non appesantire eccessivamente la discussione.

Nell’immagine che segue (tratta dalla fig. 2 di Ng et al., 2018), sono riportati i valori del rapporto 231Pa /230Th negli ultimi venticinquemila anni, determinato per i vari campioni studiati.

Fig. 2): Nel riquadro a) i dati relativi all’Atlantico occidentale; nel riquadro b) i dati relativi alle medie latitudini dell’Atlantico orientale e nel riquadro c) i dati relativi ai sedimenti dell’Atlantico equatoriale orientale. Le bande colorate (rosso, verde e blu) rappresentano le categorie alto, medio e basso rapporto isotopico ed i numeri in parentesi i campioni di cui alla precedente figura 1).

Sulla base dei risultati ottenuti e condensati nella figura 2, Ng et al., 2018 hanno potuto concludere che il rapporto 231Pa /230Th,  assume valori diversi per l’Atlantico occidentale e quello orientale: ad alti valori del rapporto 231Pa /230Th  nell’Atlantico occidentale, corrispondono valori più bassi del rapporto 231Pa /230Th  nell’Atlantico orientale e viceversa. Soffermiamoci ora su quanto accade nell’Atlantico occidentale. Durante l’ultimo massimo glaciale (LGM) i valori del rapporto 231Pa /230Th nell’Atlantico occidentale rientravano nella fascia media, successivamente, con l’avvento dello Heinrich Stadial 1, essi sono aumentati fino a portarsi  a valori simili a quelli di produzione, per ridiscendere in corrispondenza dell’evento caldo di  Bølling-Allerød. Durante lo Younger Dryas i dati sono un po’ contrastanti, ma con l’avvento dell’Olocene, i valori del rapporto  231Pa /230Th  si sono definitivamente ridotti ed hanno assunto i valori attuali con oscillazioni  di periodo millenario o multimillenario. Nell’Atlantico orientale l’andamento è qualitativamente simile, ma cambiano i valori del rapporto tra i radionuclidi.

Questi sono i dati. Dobbiamo cercare, adesso, di comprendere le implicazioni che questi dati comportano da un punto di vista climatico. La prima cosa che salta agli occhi è che gli eventi climatici improvvisi sono correlati alla velocità dell’AMOC a livello globale. Premesso che correlazione non è causalità, possiamo presumere, però, che variazioni nella velocità dell’AMOC determinano i cambiamenti climatici in quanto tali variazioni di velocità, a lume di logica, comportano variazioni della quantità di calore che AMOC veicola alle alte latitudini.

Ciò che è ancora più interessante è che, nel caso di Heinrich Stadial 1, il momento in cui inizia ad aumentare il rapporto 231Pa /230Th, non coincide con il rilascio dei detriti glaciali provenienti dalla calotta della Laurentide (come si evince dai confronti con le serie granulometriche), ma con i detriti fluviali di origine euro-asiatica. In altre parole la fusione delle calotte glaciali terrestri ad oriente del bacino atlantico, avrebbe riversato nel Golfo di Biscaglia acque dolci che avrebbero determinato un primo rallentamento dell’AMOC. Questo rallentamento determinò un accumulo di acque calde sub superficiali nella parte nord orientale dell’Atlantico che innescò, successivamente, il distacco di quelle flotte di iceberg che hanno generato i depositi di detriti che furono studiati verso la fine degli anni ’80 del secolo scorso da Heinrich e che caratterizzano quegli eventi climatici che da lui presero il nome. Detto in altri termini, gli eventi di Heinrich (almeno quello stadiale 1) sono caratterizzati da due fasi ognuna delle quali è contraddistinta da cause diverse che hanno influenzato, però, la circolazione termoalina nella sua globalità.

Con la fine dello stadiale di Heinrich si verificò una diminuzione del rapporto 231Pa /230Th che coincide con il riscaldamento conosciuto come evento di Bølling-Allerød. Secondo Ng et al., 2018, questo evento coincise con un aumento della velocità di AMOC come dimostra la drastica riduzione del rapporto 231Pa /230Th. Stranamente, però, questo periodo climatico è caratterizzato da una scarsa presenza di detriti fluviali e glaciali: è come se i ghiacci non si sciogliessero. Si tratta di un controsenso in quanto ad un periodo caldo, non corrisponde fusione glaciale. Del resto l’andamento del livello del mare ed altri dati di prossimità, dimostrano che in quel periodo geologico i ghiacciai si fusero, per il rinvigorimento dell’AMOC, non può essere considerata un effetto della mancata fusione dei ghiacci.  E con questo siamo giunti a toccare il tallone di Achille di questo studio. Perché AMOC è diventata più forte? Ng et al., 2018 attribuisce il rinvigorimento di AMOC ad un aumento della CO2 atmosferica ed a giustificazione di tale tesi invoca un recente studio (Zhang et al., 2017) che sulla base di elaborazioni modellistiche, sembra aver individuato nella variazione della concentrazione di diossido di carbonio atmosferico,  la causa delle variazioni di velocità di AMOC. Personalmente non sono molto d’accordo, mi sembra più un modo per aggirare un ostacolo che per risolvere il problema. Che esiste ed è grosso. Senza questa spiegazione, infatti, dovremmo dedurre che il maggiore tasso di fusione dei ghiacci non rappresenta una causa del rallentamento dell’AMOC, ma una conseguenza delle variazioni di velocità della circolazione termoalina e dovremmo buttare alle ortiche tutto quanto detto a proposito del precedente stadiale di Heinrich.

Passando al successivo evento climatico, noto come Younger Dryas, le cose si fanno ancora più complicate: le serie di dati relative al rapporto 231Pa /230Th non sono univoche, ma presentano valori che variano in una forchetta estremamente alta. Sappiamo che questo è stato un periodo freddo, per cui ci saremmo aspettati alti valori del rapporto 231Pa /230Th. Non è così per cui mi viene il dubbio che questo metodo di stima della velocità di AMOC presenta qualche criticità che deve essere ancora risolta. Mi convince poco la spiegazione fornita da Ng et al., 2018: durante l’evento dello Younger Dryas il clima era molto più variabile e, quindi, le calotte glaciali molto più instabili ed AMOC più sensibile a piccole variazioni climatiche.

Ho riflettuto molto su questo articolo che non è di facile comprensione e, probabilmente, non sono riuscito a cogliere tutte le sfumature dei ragionamenti degli autori, ma alla fine sono restato piuttosto perplesso. Inizialmente mi ha entusiasmato l’idea che potesse essere stato individuato un metodo in grado di collegare tutta l’AMOC ai cambiamenti climatici globali, ma poi questo entusiasmo è calato man mano che individuavo delle criticità nelle scelte fatte da Ng e colleghi. Essi erano partiti, per esempio, dall’esame di oltre trenta campioni, ma alla fine hanno riportato i risultati relativi a quei tredici che manifestavano maggiore coerenza. Le motivazioni addotte per giustificare la scelta,  potrebbero anche essere condivisibili, ma la cosa rappresenta un punto di debolezza. A questo, infine, si devono aggiungere le perplessità che ho evidenziato nelle righe precedenti. Nel complesso un lavoro molto impegnativo, ma che non riesce a risolvere tutti i problemi sul piatto: funziona alla grande per l’evento Heinrich Stadial 1, ma questo dipende, forse, dalle operazioni di sintonizzazione delle serie di dati. Alla fine bisogna concludere che il legame tra clima ed AMOC è ancora largamente da scoprire, per cui continueremo ancora a lungo (spero non tanto) a chiederci se sia AMOC a determinare il clima o viceversa.

Facebooktwittergoogle_pluslinkedinmail

Un’arida savana nelle campagne inglesi?

Posted by on 07:12 in Ambiente, Attualità, Climatologia | 12 comments

Un’arida savana nelle campagne inglesi?

Nei giorni scorsi il Corriere della Sera ha pubblicato un articolo – a firma di Luigi Ippolito, corrispondente da Londra – riguardante le presunte condizioni meteorologiche apocalittiche, nelle quali si troverebbe l’Inghilterra durante la presente estate. I contenuti sono esaminabili anche in rete*, ma mi pare utile e divertente riportare almeno le parti salienti; per una immediata distinzione dai miei commenti, il lettore tenga conto che le frasi dell’articolo appaiono in neretto.

A partire dal titolo (SEMPRE PIÙ CALDO, LA VERDE INGHILTERRA È DIVENTATA GIALLA) le parole ed i toni lasciano poche discussioni: «Nelle chiese di campagna continuano a intonare Jerusalem, l’inno religioso nazionale, che si conclude con l’immagine dell’England’s green and pleasant Land, la terra verde e piacevole d’Inghilterra. Ma fuori c’è quella che gli agricoltori ormai chiamano “Sussex savannah”, la savana del Sussex: perché i prati di smeraldo hanno fatto posto a una distesa arida e desolata, di un colore giallo bruciacchiato. . . . . Sui giornali e in rete è gara a pubblicare immagini di come sono ridotte le campagne. Le più impressionanti sono quelle satellitari: se prima a nord della Manica si collocava una terra verde, ora c’è una macabra chiazza gialla. E dove si distendevano campi fertili adesso si allargano terreni crepati dalla calura». A corredo di queste agghiaccianti descrizioni, l’articolo riporta anche la sottostante figura. Si può solo sperare che non ci siano già stati dei turisti partiti per la Gran Bretagna con la speranza di vedervi girovagare antilopi e giraffe, perché credo che, nonostante tutto, sarebbero rimasti delusi.

Cosa ha causato un quadro così sconvolgente? La risposta è fin troppo semplice: il clima impazzito. Infatti il giornalista precisa: «Sì, perché le isole britanniche sono investite da un’ondata di calore come non si era mai vista prima: questa settimana la temperatura toccherà i 35 gradi e ci sono zone che non ricevono una goccia di pioggia da quasi due mesi. Se continua così, si andrà incontro all’estate più arida mai registrata dal 1776.». Quindi caldo e aridità su livelli davvero unici; ma è proprio così?

Per nostra fortuna, il servizio meteo-climatico britannico (MetOffice) fornisce le statistiche, dal 1910 ad oggi, di varie grandezze, aggiornandole di mese in mese; riferendosi a questi dati ufficiali*, non c’è quindi il pericolo di essere eventualmente accusati di malafede da qualche fiero paladino della religione dello sconvolgimento climatico in atto.

Temperature = Le medie 2018 per l’Inghilterra sono state di 14,8° e 17,3° rispettivamente per giugno e luglio. Si tratta di valori decisamente elevati, ma non record. Infatti per il mese di giugno si riscontra un 14,9 nel 1940 ed un 15,0 nel 1976; luglio aveva segnato 17,3 nel 1973 e 17,8 nel 2006. La media 2018 del bimestre (16,1°) è ovviamente fra le più alte del periodo di osservazione, ma anch’essa non record, in quanto superata dal 16,2 del 2006. In sostanza l’estate inglese è stata finora caldissima, ma sul livello di quelle di altre annate.

Precipitazioni = Gli afflussi medi giugno-luglio 2018 sull’Inghilterra ammontano a 50,7 mm. Questo dato dovrebbe riportare un po’ di serenità nei lettori del Corriere, visto che per trovare una siccità più marcata, invece di risalire al 1776, si possono per ora risparmiare un paio di secoli: i rispettivi valori giugno-luglio del 1976 e del 1921 sono pari infatti a 46,2 e 36,2 mm. Del tutto inutili eventuali discorsi concernenti i mesi precedenti, in quanto le piogge della primavera 2018 sono ben al di sopra della norma.

In definitiva, come tante altre volte, degli eventi estremi che rientrano nella variabilità conosciuta dei fenomeni sono comunicati come qualcosa di assolutamente eccezionale e del tutto superiore a quanto verificatosi in precedenza.

In doveroso ossequio alle verità ufficiali, l’articolo si conclude con una frase di alto significato (scientifico e morale): «e pensare che c’è chi ancora dubita del cambiamento climatico…». Senza dubbio una bella frase, alla quale però preferirei questa: «e pensare che fino ad una ventina d’anni fa si poteva ancora discutere di climatologia . . .»

NB: questo post è uscito in originale sul blog dell’autore.

Facebooktwittergoogle_pluslinkedinmail

Summer blogging…. rinfrescante!

Posted by on 09:42 in Attualità, Climatologia | 9 comments

Summer blogging…. rinfrescante!

Le ferie si sa, ci vogliono, anche dal proprio hobby o da quello che si fa semplicemente per passione, come questo blog. Ma è pur vero che i lettori hanno diritto comunque alla quotidiana ispirazione, per cui, magari con minor frequenza, CM comunque c’è, e ci sono i suoi autori.

Con l’Europa occidentale che continua ad essere piuttosto calda, finalmente ora anche i nostri media potranno gridare all’allarme estate. Ieri o ieri l’altro il corriere lanciava la notizia che alcune nostre città potranno arrivare a 40°C. Effettivamente dato che siamo ad agosto la cosa ha del sensazionale, visto che normalmente in questi giorni si andrebbe piuttosto a sciare.

Ma tant’è, per rinfrescare gli animi e, almeno idealmente, anche le menti, ecco un bel paper uscito su Nature Communications che va ad investigare gli eventi di rallentamento della circolazione termoalina atlantica in uscita dall’ultima glaciazione, gettando un po’ di luce sull’intreccio di feedback da scioglimento dei ghiacci, assorbimento della CO2 e circolazione atmosferica alla base dell’evoluzione del clima all’inizio del nostro periodo interglaciale.

Coherent deglacial changes in western Atlantic Ocean circulation

Il paper è liberamente accessibile ed è spiegato anche su EurekAlert.

Naturalmente, il tutto è importante perché “in tempi di climate change, capire cosa è successo prima ci aiuterà a capire cosa potrà succedere dopo”. Il fatto che sia successo prima però, pare non scalfisca minimamente la convinzione che possa essere attribuito almeno in parte alla naturale evoluzione del sistema.

Così va il clima a quanto pare. Enjoy.

 

Facebooktwittergoogle_pluslinkedinmail

Le Ondate di Caldo in Scandinavia e Giappone – Breve Analisi Storica con un Pensiero al Povero Babbo Natale

Posted by on 06:00 in Attualità, Climatologia | 29 comments

Le Ondate di Caldo in Scandinavia e Giappone – Breve Analisi Storica con un Pensiero al Povero Babbo Natale

Da oltre una settimana siamo sommersi da notizie su ondate di calore senza precedenti che starebbero colpendo la Scandinavia e il Giappone.

Tanto per fare un poco di chiarezza e per vedere a che punto è la notte ho scaricato dal dataset NOAA GSOD i dati per le stazioni sinottiche di:

  • Tokyo (Giappone) – 476671
  • Oslo Blindern (Norvegia) – 01492
  • Goteborg (Svezia) – 02513
  • Barentsburg (Isole Svalbard) – 20107

Tutti i dati sono risultati aggiornati al 21 luglio 2018 e il codice riportato a fianco di ogni stazione è il codice ufficiale della World Meteorological Organization.

Nella tabella qui sotto, ordinate a partire dalla più alta, ho riportato le 30 temperature massime più elevate registrate dalle tre stazioni in esame. Notare che in nessuna delle 4 stazioni il 2018 ha fin qui fatto segnare dei record, nel senso che nel passato si sono avuti valori più elevati. Per Tokyo e Barentsburg addirittura nessun dato di temperatura massima del 2018 rientra nei primi 30 valori: il primo valore del 2018 lo troviamo al 125° posto per Tokyo e al 423° per Barentsburg. Ciò almeno in parte si spiega con il fatto che le serie di questi ultimi due siti sono sensibilmente più lunghe di quelle di Oslo e Goteborg.

A questo punto la domanda fatidica: come farà il povero Babbo Natale con tutto questo caldo? E’ la domanda che il TG5 delle 21 di oggi (23 luglio 2018) ci ha proposto in “copertina” assieme a un’intervista alla dott.ssa Marina Baldi del CNR IBIMET che per la verità si espressa in modo molto equilibrato.

A voi i commenti!

Facebooktwittergoogle_pluslinkedinmail

Il Cambiamento Climatico e l’Analisi di Coldiretti

Posted by on 06:00 in Ambiente, Attualità, Climatologia | 16 comments

Il Cambiamento Climatico e l’Analisi di Coldiretti

In un comunicato stampa del19 luglio 2018 Coldiretti, citando dati di fonte NOAA-NCDC, scrive che il primo semestre del 2018 sarebbe il quarto più caldo (“più bollente”, si dice nel comunicato) dal 1880.

Per verificare tali indicazioni ho consultato altri dataset internazionali raccogliendo il tutto nella tabella 1, in cui ho dovuto inserire dati da dicembre a maggio per il dataset HADcrut4, che a oggi è aggiornato a maggio. Come si può vedere il 2018 è al terzo posto secondo NASA-GISS, al quarto secondo NCDC-NOAA e all’ottavo secondo  HADcrut4 e MSU-UAH. Si rammenta che quest’ultima serie proviene da dati satellitari ed è riferita alla bassa troposfera mentre le altre tre serie sono ricavate da dati superficiali.

Coldiretti inoltre cita dati CNR ISAC secondo cui il primo semestre 2018 sarebbe il terzo più caldo dal 1800. Al riguardo ho analizzato le serie storiche NOAA GSOD di 202 stazioni riferite all’area italiana per il periodo 1973-2018, ottenendo i dati riportati in tabella 2. Si nota che per quanto concerne le temperature medie delle medie il 2018 è al sesto posto con 12,28°C, superato da 2014, 2007, 2017, 2016, 2001. Per quanto concerne invece le temperature medie delle massime il 2018 è al terzo posto superato da 2014 e 2016 ed infine Per quanto concerne infine le temperature medie delle minime il 2018 è all’undicesimo posto.

Tabella – Classifica dei primi semestri più caldi per 4 serie termiche globali.
Posto in

graduatoria

MSU-UAH (*)

1979-2018

HADcrut4 (**)

1850-2018

GISS-NASA (***)

1880-2018

NCDC-NOAA (****)

1880-2018

anno gen-giu yy dic-mag yy gen-giu yy gen-giu
1 2016 0.623 2016 0.967 2016 1.352 2016 1.065
2 1998 0.592 2017 0.746 2017 1.195 2017 0.900
3 2010 0.423 2015 0.669 2018 1.097 2015 0.857
4 2017 0.312 2007 0.607 2010 1.013 2018 0.768
5 2002 0.260 2010 0.593 1998 0.947 2010 0.763
6 2015 0.223 1998 0.586 2007 0.942 2014 0.717
7 2018 0.218 2018 0.586 2015 0.940 1998 0.693
8 2007 0.215 2002 0.554 2002 0.902 2007 0.682
9 2005 0.212 2014 0.527 2005 0.878 2002 0.665
10 2003 0.183 2004 0.505 2014 0.857 2005 0.647

(*) anomalia rispetto alla media dell’intera serie

(**) anomalia rispetto alla media 1961-1990

(***) anomalia rispetto alla media 1951-1980

(****) anomalia rispetto alla media 1910-2000

Tabella 2- Classifica dei venti primi semestri più caldi a livello italiano dal 1973 al 2018. Si riportano le medie delle temperature massime (TX), minime (TN) e medie (TD). Elaborazioni su dati di 202 stazioni delle rete NOAA-GSOD.
Posto in

graduatoria

anno TD anno TX anno TN
1 2014 12.61 2007 17.56 2014 8.46
2 2007 12.57 2017 16.99 2016 8.25
3 2017 12.41 2003 16.79 2018 8.20
4 2016 12.39 2014 16.76 2001 8.04
5 2001 12.37 2001 16.71 1994 7.89
6 2018 12.28 2002 16.65 2015 7.84
7 2015 12.14 2000 16.54 2017 7.84
8 2002 12.14 2016 16.53 2011 7.70
9 2000 12.08 2015 16.45 2002 7.63
10 2003 12.03 1990 16.41 2000 7.62
11 2011 12.02 2018 16.36 1998 7.60
12 1990 11.99 2011 16.35 2007 7.59
13 1998 11.93 2008 16.33 1990 7.58
14 1997 11.88 1997 16.29 2009 7.48
15 1994 11.88 1998 16.26 1997 7.46
16 2009 11.81 2012 16.25 1977 7.35
17 2012 11.68 2009 16.15 1988 7.28
18 1999 11.57 1989 16.09 2003 7.28
19 2008 11.54 1999 15.88 1996 7.28
20 1989 11.51 1994 15.86 1999 7.25

Ma il 2018 è stato segnato in Italia anche – sottolinea Coldiretti – “da intense precipitazioni con nubifragi, trombe d’aria, bombe d’acqua e grandinate che hanno colpito i a macchia di leopardo la Penisola durante il semestre. L’estate è infatti iniziata – precisa la Coldiretti – con la caduta del 124% di pioggia in più a giugno dopo che la primavera ha fatto segnare una anomalia del +21% rispetto alla media storica, secondo elaborazioni Coldiretti su dati Isac Cnr. Sono gli effetti – sottolinea la Coldiretti – dei cambiamenti climatici in atto che si manifestano con la più elevata frequenza di eventi estremi con sfasamenti stagionali, precipitazioni brevi ed intense ed il rapido passaggio dal sole al maltempo. Uno sconvolgimento che impatta duramente sull’attività agricola. Dall’inizio dell’anno – conclude la Coldiretti – sono oltre mezzo miliardo i danni provocati dal maltempo all’agricoltura con coltivazioni distrutte, alberi abbattuti e aziende allagate, ma anche corsi d’acqua esondati, frane e smottamenti che fanno salire ad oltre mezzo miliardo il conto dei danni provocato all’agricoltura italiana dall’inizio dell’anno.”

Rispetto a queste affermazioni non ho molto da dire in quanto trovare dati su “trombe d’aria, bombe d’acqua e grandinate” non è affatto banale. Mi limito a segnalare che alle medie latitudini trombe d’aria, rovesci (le bombe d’acqua non esistono!) e grandinate sono da che mondo è mondo il portato della stagione estiva e che si tratta di fenomeni legati ai cumolonembi temporaleschi, per loro natura distribuiti a “macchia di leopardo”. Mi fa piacere poi apprendere che “i cambiamenti climatici in atto si manifestano con la più elevata frequenza di eventi estremi con sfasamenti stagionali, precipitazioni brevi ed intense ed il rapido passaggio dal sole al maltempo.” perché sono le stesse cose di cui si lamentava Giovanni Targioni Tozzetti nel 1767.

Osservo infine che secondo il bollettino mensile di JRC-MARS emesso a giugno 2018 (https://ec.europa.eu/jrc/sites/jrcsh/files/jrc-mars-bulletin-vol26-no06.pdf) le produzioni agricole 2018 per l’Italia sono stimate su livelli superiori alla norma per il grano tenero e nella norma per grano duro, orzo, mais, soia e girasole, il che vorrà pur dire qualcosa.

Facebooktwittergoogle_pluslinkedinmail

Come (non) ti misuro il Global Warming

Posted by on 06:00 in Attualità, Climatologia | 15 comments

Come (non) ti misuro il Global Warming

La questione è grave ma non seria si potrebbe dire. Domanda: quanti di voi si sono mai posti il problema di come venga misurata davvero la “febbre del pianeta”? Primo stop: non si tratta di una misura ma di una stima, e la differenza tra questi due termini è tutta nell’approssimazione; tanto più cresce l’incertezza del sistema di misura, tanto più l’oggetto dell’osservazione sarà stimato anziché noto.

Ma, in qualche modo, diversi gruppi di lavoro facenti capo a diverse realtà, sono riusciti a produrre dei dataset che raccolgono e gestiscono le informazioni derivate dalla rete di osservazione i cui output restituiscono un buon accordo a livello globale. Di qui la confidenza nel fatto che, a prescindere dalle cause, il trend della temperatura media superficiale del pianeta nell’era della misurazione oggettiva sia positivo.

Tuttavia, comprendere se e quanto questo segno positivo possa indurre delle modifiche alle dinamiche del clima, dipende in modo indissolubile dall’accuratezza della stima dello stesso non già a livello globale, quanto piuttosto alla scala spaziale a cui si realizzano i diversi tipi di clima, più tipicamente quella regionale. Questo, soprattutto perché è da queste eventuali variazioni che possono derivare eventuali impatti, che poi sono quelli che interessano davvero.

E’ uscito di recente sul Journal o Geophysical Research un paper in cui è stata compiuta una comparazione dei quattro più importanti dataset della temperatura superficiale per valutarne le eventuali differenze a scala spaziale ridotta: come facilmente intuibile, i risultati sono sorprendenti e, soprattutto, mettono l’accento sulla disomogeneità spaziale dei punti di osservazione, sul loro posizionamento e sul bias che questi problemi introducono nelle serie, generando differenze nelle anomalie alla scala regionale in molti casi paragonabili all’ampiezza della variazione a scala globale e in alcuni addirittura con segno opposto del trend da diversi dataset.

Land Surface Air Temperature Data Are Considerably Different Among BEST-LAND, CRU-TEM4v,NASA-GISS, and NOAA-NCEI

Come era lecito attendersi, i problemi più grossi sorgono nelle zone dove la disponibilità di punti di osservazione è molto limitata, le alte latitudini, il centro America, l’Africa, l’India e così via. Questo non pone solo un problema di affidabilità del trend a scala globale (che eredita variazioni occorse in porzioni limitate del pianeta), ma anche di conoscenza delle effettive variazioni alle scale inferiori in punti di chiave del sistema climatico, per le dinamiche che lo contraddistinguono, si pensi al tema dello scioglimento dei ghiacci e dell’innalzamento del livello del mare, o agli eventi di siccità per le aree a contatto con i grandi deserti del pianeta, o alle dinamiche dei monsoni, tutti veri e propri motori del clima.

Dal momento che il paper è liberamente accessibile e anche piuttosto corposo, ve ne lascio volentieri la consultazione, ma penso sia importante riprendere l’ultima parte delle conclusioni:

This limitation of the observation-based data sets needs to be addressed to increase the confidence of
climate change studies using these data sets. One way to address this issue is to improve the design and
implementation of the global station network. Different international initiatives have already started the process of improving the density and the quality of station measurements, such as the International Surface Temperature Initiative (Rennie et al., 2014) and the new network implementation plan described by the Global Climate Observing System (Thorne, Allan, et al., 2017; World Meteorological Organization, 2016).

Although continuing this improvement is critical and necessary, doing so is time and resource consuming.
Moreover, the improvement would mostly benefit the data set for the future, which cannot directly reduce the variations across data sets for the past. In contrast, remote sensing data are in a unique niche to provide nearly spatial-complete information over land surface. Several off-the-shelf global surface temperature products at various spatial resolutions for the recent decades (since the 1980s) are currently available, including both land surface temperature and air temperature profiles. Remotely sensed products suffer from their own limitations, such as the observation time change across satellites and biases due to cloud contamination. On the other hand, atmospheric reanalysis data have also been very popular in various applications. Despite its known uncertainties, reanalysis data provide valuable complete global temperature data at various resolutions. With appropriate statistical methods, combining global station network observations, reanalysis temperature data, and remotely sensed temperature products to generate a spatial-complete LSAT data is possible. Efforts in this aspect are already ongoing, which could significantly benefit climate change studies requiring LSAT data sets (Merchant et al., 2013; Thorne, Madonna, et al., 2017).

In pratica,alla luce dei loro risultati, gli autori ritengono sia essenziale perseguire dei programmi di accrescimento della precisione e distribuzione delle osservazioni – e nel mondo sta avvenendo il contrario – pur ammettendo che questo avrebbe per beneficio sulla qualità futura dei dataset, non certo su quella passata e presente, lasciando comunque ampi margini di incertezza.

Inoltre, è necessario che vengano utilizzate – altra cosa che non accade per una scelta incomprensibile in termini scientifici ma molto chiara per altri versi in quanto trattasi di osservazioni “scomode” – anche le serie derivate dalle osservazioni satellitari, che pur con tutti i loro problemi offrono la garanzia di una copertura spaziale assolutamente omogenea (e raccontano una storia recente piuttosto diversa…).

Insomma, per tornare da dove abbiamo iniziato, il GW, con o senza la A davanti, è un problema locale (nel senso della scala spaziale dei punti di osservazione) che è stato riportato alla scala globale, ma che in questo tragitto ha perso quasi del tutto la capacità di rappresentare le variazioni alle scale inferiori, che poi sono quelle che contano davvero. Meditate gente, meditate.

NB: l’immagine a corredo di questo post viene da www.surfacestations.org

Related Posts Plugin for WordPress, Blogger...Facebooktwittergoogle_pluslinkedinmail
Translate »