Climate Lab – Fatti e Dati in Materia di Clima

Tra la fine del 2015 e l’inizio del 2016, poco dopo la fine della COP21 di Parigi, abbiamo messo a punto un documento pubblicato nella sua interezza (e scaricabile qui in vari formati) con il titolo “Nullius in Verba, fatti e dati in materia di clima”. L’idea è nata dall’esigenza di far chiarezza, ove possibile e nei limiti dell’attuale conoscenza e letteratura disponibili, in un settore dove l’informazione sembra si possa fare solo per proclami, quasi sempre catastrofici.

Un post però, per quanto approfondito e per quanto sempre disponibile per la lettura, soffre dei difetti di tutte le cose pubblicate nel flusso del blog, cioè, invecchia in fretta. Per tener vivo un argomento, è invece necessario aggiornarlo di continuo, espanderlo, dibatterle, ove necessario, anche cambiarlo. Così è nato Climate Lab, un insieme di pagine raggiungibile anche da un widget in home page e dal menù principale del blog. Ad ognuna di queste pagine, che potranno e dovranno crescere di volume e di numero, sarà dedicato inizialmente uno dei temi affrontati nel post originario. Il tempo poi, e la disponibilità di quanti animano la nostra piccola comunità, ci diranno dove andare.

Tutto questo, per mettere a disposizione dei lettori un punto di riferimento dove andare a cercare un chiarimento, una spiegazione o l’ultimo aggiornamento sugli argomenti salienti del mondo del clima. Qui sotto, quindi, l’elenco delle pagine di Climate Lab, buona lettura.

  • Effetti Ecosistemici
    • Ghiacciai artici e antartici
    • Ghiacciai montani
    • Mortalità da eventi termici estremi
    • Mortalità da disastri naturali
    • Livello degli oceani
    • Acidificazione degli oceani
    • Produzione di cibo
    • Global greening

____________________________________

Contenuti a cura di Luigi Mariani e revisionati in base ai commenti emersi in sede di discussione e per i quali si ringraziano: Donato Barone, Uberto Crescenti, Alberto Ferrari, Gianluca Fusillo, Gianluca Alimonti, Ernesto Pedrocchi, Guido Guidi, Carlo Lombardi, Enzo Pennetta, Sergio Pinna e Franco Zavatti.

La foto degradazione delle microplasctiche in ambiente marino

Posted by on 08:28 in Ambiente, Attualità | 0 comments

La foto degradazione delle microplasctiche in ambiente marino

Le microplastiche sono oggi diffusissime in tutti gli oceani del pianeta. I risultati di uno studio di recentissima pubblicazione (Zhu et al., 2020) evidenziano il ruolo chiave dell’UV solare come agente di alterazione dei polimeri che le compongono, con rilascio di molecole organiche a corta catena che vanno a far parte del pool del DOC (carbonio organico dissolto nell’acqua marina) il quale è suscettibile di attacco da parte dei batteri e per tale ragione riveste un ruolo essenziale nell’alimentare le catene trofiche oceaniche. Si tratta di un dato per molti versi positivo e che ci mostra ancora una volta le grandi doti di resilienza proprie degli ecosistemi marini. Ciò non deve tuttavia far dimenticare che gli oceani non sono il luogo adatto per smaltire le materie plastiche, per cui è auspicabile una sempre più elevata attenzione alla gestione razionale e sostenibile di tali prodotti.

Abstract

Microplastics are widespread in all the oceans of the planet. The results of a very recent study (Zhu et al., 2020) highlight the key role of solar UV as agent of alteration of the polymers that compose microplastics, with the release of short-chain organic molecules that become part of the DOC (organic carbon dissolved in sea water). The DOC pool is susceptible to attack by bacteria and for this reason plays an essential role in feeding oceanic trophic chains. This is in many ways positive and shows us once again the great resilience qualities of marine ecosystems. This should not, however, make us forget that the oceans are not the right place to dispose of plastic materials, for which it is desirable an ever higher attention to the rational and sustainable management.

Premessa

La lignina e la cellulosa, caratteristici del mondo vegetale, sono fra i polimeri più diffusi In natura. Per tale ragione le prime materie plastiche nacquero sfruttando direttamente tali polimeri (ad es. la celluloide, ottenuta da Hyatt nella seconda metà dell’800 plastificando con canfora la nitrocellulosa[1]). Solo in un secondo tempo si giunse ad ottenere nuovi e più performanti polimeri, per lo più derivati dal petrolio. A tale categoria appartiene ad esempio il moplen, frutto della polimerizzazione stereospecifica del propilene e la cui invenzione valse a Giulio Natta (1903-1979) il Nobel per la chimica del 1963.

Se le materie plastiche hanno innumerevoli vantaggi (robustezza, elasticità, leggerezza, costo contenuto, gradevolezza visiva, ecc.) e hanno consentito di produrre moltissimi oggetti utili alla vita umana (dai volanti delle automobili alle valvole cardiache, dalle confezioni per alimenti ai materiali per gli impianti di microirrigazione o per le serre, dal vestiario alle calzature) è altresì evidente che il destino ambientale degli oggetti in plastica non più utili al loro scopo desta moltissime preoccupazioni, anche in virtù del fatto che la quantità prodotta e smaltita è in continua crescita, come dimostra la figura 1 che presenta i trend di produzione e smaltimento di materie plastiche a livello mondiale pregressi (1950-2015) e previsti (2016-2050) (Geyer et al., 2017). Sempre da Geyer et al (2017) sono tratti i dati con cui si è realizzato lo schema in figura 2 che illustra la produzione globale, l’uso e il destino delle materie plastiche (resine polimeriche, fibre sintetiche e additivi) prodotte dal 1950 a oggi.

Figura 1 – Produzione e smaltimento plastiche a livello mondiale 1950-2015 e proiezioni fino al 2015

Figura 2: Produzione totale globale, uso e destino di resine polimeriche, fibre sintetiche additivi dal 1950 al 2015 in milioni di tonnellate (dati da Geyer et al., 2017).

Per quanto riguarda i rifiuti in plastica occorre anzitutto evidenziare che in base alla dimensione essi sono classificati in macroplastiche (diametro > 5 mm), microplastiche (1-5000 micron) e nano plastiche (1-100 nanometri). Da rilevare poi che tali rifiuti sono troppo spesso smaltiti in mare ove interferiscono in modo rilevante con la vita marina e subiscono un processo di degradazione che è a grandi linee illustrato in figura 3. Si noti anche che in ambiente marino i rifiuti in plastica galleggiano e si muovono con le correnti marine di superficie, accumulandosi in aree in cui tali correnti convergono. Una delle più importanti zone marine di accumulo è costituita dalla North Pacific Gyre NPG (vortice del pacifico settentrionale – figura 4) ove la plastica rilasciata dalle aree costiere asiatiche e americane[2] giunge dopo un lunghissimo viaggio e forma caratteristiche chiazze galleggianti ove il diametro medio dei detriti plastici è di 5,9 +/- 3.1 mm, per cui le microplastiche vi giocano un ruolo rilevantissimo.

Figura 3 – Schema di degradazione della plastica della plastica flottante negli oceani

Figura 4 – North Pacific Gype

La fotodegradazione delle microplastiche

Molti dei polimeri oggi in uso sono fotolabili e cioè si degradano per effetto dell’UV solare e da ciò prende le mosse un recentissimo lavoro (Zhu et al., 2020) che parte dall’evidenza secondo cui gli innumerevoli frammenti di plastica che galleggiano in mare rappresentano solo l’1% delle materie plastiche che raggiungono l’oceano ogni anno, per domandarsi quale sia il destino ambientale della “plastica mancante”[3]. Per rispondere a tale domanda Zhu et al. hanno posto in beute contenenti acqua di mare una serie di materiali e cioè microplastiche di rifiuto (polietilene PE, polipropilene PP e polistirolo espanso EPS) oltre a PE standard e a frammenti di plastica raccolti nell’NPG. Le beute sono state poi irraggiate con un simulatore di luce solare, evidenziando che la luce solare per effetto dell’UV frammenta, ossida e altera il colore dei polimeri, con tassi di degradazione che dipendono dalla chimica dei polimeri stessi, tant’è che EPS si degrada più rapidamente di PP mentre PE si rivela il polimero più resistente (tabella 1).

Più nello specifico gli autori hanno evidenziato che:

  1. la foto-degradazione è il presupposto essenziale per la degradazione delle microplastiche e ciò spiega anche perché in assenza di luce le microplastiche persistano molto più a lungo.
  2. La degradazione delle microplastiche porta al rilascio di metaboliti carboniosi a catena corta che vanno a far parte del pool del carbonio organico disciolto nell’acqua marina (Dissoved Organic Carbon – DOC) composto da sostanze organiche solubili a basso peso molecolare. Tale pool è rapidamente attaccato dai batteri che lo usano come fonte di carbonio.
  3. il pool DOC in cui confluiscono i prodotti di degradazione delle plastiche è un componente essenziale dell’ecosistema marino, essendo la principale sorgente di carbonio per i microrganismi eterotrofi che sono alla base delle catene alimentari marine.
  4. il pool DOC ha un contenuto totale in carbonio paragonabile a quella del pool atmosferico di CO2 e il contributo che a esso danno i prodotti di fotodegradazione delle materie plastiche è di entità modesta rispetto a quello dei prodotti di origine naturale (detriti di origine animale e vegetale)
  5. Il DOC derivante dalle microplastiche è biolabile al 76 ± 8% per EPS e al 59 ± 8% per PP, il che lo avvicina ai DOC di sostanze provenienti da fonti naturali come quelle naturalmente presenti nell’acqua di mare (biolabili al 40%), il fitoplancton (biolabile al 40-75%) e le acque di fusione del permafrost (biolabili al 50%). Tale caratteristica rende il DOC prodotto dalle microplastiche di EPS e PP prontamente utilizzabile dai batteri marini
  6. la biolabilità del DOC da PE è invece pari solo al 22 ± 4% e gli autori hanno evidenziato che il suo utilizzo avviene per il 95% ad opera di un solo ceppo batterico. Tale bioresistenza farebbe in prima battuta pensare a un’azione inibitrice della crescita microbica, magari ad opera di coformulanti presenti nel materiale.
  7. nel caso specifico del Pacifico Settentrionale, gran parte del processo di foto-degradazione e di produzione di DOC ha probabilmente luogo nel corso del lungo viaggio che porta la plastica dalle zone di rilascio al cuore dell’NPG.

Conclusioni

In sintesi dunque Zhu et al (2020) evidenziano che l’UV solare si rivela efficacissimo nel dissolvere la plastica che staziona alla superficie dell’oceano.

Ciò non toglie comunque che l’oceano, nonostante le sue enormi capacità si autoregolazione, non possa essere considerato come un possibile luogo di smaltimento delle materie plastiche, anche perché macro e microplastiche possono essere ingerite dalla macrofauna marina con danni rilevanti e possibili rischi per la stessa salute umana, come mette in luce una pubblicazione dell’EFSA (2016) che stimola ad approfondire le analisi fin qui condotte. Un approfondimento di indagine è anche sollecitato da Zhu et al (2020) con riferimento al PE, per il quale gli autori paventano il rischio che i sottoprodotti della fotodegradazione possano incidere negativamente sull’attività microbica e sulle catene alimentari che da essa dipendono.

Note

[1] La nitrocellulosa a sua volta prodotta facendo agire acido nitrico e acido solforico su cotone idrofilo

[2] In media occorrono ad esempio 8 anni perché microplastiche rilasciate a Shangai raggiungano la zona di convergenza dell’NPG mostrata in figura 2

[3] Su tale destino in passato si sono fatte molte ipotesi fra cui il consumo da parte degli organismi marini,  l’aggregazione con detriti organici con successivo affondamento, la deposizione in località remote non monitorate o ancora la degradazione a dare piccole particelle o soluti che superanno le reti da 335 μm utilizzate per campionare e microplastiche marine.

Bibliografia

  • EFSA, 2016. Presence of microplastics and nanoplastics in food, with particular focus on seafood EFSA Panel on Contaminants in the Food Chain (CONTAM), EFSA journal, 11 maggio 2016, doi: 10.2903/j.efsa.2016.4501
  • Geyer R., Jambeck J.R., Law K.L., 2017. Production, use, and fate of all plastics ever made, 3(7), e1700782. 3 Science Advances, DOI: 10.1126/sciadv.1700782
  • WUWT, 2019. Simulated sunlight reveals how 98% of plastics at sea go missing each year, https://wattsupwiththat.com/2019/11/08/simulated-sunlight-reveals-how-98-of-plastics-at-sea-go-missing-each-year/
  • Zhu L., Zhao S., Bittar T.B., Stubbins A., Li D., 2020. Photochemical dissolution of buoyant microplastics to dissolved organic carbon: Rates and microbial impacts, Journal of Hazardous Materials 383, (2020), 121065
Facebooktwittergoogle_pluslinkedinmail

Copertura nuvolosa e temperatura globale

Posted by on 07:00 in Attualità, Climatologia | 12 comments

Copertura nuvolosa e temperatura globale

Un recente lavoro di O.M. Pokrovsky (2019) analizza la relazione tra temperatura globale e copertura nuvolosa. Per la copertura nuvolosa usa i dati ISCCP (alcune informazioni anche in Rossow e Schiffer,1991) e come serie di temperatura globale HadCRUT4 (terra+oceano).
L’articolo è in russo e per me non è facilmente comprensibile, anche se leggo (con qualche difficoltà) il russo e capisco qualche parola. Ad ogni fine pratico, posso dire di non aver letto l’articolo il cui sommario in inglese recita:

Cloud Changes in the Period of Global Warming: the Results of the International Satellite Project
O. M. Pokrovsky
Russian State Hydrometeorological University, St. Petersburg
E-mail: pokrov_06@mail.ru

The results of analysis of climatic series of global and regional cloudiness for 1983–2009. Data were obtained in the framework of the international satellite project ISCCP. The technology of statistical time series analysis including smoothing algorithm and wavelet analysis is described. Both methods are intended for the analysis of non-stationary series. The results of the analysis show that both global and regional cloudiness show a decrease of 2–6%. The greatest decrease is observed in the tropics and over the oceans. Over land, the decrease is minimal. The correlation coefficient between the global cloud series on the one hand and the global air and ocean surface temperature series on the other hand reaches values (–0.84) — (–0.86). The coefficient of determination that characterizes the accuracy of the regression for the prediction of global temperature changes based on data on changes in the lower cloud, in this case is 0.316.Keywords: cloudiness, ISCCP data, climate change, global and regional scale, climate series analysis, linear and nonlinear trends, wavelet analysis.     Il testo completo dell’articolo è disponibile nel sito di supporto

In questo post uso i dati annuali sia della copertura nuvolosa (che chiamerò anche GCC, o Global Cloud Cover) derivati dalla figura 1 dell’articolo, che delle temperature globali HadCRUT4 e NOAA. L’intervallo temporale è definito da GCC ed è compreso tra il 1983 e il 2009 (27 anni).

Fig.1: valori annuali della copertura nuvolosa globale (GCC), in percentuale. Non ho digitalizzato le barre di errore.

Nella figura successiva i dati digitalizzati di GCC e il loro spettro LOMB.

Fig.2: GCC digitalizzata e spettro LOMB. I valori originali sono a passo costante, per cui avrei potuto usare lo spettro MEM, ma l’incertezza nella digitalizzazione ha generato un passo “quasi” costante e quindi ho usato LOMB. La linea verde-mare è il fit lineare da cui ho calcolato la serie detrended richiesta dal calcolo dello spettro.

La figura 2 mostra alcune caratteristiche che vale la pena sottolineare:

  1. La percentuale di copertura nuvolosa (GCC) è diminuita visibilmente dal 1986 al 2000 e dal 2001 è aumentata rispetto al 2000 per poi restare grossolanamente costante fino al 2009 (fine serie).
  2. Una situazione di quasi costanza dal 2001 al 2009 ricorda la pausa nelle temperature globali (questa è una mia posizione: altri fanno iniziare la pausa dal 1998).
  3. Sappiamo che la copertura nuvolosa è un fattore importante nella regolazione della temperatura: grosso modo, una maggiore copertura significa temperatura più bassa e viceversa. Questa relazione inversa verrà verifica in seguito.
  4. Dallo spettro, nel quadro inferiore, si vede che la copertura non è casuale e che esistono almeno due ciclicità, 8-10 anni e 4 anni, durante le quali la GCC si ripeterebbe con caratteristiche simili. Poi, il gruppo attorno a 0.9-1.3 anni mostrerebbe una variazione annuale -e una semestrale a 0.5 anni- che legherebbe la GCC a fattori astronomici (rivoluzione della Terra attorno al Sole) e forse di circolazione emisferica.
  5. La serie lunga solo 27 anni non permette di dettagliare meglio quanto può essere dedotto dallo spettro.

Ora posso confrontare le serie a due a due e verificare la similitudine tra i due andamenti. Successivamente mostrerò gli spettri e le funzioni di cross-correlazione (CCF) per misurare la concordanza tra le serie con un’accuratezza maggiore rispetto alla semplice ispezione visuale.

Fig.3: Confronto tra GCC (invertita) e temperature globali HadCRUT4 (terra+oceano) sullo stesso intervallo temporale 1983-2009.

Da notare in questa figura come la pausa coincida nei due casi ma anche come la salita delle temperature tra il 1983 e il 1999 sia ben descritta dalla copertura nuvolosa. A titolo di ulteriore esempio ho confrontato la GCC anche con i dati annuali NOAA, come si vede in figura 4.

Fig.4: Confronto tra GCC (invertita) e Temperature globali NOAA (terra+oceano) sullo stesso intervallo temporale 1983-2009.

Anche in questo caso la pausa coincide nelle due serie e, di nuovo, la salita delle temperature è ben rappresentata dalla pendenza della copertura nuvolosa tra il 1983 e il 1999.

Il confronto successivo è tra gli spettri delle tre serie:

Fig.5: Confronto tra gli spettri di GCC, HadCRUT4 e NOAA. La potenza di entrambe le temperature è stata moltiplicata per 35 in modo da rendere la figura più leggibile. Gli spettri MEM non mostrano le frequenze maggiori di 0.5 (i periodi minori di 2 anni) per evitare problemi con l’intervallo di frequenza di Nyquist che deve essere compreso tra 0 e 0.5 in frequenza.

I tre spettri mostrano essenzialmente le stesse caratteristiche (massimi tra 7.5 e 8.5 anni e a 4 anni oltre al debole picco a ~2.5 anni) cioè mostrano che i dati non sono soltanto esteticamente legati come appare dalle due figure precedenti, ma hanno in comune periodicità che potremmo immaginare legate a caratteristiche fisiche di entrambe le grandezze.

Si può confrontare lo spettro di GCC con l’analisi wavelet mostrata nella figura 5 di Pokrovsky, 2019: il gruppo di periodi a circa 1 anno esiste su tutto l’intervallo analizzato; il periodo di 4 anni si osserva fino al 1992, diventa più debole fino a circa il 2001 per poi scomparire. Il massimo che nello spettro LOMB è a circa 9 anni, nella wavelet parte da 8 e supera i 32 anni, sempre con le potenze più elevate della scala wavelet (con una estensione di 27 anni io non ho ritenuto accettabili periodi superiori a 20 anni).
Considero questo confronto una conferma dello spettro LOMB di figura 5.

Per finire questa analisi su più piani, mostro la funzione di cross-correzione (CCF) tra la copertuta nuvolosa ed entrambe le serie di temperatura globale:

Fig.6: Funzione di cross-correlazione tra copertura nuvolosa e le due serie di temperatura. La CCF a lag zero, cioè il coefficiente di correlazione di Pearson, vale tra -0.7 e -0.8, mentre in Pokrovsky 2019 viene dato un valore più elevato (-0.84/-0.86). Credo che quest’ultimo valore sia stato calcolato dalle serie mensili che io non ho disponibili e che permettono una migliore risoluzione spaziale.

La figura 6 ci mostra una correlazione, il che non significa che le grandezze siano fisicamente legate (cioè che siano variabili aleatorie dipendenti), ma le caratteristiche mostrate (soprattutto gli spettri) suggeriscono in modo indipendente che una relazione fisica deve esistere tra copertura nuvolosa e temperatura globale.

Credo che come chiusura si potrebbe usare questa frase:

Scusate, non la ricordo più, com’è quella storia che dice che la temperatura dipende in modo esclusivo dalla CO2? Potreste ricordarmela? Grazie.

I dati di questo post sono disponibili nel sito di supporto.

Bibliografia

 

Facebooktwittergoogle_pluslinkedinmail

I Tifoni in Giappone

Posted by on 07:00 in Attualità, Climatologia | 8 comments

I Tifoni in Giappone

La JMA (Agenzia Meteorologica Giapponese) produce e aggiorna la serie dei tifoni (in giapponese; nella versione inglese del sito non sono stato capace di trovare la pagina) che si sono formati nell’area giapponese dal 1951 ad oggi (settembre 2019). I dati sono forniti come eventi nei singoli mesi e come somma annuale.
L’istogramma del numero annuale dei tifoni è mostrato in figura 1 insieme al fit lineare che mostra una diminuzione del numero di eventi nel tempo.

Fig.1: Numero annuale di tifoni in Giappone. La linea rossa è il fit lineare e mostra una leggera diminuzione del numero di eventi. La pendenza della retta è (-0.4±0.3) eventi/decennio.

Anche in questo caso (altri esempi nei link a CM presenti nel sito di supporto), malgrado la crescita della temperatura globale e la (ipotizzata ma ormai assunta dai più come vera) sua dipendenza dalla concentrazione di CO2 e, in definitiva, dall’attività antropica, gli eventi estremi non mostrano alcuna crescita.
I dati mostrano ampie fluttuazioni e se si prova a filtrarli si ottiene il quadro superiore di figura 2, con una netta oscillazione che -sia chiaro- dipende dalla finestra di filtraggio e fornisce soltanto un’indicazione di massima sul comportamento del numero di tifoni per anno. Questa indicazione è però sufficiente per un’analisi spettrale del dataset, analisi che evidenzia nel grafico in basso un massimo a circa 27 anni come la caratteristica dominante, pur non mancando indicazioni di massimi tra 2 e 7 anni, caratteristici di El Niño.

Fig.2: Numero di cicloni per anno con il fit lineare di figura 1. La linea rossa è un filtro passa-basso di finestra 15 anni. Da notare l’evidente andamento oscillante (che in parte dipende dalla finestra del filtro). In basso lo spettro MEM degli stessi dati: il massimo spettrale a 27.2 anni domina completamente lo spettro ed è mostrato nell’oscillazione del grafico in alto.

Il periodo del picco principale è ben rappresentato dalla curva rossa del filtro dove la distanza tra il primo massimo a sinistra e il successivo è di 24 anni (1990-1966) e la distanza tra i due minimi è di 28 anni (2006-1978). Con un semiperiodo di circa 13 anni si può prevedere che il 2019 è l’anno di un altro massimo relativo. Possiamo quindi immaginare che quest’anno sarà più ricco di eventi dei precedenti (in media, dei precedenti 13 e oltre); questo alla conclusione della stagione dei tifoni, a novembre come si vede in figura 3.
A me sorge il sospetto che il riscaldamento globale antropico abbia ben poco a che fare con il numero dei tifoni nel mar del Giappone e che i “gridi di dolore” lanciati da divulgatori e giornalisti sulla sorte del pianeta siano, almeno in questo caso, del tutto fuori luogo.

Come accennato sopra, la figura 3 mostra l’andamento mensile del numero di tifoni, con i mesi mostrati in coppia per evitare grafici troppo confusi.

Fig.3: Numero mensile dei tifoni in Giappone da cui appare chiaramente che la stagione dei tifoni va da giugno a novembre, con un crescendo fino ad agosto -settembre e una successiva diminuzione degli eventi. In ogni quadro il la linea nera mostra il primo dei due mesi rappresentati e la linea rossa il secondo.

Si vede bene che gennaio e febbraio sono mesi di bassa o bassissima attività e che ad aprile qualcosa comincia a muoversi nel Mar del Giappone; da maggio ad agosto-settembre si raggiunge il massimo di attività che a novembre decade per poi tornare ai livelli minimi a dicembre. Un aspetto importante di questo grafico e che in nessuno dei mesi si nota un sistematico aumento dell’attività, soltanto fluttuazioni attorno ad un valore medio costante.

L’Oscillazione Decadale del Pacifico
Il massimo spettrale a 27 anni fa pensare che l’oscillazione principale della presenza dei tifoni possa dipendere da un agente esterno che nel Pacifico potrebbe essere l’oscillazione decadale del Pacifico o PDO. Oltre a El Niño, esistono altre oscillazioni su larga scala e teleconnessioni (tipo la PNA tra il Pacifico e il nord Atlantico) le cui interazioni potrebbero avere una influenza sui tifoni, ma credo che la PDO sia la più significativa e per questo userò solo questa serie. Di seguito presento due serie temporali della PDO, una dal 1000 al 2000, ricostruita, e l’altra dal 1900 al 2018, osservata, insieme ai loro spettri.

Fig.4: La PDO dal 1000 al 2000. Dal 1900 si sovrappone (linea rosa) la PDO prodotta da Mantua (è la pdo-latest-mo.txt usata in figura 5).

Fig.5: La PDO dal 1900 al 2018.

Dalle due serie possiamo derivare l’indicazione che una oscillazione compatibile con quella dei tifoni si trova nello spettro della PDO “lunga” ma non in quello della PDO di Mantua, tranne una possibile increspatura dello spettro attorno a 27 anni (non indicata in figura 5), per nulla significativa. In queste condizioni è difficile attribuire alla sola PDO la modulazione della frequenza dei tifoni e bisogna immaginare altri condizionamenti presenti nel Mar del Giappone.
A questo scopo ho ricontrollato due grafici, già pubblicati in Mariani et al.,2018, per brevità disponibili solo sul sito di supporto.

  1. La serie della data di fioritura del ciliegio a Kyoto (Giappone, Aono e Kazui, 2008), il CFD, dall’800 al 2000, che però nello spettro non mostra picchi che si avvicinino ai 27 anni dei tifoni.
  2. La serie di anelli di accrescimento del ginepro a Wulan, Cina, ancora tra l’800 e il 2000, che mostra un massimo evidente, anche se non tra i più importanti, a 28.5 anni. Ma siamo in Cina, piuttosto lontano dal Giappone.

In definitiva, i tifoni che si formano attorno al Giappone mostrano una frequenza di apparizione che diminuisce nel tempo, cadenzata da una periodicità di 27 anni di cui non è chiara l’origine.

I dati di questo post sono disponbili nel sito di supporto.

Bibliografia

 

  • Yasuyuki Aono and Keiko Kazui: Phenological data series of cherry tree flowering in Kyoto, Japan, and its application to reconstruction of springtime temperatures since the 9th century Int. J. Climatol.,28, 905-914, 2008. http://dx.doi.org/10.1002/joc.1594.
  • L. Mariani, G. Cola, O. Failla, D. Maghradze, F. Zavatti: Influence of Climate Cycles on Grapevine Domestication and Ancient Migrations in EurasiaScience of the Total Environment635, 1240-1254, 2018. doi:10.1016/j.scitotenv.2018.4.175
Facebooktwittergoogle_pluslinkedinmail

Il livello del mare e la temperatura

Posted by on 04:43 in Attualità, Climatologia | 7 comments

Il livello del mare e la temperatura

Traggo questa prima parte del post, almeno parzialmente, dal sito di Euan Mears.

Gli scettici affermano spesso che la crescita attuale del livello del mare e la perdita di ghiaccio dei ghiacciai sono uno dei risultati di un recupero naturale dalla Piccola Era Glaciale (PEG), mentre i credenti nell’AGW (o qualunque sia la sua definizione odierna) dichiarano che un “recupero dalla PEG” non è una spiegazione accettabile. Secondo loro è necessario definire un meccanismo causale.
Però anche i pro-AGW non sono in grado di produrre un meccanismo (una causa) che spieghi perché il livello del mare è salito e i ghiacciai hanno cominciato a ritirarsi da ben più di un centinaio di anni, molto prima che le emissioni umane divenissero significative. L’AGW di sicuro non lo spiega.

La figura 1a, in cui si confrontano tre serie del livello marino globale, di cui una -quella ricostruita da Church e White (2011) che nel seguito chiamerò anche CSIRO (Commonwealth Scientific and Industrial Research Organisation, in Australia), dove sono disponibili i dati- è la serie adottata dall’IPCC, con la serie di temperatura HadCRUT4, mostra che genericamente il livello marino cresce come la temperatura ma con importanti differenze che si osservano tra il 1945 e il 1975, con una crescita lineare del livello del mare e una stasi (o leggera diminuzione) della temperatura e tra il 2000 e il 2013 (la pausa) quando il livello marino subisce addirittura una brusca impennata, sempre secondo la ricostruzione di Church e White.
Sappiamo che il livello marino non reagisce subito ad un aumento di temperatura a causa dell’inerzia termica, ma nei dati (osservati e ricostruiti) non si vede un effetto ritardato della variazione di temperatura; anzi si vede bene che tra il 1925 e 2000 la crescita del livello è stata lineare.
Nei dati di Jevrejeva et al. (2008) si osserva una pausa tra il 1960 e il 1980, ma questa stasi inizia 15 anni dopo il livellamento della temperatura e finisce solo 5 anni dopo la sua fine. Quello tra inizio e fine sembra un comportamento troppo asimmetrico dell’inerzia termica, per essere un effetto diretto della temperatura. Anche nel caso della pausa 2001-2013 l’inizio di stasi nel livello marino che si intravede (figura 1b, da cui si vede anche che la serie termina) sembra troppo immediata per l’inerzia del mare.

Fig.1: a) livello del mare ricostruito da Church e White (2011), dati mensili (grigio) e annuali (nero), confrontato con il livello di Jevrejeva et al. (2008, verde) e i dati da colorado.edu (viola). Per verificare la dipendenza del livello marino dalla temperatura viene mostrata (rosso) anche l’anomalia da HadCRUT4. b) Come sopra, dal 1980 al 2017 e senza il confronto con la temperatura.

Fermo restando che il livello del mare dipende dalla temperatura, per espansione termica, non sembra che l’aumento di temperatura dovuto all’eccesso di CO2 immesso in atmosfera dalle attività umane sia il solo agente -o il principale- a cui attribuire l’aumento del livello marino globale.
Se ci chiediamo quale possa essere l’agente, su cui possa eventualmente innestarsi l’effetto-CO2, ritorniamo all’inizio: una delle scelte possibili è quella del recupero dalla PEG, che è stata caratterizzata da alti e bassi e quindi compatibile con un andamento a gradini, con tutte le sue azioni sia sulla temperatura che sull’albedo che, ad esempio, sul diminuito peso del ghiaccio e il conseguente sollevamento delle terre; questo a meno di non ipotizzare una forte influenza (ma, a mia conoscenza, senza prove concrete) e un continuo aumento (ancora meno certo) dell’attività magmatica delle dorsali oceaniche.
Le interazioni crosta-mantello hanno senz’altro la capacità di generare l’energia sufficiente per un riscaldamento globale naturale, ma i loro tempi sono geologici, enormemente più lunghi dei circa 160 anni (o 200) di cui stiamo discutendo e quindi, credo, senza alcuna possibilità di incidere visibilmente su questo processo.

In un lavoro del 2004, Holgate e Woodworth affermano che il livello del mare misurato fino a quel momento mostra una salita al tasso di 1-2 mm/anno, mentre l’altimetria radar mostra una crescita di circa 3 mm/anno. Questa differenza suggerisce una accelerazione del livello marino globale, anche se la loro figura 3, riprodotta nella successiva figura 2, non sembra mostrare un deciso aumento della pendenza ma solo un andamento oscillante, mediamente costante.

Fig.2: Figura 3 di Holgate e Woodworth (2004) che mostra la serie temporale della pendenza del livello marino per vari mari/oceani. Alcuni bacini sembrano mostrare -il grafico non è chiarissimo- un aumento della pendenza (cioè un’accelerazione positiva) ma l’aspetto complessivo è quello di una sostanziale costanza, con l’alternarsi di salite e discese temporanee.

Usando i dati di colorado.edu (viola in figura 1) ho calcolato i fit lineare e parabolico ottenendo questi risultati:

  • Fit lineare: pendenza=(3.15±0.02) mm/anno; R2=0.968
  • Fit parabolico: accelerazione=(0.096±0.004) mm/anno2; R2=0.966

Se uso i dati completi sia di Jevrejeva che di Church e White (CSIRO) ottengo, per le accelerazioni:

  • Jevrejeva: (0.00999±0.00042) mm/anno2; R2=0.802
  • CSIRO: (0.00922±0.00083) mm/anno2; R2=0.981

valori circa 10 volte inferiori a quelli di colorado.edu. È chiaro che le ultime due serie si riferiscono ad un periodo molto più lungo della prima e che si possa immaginare un’accelerazione crescente nel tempo e quindi più alta nei dati di colorado.edu.
Quindi, se accettiamo come vera l’accelerazione di colorado.edu, vediamo che dal 1993 il livello globale è cresciuto di circa un decimo di millimetro all’anno, per ogni anno (nei trascorsi 26 anni completi, 1993-2018, il livello del mare è salito in media di 2.6 mm). Sfido chiunque a dichiarare di aver notato questo aumento

(accelerato o meno che sia) e di esserne preoccupato. Qui siamo molto lontani dai grattacieli, sommersi per metà della loro altezza, che il catastrofismo dilagante usa spesso come immagine evocativa.

Il confronto con la CO2
Qualcosa di simile a quanto descritto qui lo avevo fatto nel 2016 su CM, confrontando la serie della concentrazione di CO2 e la serie (2 serie) di temperatura. Le conclusioni non sembrano molto diverse: a fronte di una somiglianza tra andamento di temperatura e di CO2, la crescita continua dell’anidride carbonica si scontra con la salita “a gradini” della temperatura. In figura 3 ho ripreso uno dei grafici del 2016, in cui la CO2 si confronta con la temperatura globale NOAA.

Fig.3: a) Confronto tra la serie annuale NOAA (1880-2016) e la serie storica di CO2 (1000-2009). b) Relazione tra temperatura e logaritmo della CO2. La relazione lineare evidenziata dalla riga rossa porterebbe ad un’anomalia positive della temperatura pari a 3°C al raddoppio della CO2 (ln 800 ppm=6.68; y=3.04°C).

La figura 3b mi ha fatto pensare di utilizzare lo stesso criterio per confrontare temperatura e livello del mare. Il risultato è in figura 4 nella quale, a differenza della figura 3, si nota un chiaro cambiamento di pendenza in corrispondenza dell’anomalia del livello marino pari a -30 mm (nel 1973).

Fig.4: Relazione tra livello marino (CSIRO) e temperatura (HadCRUT4).

Dai fit si possono derivare due estrapolazioni relative a quando l’anomalia di temperatura raggiungerà 1.5°C, cioè quando l’estensione dell’asse y sarà cresciuta del 50% rispetto a quella in figura, (da usare con molta, molta cautela come tutte le estrapolazioni):

  • con il fit completo (linea rossa) il livello marino raggiungerebbe i 33 cm.
  • con il fit dal 1973 (linea blu) il livello marino raggiungerebbe 15.7 cm; infatti in questo tipo di grafico maggiore pendenza significa minore variazione del livello marino con la temperatura.

Otteniamo ancora valori del livello marino del tutto accettabili se la temperatura continua a crescere e del tutto privi di elementi catastrofici e ansiogeni.

I dati di questo post sono disponbili nel sito di supporto.

Bibliografia

 

 

Facebooktwittergoogle_pluslinkedinmail

Il CERN ritorna sulle nuvole

Posted by on 06:00 in Attualità, Climatologia | 7 comments

Il CERN ritorna sulle nuvole

Quella di questo titolo è una licenza poetica. Nel nostro mondo, quello che guarda alla meteorologia e climatologia in termini scientifici, si parla di nubi, non di nuvole, come nel linguaggio comune. Questa precisazione, tutt’altro che superficiale, è del Prof. Franco Prodi, uno dei massimi esperti di fisica delle nubi del nostro Paese. Suppongo quindi che non me ne vorrà né per la licenza né per la citazione, seppur indiretta.

Le nubi, mantello spessore ed estensione variabili che copre costantemente una porzione molto ampia della superficie terrestre –  si va dal 56 al 68% in funzione della loro profondità ottica – hanno delle dinamiche fisico-chimiche di formazione estremamente complesse, su cui sussiste un margine di incertezza molto ampio che si riverbera inevitabilmente sulla qualità dei tentativi di simulazione del comportamento dell’intero sistema. In poche parole, senza conoscere e replicare con efficacia le nubi, difficilmente si potranno mai avere dei modelli climatici affidabili.

In queste dinamiche hanno un ruolo importantissimo gli aerosol, sia organici che inorganici, sia naturali che antropici, che sono i “semi” delle nubi, e l’interazione di questi con il bombardamento continuo di particelle ionizzanti cui è soggetto il nostro pianeta, i cosiddetti Raggi Cosmici. Già in molte altre occasioni, abbiamo parlato di una serie di esperimenti tenuti al CERN di Ginevra, in cui si è cercato, anche con molto successo, di simulare l’interazione tra le particelle ionizzanti e gli aerosol atmosferici, utilizzando una camera speciale in cui sono state riprodotte – quindi controllate – le diverse condizioni che si generano in atmosfera.

In questi mesi, apprendiamo da una news pubblicata proprio sul sito web del CERN, la campagna di ricerca denominata CLOUD, tenterà un nuovo approccio, non più simulando i flussi di raggi cosmici attraverso il generatore di particelle, ma osservando l’interazione degli aerosol con i raggi cosmici naturali all’interno della camera in cui vengono simulate le condizioni atmosferiche. In particolare, riporta Jasper Kyrby, team leader dell’esperimento, si cercherà di capire come questi interagiscano con le nubi di acqua liquida o ghiaccio, con lo scopo, parole testuali, di capire definitivamente in che modo i raggi cosmici incidono sulle nubi e sul clima.

Soltanto come complemento di informazione, invitandovi comunque a leggere quanto già pubblicato sull’argomento (per esempio qui su CM), ricordo che tutta la questione dell’interazione tra raggi cosmici, nubi e clima, è strettamente connessa con le variazioni dell’attività solare, che modula appunto i flussi che raggiungono la nostra atmosfera, ed è, incredibilmente, completamente ignorata dal mainstream scientifico quando si tratta di definire quali siano le fonti di variabilità naturale del sistema.

Non è affatto detto infine che al CERN sarà trovata la pietra filosofale, ma è ben difficile che si stia perdendo tempo ;-).

Enjoy.

Facebooktwittergoogle_pluslinkedinmail

Un Mese di Meteo – Settembre 2019

Posted by on 06:00 in Attualità, Climatologia, Commenti mensili, Meteorologia | 0 comments

Un Mese di Meteo – Settembre 2019
IL MESE DI SETTEMBRE 2019[1]

Mese con temperature in lieve anomalia positiva mentre prevalgono le anomalie negative delle precipitazioni

La topografia media mensile del livello di pressione di 850 hPa (figura 1a) mostra l’Italia interessata da un promontorio dall’anticiclone atlantico in espansione verso il Mediterraneo, il che indica il prevalere di condizioni di tempo stabile che si sono rivelate ad esempio favorevoli alle raccolte delle colture estive. Tale analisi è confermata dalla carta delle isoanomale (figura 1b) che evidenzia un’anomala positiva che interessa l’intera area italiana e che si espande in forma di promontorio a partire da un nucleo di anomalia positiva molto spiccata (valori di oltre 30 m) presente sul vicino Atlantico.

Figura 1a – 850 hPa – Topografia medie mensili del livello di pressione di 850 hPa (in media 1.5 km di quota). Le frecce inserire danno un’idea orientativa della direzione e del verso del flusso, di cui considerano la sola componente geostrofica. Le eventuali linee rosse sono gli assi di saccature e di promontori anticiclonici.

Figura 1b – 850 hPa – carte delle isoanomale del livello di pressione di 850 hPa.

La variabilità del “giorno per giorno” intorno alla struttura circolatoria media sopra descritta si è tradotta in particolare nel transito di 5 perturbazioni che hanno interessato in tutto o in parte il territorio nazionale e che sono state registrate rispettivamente dall’1 al 5 settembre, dal 6 al 9, l’11, dal 18 al 19 e dal 22 al 24 (tabella 1). Il 6 e l’8 settembre sono stati i due giorni più piovosi al Nord rispettivamente con medie di 12,4 e 9,8 mm, i più piovosi al Centro sono risultati il 23 e il 22 settembre rispettivamente con medie di 14,1 e 12,8 mm e infine al sud la maggiore piovosità media è stata registrata il 19 settembre con 4,2 mm e l’1 settembre con 3,1 mm.

Andamento termo-pluviometrico

A livello mensile (figure 2 e 3) le temperature medie delle massime sono risultate nella norma o in lieve anomalia positiva mentre per le medie delle minime mensili hanno dominato anomalie positive in prevalenza deboli. A livello pluviometrico mensile la figura 5 mostra il netto predominio di anomalie negative, da deboli a moderate, pur sussistendo a carattere locale valori nella norma o anomalie positive. A quest’ultimo riguardo si segnala la spiccata anomalia positiva presente nel Lazio settentrionale.

Figura 2 – TX_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle massime del mese

Figura 3 – TN_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle minime del mese

Figura 4 – RR_mese – Carta delle precipitazioni totali del mese (mm)

Figura 5 – RR_anom – Carta dell’anomalia (scostamento percentuale rispetto alla norma) delle precipitazioni totali del mese (es: 100% indica che le precipitazioni sono il doppio rispetto alla norma).

L’analisi decadale (tabella 3) mostra che a livello termico le anomalie positive delle temperature massime e minime sono risultate più spiccate al centro-nord nella seconda decade e al sud nella terza. A livello pluviometrico le anomalie negative più rilevanti si sono registrate sull’intera area nella seconda decade e al nord e al sud nella terza decade mentre valori lievemente superiori alla norma si sono registrati al Nord nella prima decade e al Centro nella seconda.

(*) LEGENDA:

Tx sta per temperatura massima (°C), tn per temperatura minima (°C) e rr per precipitazione (mm). Per anomalia si intende la differenza fra il valore del 2013 ed il valore medio del periodo 1988-2015.

Le medie e le anomalie sono riferite alle 202 stazioni della rete sinottica internazionale (GTS) e provenienti dai dataset NOAA-GSOD. Per Nord si intendono le stazioni a latitudine superiore a 44.00°, per Centro quelle fra 43.59° e 41.00° e per Sud quelle a latitudine inferiore a 41.00°. Le anomalie termiche positive sono evidenziate in giallo(anomalie deboli, fra 1 e 2°C), arancio (anomalie moderate, fra 2 e 4°C) o rosso (anomalie forti,di  oltre 4°C), analogamente per le anomalie negative deboli (fra 1 e  2°C), moderata (fra 2 e 4°C) e forti (oltre 4°C) si adottano rispettivamente  l’azzurro, il blu e il violetto). Le anomalie pluviometriche percentuali sono evidenziate in  azzurro o blu per anomalie positive rispettivamente fra il 25 ed il 75% e oltre il 75% e  giallo o rosso per anomalie negative rispettivamente fra il 25 ed il 75% e oltre il 75% .

Le anomalie termiche positive evidenziate in questo report sono sostanzialmente confermate dalle carte delle anomalie termiche globali di figura 6a e 6b rispettivamente prodotte dall’Earth System Science Center dell’Università dell’Alabama in Huntsville in base a dati satellitari MSU e dal Deutscher Wetterdienst in base ai report mensili CLIMAT da stazioni al suolo.

[1]              Questo commento è stato condotto con riferimento alla  normale climatica 1988-2017 ottenuta analizzando i dati del dataset internazionale NOAA-GSOD  (http://www1.ncdc.noaa.gov/pub/data/gsod/). Da tale banca dati sono stati attinti anche i dati del periodo in esame. L’analisi circolatoria è riferita a dati NOAA NCEP (http://www.esrl.noaa.gov/psd/data/histdata/). Come carte circolatorie di riferimento si sono utilizzate le topografie del livello barico di 850 hPa in quanto tale livello è molto efficace nell’esprimere l’effetto orografico di Alpi e Appennini sulla circolazione sinottica. L’attività temporalesca sull’areale euro-mediterraneo è seguita con il sistema di Blitzortung.org (https://www.lightningmaps.org/blitzortung/europe/https://www.lightningmaps.org/blitzortung/europe/index.php?bo_page=archive&lang=de).

 

Facebooktwittergoogle_pluslinkedinmail

Sudden Warming downunder e qualche lettura interessante

Posted by on 15:50 in Attualità, Climatologia | 7 comments

Sudden Warming downunder e qualche lettura interessante

Siamo in ottobre, il mese che sia alcuni professionisti del settore meteo un po’ visionari, sia moltissimi appassionati alla materia considerano la spia dell’evoluzione della prossima stagione invernale boreale, cercando di capire se ci saranno o meno delle possibilità che arrivino eventi di freddo importante di cui potrebbe essere responsabile il Vortice Polare Stratosferico o, meglio, un episodio di Sudden Warming. Nel frattempo, si è concluso con un Sudden Warming epocale l’inverno australe, regalando cronache di freddo di fine stagione che molti weather addicted delle nostra parti avrebbero scambiato con gli affetti più cari ;-).

Ma, soprattutto, l’SSW arrivato sullla verticale del Polo Sud, ha offerto l’occasione per riflettere su quanto un evento di riscaldamento ad alta quota a carattere assolutamente naturale e regionale possa poi avere delle conseguenze a scala ben più ampia, quella emisferica, e di segno diametralmente opposto alla stessa quota. Ce lo spiega in un post molto interessante Roy Spencer, che insieme a John Christy gestisce i dateset delle temperature atmosferiche rilevate dalle sonde satellitari. Quel che sembrava a tutti gli effetti essere un errore strumentale – un consistente raffreddamento alle latitudini tropicali alla quota della tropopausa – , si è rivelato invece essere una conseguenza diretta dell’SSW, il cui aumento di temperatura si è propagato fino allo strato inferiore dell’atmosfera, attivando la circolazione meridiana nota come Brewer Dobson Circulation. Il tutto, si è poi riverberato sul computo delle anomalie mensili calcolate sempre sulla base dei dati satellitari.

Il post è questo: Record Antarctic Stratospheric Warming Causes Sept. 2019 Global Temperature Update Confusion

Da segnalare che, come anticipato anche dai dati del satellite Copernicus e dalle rilevazioni della NASA, la particolare dinamica di fine stagione del Vortice Polare Australe, ha avuto effetti importanti anche sul depauperamento dello strato di ozono, portandolo ad una estensione che risulterà alla fine tra le più basse degli ultimi decenni e ad una posizione molto spostata verso sud rispetto alla norma.

Il sistema è uno, è grande e complesso e, una volta di più la Natura dimostra che nessun approccio riduzionistico ha possibilità di successo. Per cui eccovi la seconda lettura, un discreto “mattone” che affronta tanto la fisica di base delle dinamiche del clima, quanto i concetti, sempre di base, dell’approccio alla loro valutazione compiuto nel mondo dell’informazione ai fini di policy, quella dell’IPCC. Come ha detto Judith Curry, da cui arriva la segnalazione a questo paper, si tratta di una lettura lunga ma che vale decisamente lo sforzo.

The Physics of Climate Variability and Climate Change

E, se di approccio olistico si deve parlare, certamente non si può lasciar fuori l’elemento primario, unica fonte di energia di tutto il sistema (con buona pace della CO2): la forzante solare e la ricerca per la comprensione della sua variabilità nel lungo periodo. Una significativa riduzione dell’incertezza, accompagnata da un ridimensionamento del limite superiore della stessa. Articolo complesso direi.

Revised historical solar irradiance forcing

Del resto, ci piacerebbe tanto che si potesse ridurre tutta la faccenda del clima al semplice ruolo di un gas presente in tracce che possa fungere da manopola termostatica, ma pare proprio che non sia così.

Buona lettura e buona serata.

 

Facebooktwittergoogle_pluslinkedinmail

Le variazioni attuali sono troppo rapide per essere naturali(?)

Posted by on 06:00 in Attualità, Climatologia | 15 comments

Le variazioni attuali sono troppo rapide per essere naturali(?)

Roberto Battiston (Fisico, già Presidente dell’Agenzia Spaziale Italiana) ha pubblicato un articolo divulgativo la cui ultima figura ho commentato su Climate Monitor. In questo post vorrei discutere un’altra sua affermazione, e cioè:

Cosa si impara da questi dati? In primo luogo, la nostra specie si è sviluppata in un contesto particolarmente stabile dal punto di vista climatico. Poi, che tutte le società esistite su questo pianeta si sono sviluppare nel corso di 11.000 anni di straordinaria stabilità climatica. Le piccole variazioni della temperatura globale, corrispondenti a meno di mezzo grado, hanno portato a cambiamenti climatici molto importanti, periodi caldi o mini glaciazioni, che hanno influenzato sostanzialmente la vita della specie umana.
Infine, che non vi è mai stata in tutta la storia del clima, una variazione così rapida come ai giorni nostri.

Intanto non è vero che la nostra specie si è sviluppata in un contesto particolarmente stabile dal punto di vista climatico: ha attraversato la glaciazione e la risalita delle temperature verso l’Olocene e questo significa che è stata in grado di superare (con più o meno “ammaccature”, certo) variazioni climatiche davvero estreme, molto diverse dagli estremi di oggi.
Solo dopo essere entrati in pieno nell’Olocene, l’alta temperatura e la sua relativa stabilità hanno favorito il cammino (nei citati 11000 anni) verso una società sempre più complessa che, passo dopo passo, attraverso la domesticazione di piante e animali, i ruoli sociali differenziati e specializzati (la stratificazione della società), la nascita della città è giunta fino a noi.
Ma la temperatura dell’Olocene quanto era stabile? Per cercare di capirlo propongo in figura 1 il grafico, derivato da carotaggi del NIS (Piattaforma Nord Islandese), della temperatura superficiale marina (SST) estiva, già pubblicato su Climate Monitor nel 2015, qui leggermente modificato per mettere in evidenza le salite (e le discese) rapide della temperatura, dello stesso tipo, o anche più ripide, della variazione che stiamo sperimentando da circa 170 anni (dal 1850).

Fig.1: Temperatura marina superficiale dell’Atlantico, in estate, a nord dell’Islanda, tra 9000 anni fa e il 1950. I pallini verdi indicano alcune salite e discese rapide.

Queste temperature sono superficiali e quindi risentono meno dell’inerzia termica dell’oceano. Ma un po’ di questa inerzia è ancora presente e quindi le temperature dovrebbero essere un po’ più smussate rispetto a quelle terrestri. Malgrado questo, chiunque può verificare l’esistenza di salite e discese (ma qui parliamo in particolare di salite da confrontare con quella attuale) con lo stesso ritmo che osserviamo oggi. I pallini verdi evidenziano alcune di queste variazioni rapide e sono solo indicativi. Si osservano salite di ~1.7 °C in poco più di un secolo o, se si preferisce, in meno di 2 secoli (secondo pallino da sinistra) o di ~2 °C in un tempo simile (secondo pallino da destra) e, tra questi, una vasta scelta di variazioni rapide della temperatura.

Se si pensa che le variazioni di temperatura più lontane da noi nel tempo possano non essersi ripetute nei periodi più recenti, si può controllare la figura 3 del post del 2015 che riporto di seguito senza modifiche:

Fig.2: Ingrandimento di figura 1 per il periodo compreso tra 1000 anni fa ed oggi (1950).La riga verticale verde (nel 1315) rappresenta il passaggio tra MWP e LIA.

Su questa scala una divisione piccola dell’asse x rappresenta 100 anni, per cui si osservano aumenti e diminuzioni di temperatura di 0.7-1 °C nell’arco di meno di 50 anni, ad un ritmo doppio o triplo rispetto a quello attuale.

Quindi l’ultimo capoverso dell’affermazione di Battiston riportata all’inizio non è vero: le variazioni rapide degli ultimi 9000 anni sono un evento abbastanza frequente da poterle considerare normale amministrazione, senza alcun intervento (o, nella parte destra del grafico, con un intervento minimo) dell’uomo e della sua organizzazione sociale.

Ma c’è un problema: come si concilia quanto ho scritto con il secondo grafico che mostra Battiston, derivato da Marcott et al.,2013, dove sono presenti variazioni piccole rispetto al picco attuale? Intanto noto che nell’articolo originale non trovo il grafico di Battiston (modificato, almeno per le scritte in italiano). La cosa più simile a quel grafico la trovo nel materiale supplementare e la riproduco nella sua interezza (compresa la didascalia). Noto anche che il grafico di destra e quello di Battiston sembrano spostati uno rispetto all’altro di circa 0.1°C: infatti questo grafico parte da -0.2°C e ha il massimo a circa 0.4°C mentre quello di Battiston parte da -0.3 e arriva a 0.3°C.

Fig.3: Figura S12 del materiale supplementare di Marcott et al., 2013 con la sua didascalia. A sinistra l’ingrandimento del periodo da 2000 anni fa ad oggi, a cui ho aggiunto tre numeri per identificare 3 massimi di temperatura; a destra l’intero dataset su 11 mila anni.

Il grafico di sinistra mostra sovrapposto un dato misurato (ancorchè composito) nel quale ho identificato (con 1,2,3) 3 massimi. Non potendo leggere dal grafico con accuratezza, ho misurato con un doppio decimetro sullo schermo del computer l’altezza dei tre picchi trovando, nell’ordine, 20, 18 e 17 mm; certo non un grande esempio di misura accurata, ma sufficiente per mostrare che su periodi simili è possibile avere variazioni simili (ovviamente 1 è il massimo attuale). I dati di Marcott sono fortemente smussati dalla media e dalla varietà delle fonti (73 dataset singoli di ogni tipo), ma l’uso dei dati sperimentali conferma, anche nella diversità delle misure (qui terra, in Islanda mare), che l’aumento odierno non è un caso unico.

Piogge in Australia durante l’Olocene
Fermo restando che l’articolo di Battiston si riferisce alla temperatura e alle sue variazioni e che quindi ho già risposto alle sue affermazioni, vorrei verificare se le variazioni rapide (entro 1-2 secoli) si possono avere anche nelle precipitazioni di un periodo analogo al precedente.
Uso per questo la serie di precipitazioni oloceniche in Australia, ricostruite da Barr et al., 2019 tramite il rapporto isotopico δ13C nelle foglie di Melaleuca quinquenervia conservate nei sedimenti olocenici di una piccola laguna (circa 2700 mq) dell’isola North Stradbroke (27°29′55″S: 153°27′17″E) senza immissari né emissari, come le numerose sue “colleghe” nella stessa isola.
La serie di precipitazioni è mostrata nella figura 4, con il fit lineare su tre distinti periodi (0-925, 925-3000 e 3000-7700 anni fa).

Fig.4: Precipitazione olocenica in Australia (isola North Stradbroke) tra 7700 anni fa e il 1950. Dopo il -2800 CE appaiono più numerose le oscillazioni di alta frequenza. L’unità di misura “ka” significa Kyr BP o migliaia di anni fa; RWP è il periodo caldo romano, MWP il periodo caldo medievale, LIA la piccola era glaciale.

Anche in questo caso si osservano forti variazioni su 1-2 secoli, con un aumento della loro frequenza di apparizione dopo il -2800 CE e con una maggiore evidenza di eventi siccitosi che in questo caso sono da attribuire a El Niño (gli autori scrivono: … where La Niña and El Niño conditions are associated with positive and negative rainfall anomalies, respectively).
Le variazioni di precipitazione in 1-2 secoli sono eventi frequenti e diventano quasi la norma da circa 3000 anni fa, anche in questa area quasi agli antipodi rispetto all’Islanda.

I dati di questo post sono disponbili nel sito di supporto.

Bibliografia

 

  • C. Barr, J.Tibby, M. J. Leng, J. J.Tyler, A. C.G. Henderson, J.T.Overpeck, G. L. Simpson, J. E. Cole , S. J. Phipps, J. C. Marshall, G. B. McGregor, Q. Hua & F. H. McRobie: Holocene El Niño–Southern Oscillation variability reflected in subtropical Australian precipitationScientific Reports9:1627, published on line 07 february, 2019. doi:10.1038/s41598-019-38626-3. (testo completo disponibile)
  • H. Jiang, R. Muscheler, S. Björck, M.-S. Seidenkrantz, Jesper Olsen, Longbin Sha, J. Sjolte, J. Eiríksson, L. Ran, K.-L. Knudsen, and M.F. Knudsen: Solar forcing of Holocene summer sea-surface temperatures in the northern North AtlanticGeology43,(3), 203-206, 2015. doi:10.1130/G36377.1 (testo completo per abbonati)
  • Shaun A. Marcott, Jeremy D. Shakun, Peter U. Clark, Alan C. Mix: A Reconstruction of Regional and Global Temperature for the Past 11,300 YearsScience,339, 6124, 1198-1201, 2013.
Facebooktwittergoogle_pluslinkedinmail

Il clima cambia anche naturalmente: ordunque, finalmente!

Posted by on 06:00 in Attualità, Climatologia | 16 comments

Il clima cambia anche naturalmente: ordunque, finalmente!

E’ stato recentemente pubblicato su Climate Dynamics un articolo molto interessante dal titolo “Quantifying the importance of interannual, interdecadal and multidecadal climate natural variabilities in the modulation of global warming rates[1] elaborato da un gruppo di studiosi cinesi guidati da Meng Wei e Fangli Qiao che, aggiungerei finalmente, sgombra il campo da dubbi e perplessità su un tema veramente scottante per chi si occupi di comprendere quali siano i meccanismi che operano dietro l’incremento delle temperature medie globali.

Già, perché, al di là delle polemiche sull’hockey stick (a tal proposito sarebbe interessante approfondire la notizia di queste ultime settimane che ci narra di un Mann che avrebbe perso la causa per diffamazione contro il dott. Ball in quanto non ha presentato, come richiesto dalla Corte, i dati con cui ha stimato l’hockey stick stesso), come noto, dopo un rapido incremento nel periodo 1975-1997 le temperature globali hanno presentato un andamento sempre crescente, vero, ma con un tasso molto più basso, al limite della stazionarietà: è il periodo indicato come “hiatus”, iniziato nel 1998 e conclusosi nel 2013, che i modelli climatici faticano a simulare.

Secondo Wei M. e gli altri, la causa è da ricercare nella confusione esistente, in tali modelli, tra i trend provocati dall’azione antropica e quelli causati da variabilità intrinseche del sistema clima.

In particolare gli autori hanno analizzato due set di serie storiche di temperature globali:

  • 6 serie storiche relative al sistema combinato terra/oceani: “BEST” della Berkeley Earth, “GISS” della NASA/GISS, “HadCRUT4” del Met Office Hadley Centre, “HadCRUT4krig” elaborato da Cowtan and Way (2014), “JMA” dal JMA, e “MLOST” del NOAA/NCEI;
  • 6 serie storiche relative all’andamento della temperatura superficiale degli oceani (SST): “COBE-SST” e “COBE-SST2” dal JMA, “ERSST5” da NOAA/NCEI, “HadISST” e “HadSST3” dal Met Office Hadley Centre e “ICOADS3” dal NOAA/NCEI.

Per ciascuno dei 12 dataset hanno calcolato le anomalie mensili rispetto alla media 1981-2010.

Infine, hanno analizzato ciascuno di questi 12 set di valori di anomalia di temperatura mediante un metodo relativamente recente (proposto da Norden E. Huang nel 1998[2]) che permette di analizzare serie storiche anche non stazionarie e non lineari[3] (proprio come quelle in oggetto): tale metodo è l’EMD [4], cioè Empirical Mode Decomposition ed è basato sulla decomposizione del segnale originario in una serie di funzioni dette IMF (Intrinsec Mode Function) che rappresentano le differenti modalità di oscillazione intrinseca del segnale stesso: in particolare la serie originaria viene scomposta come somma di tante funzioni IMF (mediante una particolare tecnica di “sifting” cioè di “passaggio al vaglio”) ciascuna delle quali caratterizzata da frequenza variabile nel tempo ed ampiezza anch’essa variabile ma con media nulla, oltre a una funzione “residua” che rappresenta il trend di lungo periodo presente.

Gli autori, quindi, sulla base di questa tecnica decompongono ciascuna delle 12 serie di anomalie di temperatura in otto IMF e una funzione residuo:

  • le IMF 3, 4 e 5 sommate insieme rappresentano le “oscillazioni ad alta frequenza”, cioè le variabilità naturali inter-annuali denominate IAV;
  • la IMF 7 rappresenta la variabilità naturale a frequenze più basse delle precedenti, cioè inter-decadali, denominata IDV;
  • la IMF 8 rappresenta la variabilità naturale a più bassa frequenza, cioè multi-decadale, denominata MDV;
  • il residuo, infine, rappresenta il trend secolare (ST).

Per ciascuna serie storica analizzata, la somma IAV+IDV+MDV+ST ha dimostrato di ricostruire in ottimo accordo la serie storica originaria stessa.

Più interessante è invece investigare il significato fisico di queste variabilità naturali. Mentre, infatti, il ST si identifica con il trend indotto dal forcing antropico, le altre tre modalità chiave di oscillazione sono determinate, secondo gli autori, da fenomeni oscillatori climatici a scala globale: l’ENSO 3.4, la PDO e l’AMO.

In particolare, gli autori dimostrano, analizzando i “pattern” spaziali e temporali delle variabilità naturali desunte dalla decomposizione delle serie storiche e dei fenomeni oscillatori suddetti, che:

  • la IAV, cioè la variabilità naturale inter-annuale è determinata in gran parte dai cicli dell’ENSO 3.4;
  • la IDV, cioè la variabilità naturale inter-decadale, è influenzata dai cicli della PDO e dell’AMO;
  • la MDV, cioè la variabilità naturale di lungo periodo, è determinata in gran parte dai cicli dell’AMO.

Dimostrate queste analogie, gli autori hanno calcolato che:

  • il trend secolare dovuto al forcing antropico dagli anni ’20 del secolo scorso ad oggi, si è mantenuto grosso modo costante e pari a +0,1 / +0,13 °C/decade;
  • la IAV e la IDV hanno determinato lo hiatus 1998-2013 (trend +0,08 °C/decade), a causa del trend negativo che hanno mostrato in quegli anni (-0,06 °C/decade e -0,05 °C/decade rispettivamente), nonostante i trend positivi di ST (+0,13 °C/decade) e MDV (pari a +0,05 °C/decade);
  • l’alto tasso di crescita della temperatura media globale nel periodo 1975-1998 (trend +0,16 °C/decade) non è stato quindi, causato soltanto dal forcing antropico (che ha contribuito con +0,11 °C/decade) ma anche dalla variabilità naturale di lungo periodo, l’MDV, che ha presentato un trend di +0,05 °C/decade, con le altre variabilità naturali a trend nulli.

Visto che l’AMO è in procinto di passare in fase negativa è plausibile prevedere un nuovo hiatus del riscaldamento globale nei prossimi decenni, a meno di eventi di NINO 3.4 particolarmente intensi.

Insomma, gli autori di questo interessante paper hanno dimostrato ciò che chiunque dotato di cervello, ed etica, aveva da sempre sostenuto: l’andamento non stazionario e non lineare delle temperature medie globali, oltre che dal forcing antropico, è determinato da altre variabilità naturali. In particolare, secondo il paper stesso, esistono almeno tre variabilità a frequenze differenti: inter-annuali, inter-decadali e multi-decadali determinate in gran parte dall’ENSO 3.4, dalla PDO e dall’AMO (sarebbe interessante, aggiungo, io valutare analogie di queste variabilità naturali anche con i cicli solari).

Non tenerne conto nei modelli climatici, basati in prevalenza sul forcing antropico, produce l’incapacità degli stessi di ricostruire eventi di bassa crescita del riscaldamento come lo hiatus 1998-2013 conducendo, quindi, a potenziali previsioni distorte anche sui trend futuri.

______________________________________

[1] https://doi.org/10.1007/s00382-019-04955-2

[2] N. E. Huang, Z. Shen, S. R. Long, M. L. Wu, H. H. Shih, Q. Zheng, N. C. Yen, C. C. Tung, and H. H. Liu. The empirical mode decomposition and hilbert spectrum for nonlinear and nonstationary time series analysis. Proc. Roy. Soc. London A, 454, 903–995, 1998.

[3] a differenza della “trasformata di Fourier” che richiede che il segnale da analizzare sia stazionario, lineare e scomponibile in una serie di sinusoidi

[4] In particolare nello studio è stata utilizzata una sua variante denominata EEMD, ovvero: Ensamble Empirical Mode Decomposition

Facebooktwittergoogle_pluslinkedinmail

Il summit della disillusione

Posted by on 11:57 in Attualità, Climatologia | 17 comments

Il summit della disillusione

Il 23 settembre scorso è andato in scena il summit climatico organizzato dall’ONU, per cercare di concretizzare i generici impegni delle Conferenze delle Parti successive a quella di Parigi del 2015. Chi segue queste vicende, certamente ricorderà che a Parigi, in occasione della COP21, tutti i Paesi del globo terraqueo si “impegnarono” a prendere tutte le iniziative necessarie a mantenere l’innalzamento della temperatura terrestre media globale “ben al di sotto dei 2°C” e “possibilmente” al di sotto di 1,5°C.

Nelle tre COP successive i famosi impegni di Parigi (meglio noti come Accordo di Parigi) non si sono trasformati in azioni concrete ed impegni vincolanti per i firmatari dell’Accordo. Credo che tutti ricorderanno che l’Accordo di Parigi NON è vincolante per i sottoscrittori. Non sono previste sanzioni per coloro che vengono meno agli impegni presi, per cui tutto è demandato alla buona volontà delle Parti. Per noi europei le cose non stanno esattamente così, perché l’Unione Europea emana sempre più spesso Direttive in cui gli impegni presi in ambito internazionale assumono valore prescrittivo e vincolante, ma, è notorio, che noi siamo i primi della classe in quanto ad autolesionismo.

Sono anni che seguo con attenzione gli incontri internazionali che pongono al centro dell’attenzione, le vicende legate al  cambiamento climatico in atto e sono anni che aspetto che succeda qualcosa di concreto, in un senso o nell’altro. Vorrei che si pronunciasse in modo chiaro e definitivo la sentenza: dobbiamo ridurre le emissioni e versare i famigerati 100 miliardi di dollari ai Paesi in via di sviluppo o mettere fine a questi inutili rituali che non hanno alcuna ricaduta concreta sulle vicende climatiche. Le emissioni di gas serra continuano infatti ad aumentare nonostante gli impegni presi dai Capi di Stato e di Governo mondiali.

In questo quadro non mi aspettavo nulla di particolarmente eclatante da questa ennesima passerella di Capi di Stato, ma, come si sa, la speranza è l’ultima a morire e, quindi, mi sono messo d’impegno a cercare di capire se qualcosa bollisse in pentola. Anche perché nel frattempo c’è stata la mobilitazione di milioni di giovani al seguito dell’eroina climatica Greta Thunberg. Vuoi vedere, mi sono chiesto, che questa volta qualcosa si vedrà?

Alla fine del summit del 23 settembre dobbiamo registrare però l’ennesimo fallimento. Le posizioni non si sono mosse neanche di un millimetro rispetto a quanto già si sapeva. I discorsi dei Capi di Stato e di Governo convenuti a New York, non sono andati al di là di generiche dichiarazioni di buona volontà. Eppure il Segretario Generale dell’ONU aveva chiesto ai partecipanti di presentarsi con dei piani chiari e concreti e non con “generiche” dichiarazioni di buona volontà prive di effetti pratici.

Chi ci è rimasta peggio di tutti è stata la povera Greta Thunberg che, tra le lacrime, ha pronunciato un accorato discorso, in cui ha preso a pesci in faccia i partecipanti al summit, accusandoli di averle rubato l’infanzia ed i sogni. Ha esordito ammettendo che si trovava a vivere una vicenda del tutto sbagliata: doveva essere a scuola dall’altra parte dell’oceano e invece si trovava ad assistere ad un pietoso spettacolo, in cui i responsabili del disastro climatico in atto, invece di presentare piani d’azione concreti, si limitavano a sterili ed inutili esibizioni oratorie. Per la prima volta ho visto vacillare la vestale della lotta ai cambiamenti climatici ed alle disuguaglianze sociali. Per la prima volta ho avuto l’impressione che ella si stia rendendo conto dell’inutilità della sua lotta. E per la prima volta mi è sembrato di individuare i danni prodotti da anni di sovraesposizione mediatica. Mi auguro, per il suo bene, di sbagliarmi e che la mia analisi sia frutto di una clamorosa cantonata. Spero che quello di Greta, sia il discorso di una grande attrice e che abbia recitato un copione.

A parte le lacrime e la rabbia di Greta Thunberg, nulla di rilevante è emerso dal summit organizzato dall’ONU. Dobbiamo registrare addirittura qualche passo indietro. Nazioni come Australia, Corea del Nord, Arabia Saudita, Giappone e Brasile non hanno presentato alcun piano d’azione. Gli Stati Uniti non hanno proprio preso parte alla discussione: il presidente Trump ha assistito dalla platea agli interventi della cancelliera Merkel e del primo ministro indiano Modi e poi ha lasciato l’Assemblea. Ha applaudito l’intervento di Modi che, però, si è limitato a dichiarare un aumento della produzione di energia da fonti rinnovabili entro il 2022, senza accennare minimamente ad una riduzione dell’uso del carbone. Il presidente turco Erdogan ha detto a chiare lettere che il suo Paese non rinuncerà all’uso del carbone, in forte crescita, a meno che non venga riconosciuto alla Turchia lo status di Paese in via di sviluppo, con il conseguente supporto finanziario da parte dei Paesi sviluppati.

La Cina si è limitata a ribadire l’intenzione di rispettare gli impegni di Parigi, ma non ha manifestato alcuna intenzione di assumerne di più ambiziosi. A ciò non è estranea la guerra commerciale in corso con gli USA che, secondo il rappresentante cinese, si sono sottratti anche agli impegni di Parigi.

L’UE non ha potuto fare niente di più di quanto già fatto a Parigi nel 2015. Polonia, Estonia, Ungheria e Repubblica Ceca non sono disposte a fare ulteriori concessioni in materia di riduzione delle emissioni.

In questo quadro desolante una sessantina di Paesi hanno dichiarato che intendono assumere entro il 2020 impegni più ambiziosi di quelli di Parigi (senza spiegare, però, come faranno) e circa una settantina intendono raggiungere entro il 2050 l’obiettivo delle emissioni zero. Tutti insieme rappresentano, però, meno del 20% delle emissioni globali di CO2. Campa cavallo!

Registrato questo ennesimo fallimento globale, ci predisponiamo alla prossima COP. Sarà la venticinquesima e, viste le premesse, credo che assisteremo al 25° nulla di fatto.

Related Posts Plugin for WordPress, Blogger...Facebooktwittergoogle_pluslinkedinmail
Translate »