Climate Lab – Fatti e Dati in Materia di Clima

Tra la fine del 2015 e l’inizio del 2016, poco dopo la fine della COP21 di Parigi, abbiamo messo a punto un documento pubblicato nella sua interezza (e scaricabile qui in vari formati) con il titolo “Nullius in Verba, fatti e dati in materia di clima”. L’idea è nata dall’esigenza di far chiarezza, ove possibile e nei limiti dell’attuale conoscenza e letteratura disponibili, in un settore dove l’informazione sembra si possa fare solo per proclami, quasi sempre catastrofici.

Un post però, per quanto approfondito e per quanto sempre disponibile per la lettura, soffre dei difetti di tutte le cose pubblicate nel flusso del blog, cioè, invecchia in fretta. Per tener vivo un argomento, è invece necessario aggiornarlo di continuo, espanderlo, dibatterle, ove necessario, anche cambiarlo. Così è nato Climate Lab, un insieme di pagine raggiungibile anche da un widget in home page e dal menù principale del blog. Ad ognuna di queste pagine, che potranno e dovranno crescere di volume e di numero, sarà dedicato inizialmente uno dei temi affrontati nel post originario. Il tempo poi, e la disponibilità di quanti animano la nostra piccola comunità, ci diranno dove andare.

Tutto questo, per mettere a disposizione dei lettori un punto di riferimento dove andare a cercare un chiarimento, una spiegazione o l’ultimo aggiornamento sugli argomenti salienti del mondo del clima. Qui sotto, quindi, l’elenco delle pagine di Climate Lab, buona lettura.

  • Effetti Ecosistemici
    • Ghiacciai artici e antartici
    • Ghiacciai montani
    • Mortalità da eventi termici estremi
    • Mortalità da disastri naturali
    • Livello degli oceani
    • Acidificazione degli oceani
    • Produzione di cibo
    • Global greening

____________________________________

Contenuti a cura di Luigi Mariani e revisionati in base ai commenti emersi in sede di discussione e per i quali si ringraziano: Donato Barone, Uberto Crescenti, Alberto Ferrari, Gianluca Fusillo, Gianluca Alimonti, Ernesto Pedrocchi, Guido Guidi, Carlo Lombardi, Enzo Pennetta, Sergio Pinna e Franco Zavatti.

Ruminanti: I tanti meriti e il presunto effetto “Climalterante”

Posted by on 07:00 in Ambiente, Attualità | 5 comments

Ruminanti: I tanti meriti e il presunto effetto “Climalterante”

di Giuseppe Bertoni e Luigi Mariani

In un loro articolo del luglio 2019 dal titolo “Are U.S. cattle causing an increase in global warming?” (luglio 2019) i ricercatori Clarece Rotz (Usda – Ars) e Alan Hristov (Penn State University – College of Agricultural Sciences) ricordano che nell’ultimo decennio la zootecnia bovina è stata da moltissime parti posta sul banco degli accusati in quanto ritenuta causa importante dei cambiamenti climatici in atto sul pianeta Terra. In effetti anche in Italia i “media” si fanno spesse volte vettori dell’invito a “smettere” di mangiare carni (specie quelle rosse) e talora anche il latte (appello che giunge soprattutto dai vegani), con il duplice obiettivo di salvaguardare l’ecosistema e di ridurre le più o meno gravi malattie attribuite agli alimenti di origine animale.

Alcune considerazioni sull’impatto ambientale delle produzioni zootecniche

Prendendo dunque spunto dallo scritto dei colleghi Rotz e Hristov vorremmo intervenire con alcune puntualizzazioni sulle reali conseguenze ambientali degli allevamenti e dei più osteggiati in assoluto che sono, manco a dirlo, quelli intensivi, limitandoci per motivi di spazio agli aspetti legati alle emissioni di gas a effetto serra. Al riguardo rammentiamo allora che:

  • Sia il metano rilasciato dall’apparato digerente dei ruminanti e ceduto all’atmosfera per eruttazione sia il protossido d’azoto emesso dalla decomposizione delle loro deiezioni entrano a far parte, insieme all’anidride carbonica, del pool di gas a effetto serra, una “coperta” senz’altro benemerita perché protegge la Terra dall’eccessivo raffreddamento ma il cui eccesso corre il rischio di “farci sudare”;
  • L’anidride carbonica, pure rilasciata da vari processi, fra cui quelli vitali degli esseri viventi compresi i ruminanti, ha anch’essa un effetto “coperta” – ma può essere sottratta all’atmosfera dal processo di fotosintesi nelle piante che producono le sostanze nutritive che gli stessi esseri viventi hanno utilizzato rilasciando tale gas; dunque la CO2 emessa in agricoltura fa parte di un ciclo che la vede come frutto di CO2 prima assimilata con la fotosintesi, il che costituisce una differenza essenziale rispetto alla CO2 rilasciata bruciando combustibili fossili (petrolio, gas, carbone ecc.), a sua volta assorbita per la fotosintesi ma da piante vissute in epoche antidiluviane e stoccata nelle viscere della terra da milioni di anni;
  • Del ciclo di cui al punto precedente è parte anche il metano, il quale tuttavia può tornare in “circolo” solo subendo un’ossidazione sino a CO2 (figura 1), processo fotochimico lento che richiede circa 12 anni per essere completato (comunque è bene tenerne conto, perché significa che l’effetto negativo del metano non è “eterno”);
  • Dunque, è vero che il metano proveniente dal rumine rappresenta un contributo all’“appesantimento” dell’effetto “coperta” rispetto a quanto avveniva nel passato anche recente? Non esattamente, poiché laddove vi sono oggi ruminanti allevati (bovini, bufali, pecore, capre, yak ecc.) vi erano in passato ruminanti selvatici (bisonti, cervi, caprioli, mufloni, bufali, gazzelle, antilopi ecc.), la cui produzione di metano non era certo da meno. Ad esempio uno dei due autori citati prima (Hristov) ha pubblicato nel 2012 un articolo scientifico secondo cui negli Usa le emissioni di CH4 degli allevamenti attuali sono pari all’86% di quelle dei ruminanti selvatici dell’America pre-colombiana. Quest’ultima considerazione è giustificata anche dal fatto che negli ultimi decenni l’efficienza delle produzioni animali, specie del latte, è aumentata in maniera notevolissima e ciò ha fatto “crollare” i gas serra emessi per unità di prodotto[1].
  • Si noti che – a differenza della vulgata “politicamente corretta” che spinge per il ritorno dell’agricoltura a pratiche tipiche di un passato di miseria e di fame, il crollo dei gas serra si è verificato nei tanto vituperati allevamenti intensivi e non certo negli allevamenti estensivi e tantomeno nel caso delle vacche indiane che, in numero di 180 milioni, poco o nulla producono in termini di alimenti utili all’uomo e tantissimo emettono, senza che nessuno vi faccia “mente locale”. Giustamente si obietterà che, essendo le produzioni animali in continua crescita, le quantità assolute di gas serra vanno pure aumentando; verissimo, ma se è necessario produrre di più, non è certo per responsabilità degli allevamenti, bensì dei consumi più elevati che derivano dall’essenzialità delle produzioni zootecniche per la sana alimentazione di una popolazione mondiale in continua crescita, come cercheremo di argomentare nei punti seguenti.
  • Si noti anche che dall’articolo scientifico di Anne Mottet e altri dal titolo “Livestock: On our plates or eating at our table? A new analysis of the feed/food debate”, uscito nel 2017 sulla rivista scientifica Global Food Security (elsevier.com/locate/gfs) emerge che il bestiame contribuisce in modo sensibile alla sicurezza alimentare globale, fornendo macro e micronutrienti essenziali, lavoro e sottoprodotti – concimi, pellami, calore, ecc. – e generando reddito. Sempre Mottet et al., analizzando le razioni globali di foraggi-mangimi e le percentuali della loro conversione in cibo per l’uomo, stimano che il bestiame consumi annualmente come mangime 6 miliardi di tonnellate di sostanza secca, incluso un terzo della produzione mondiale di cereali. Di questi 6 miliardi, l’86% è costituito da alimenti non edibili per l’uomo. Inoltre produrre 1 kg di carne disossata richiede in media 2,8 kg di mangime commestibile per l’uomo nei sistemi a ruminanti (bovini, ovi-caprini) e 3,2 kg in quelli a monogastrici (suini, equini, avicunicoli, ecc.). Gli autori segnalano infine che la zootecnia consuma sì il 33% dei cereali ma produce il 25% delle proteine e il 18% delle calorie delle diete umane.
  • Le conclusioni di Mottet appaiono complementari a quelle raggiunte da Paolo Tessari, Anna Lante e Giuliano Mosca i quali nel loro articolo “Essential amino acids: master regulators of nutrition and environmental footprint?” pubblicato su Nature Scientific Reports nel 2016, si sono proposti di verificare il preconcetto secondo cui a parità di calorie o di peso secco, l’impronta ambientale degli alimenti di origine vegetale sarebbe di molte volte inferiore rispetto a quella degli alimenti di origine animale. Gli autori evidenziano che in tali confronti un aspetto spesso trascurato è il valore nutrizionale degli alimenti, visto soprattutto in termini di aminoacidi essenziali (EAA); ad essi fanno dunque riferimento i predetti autori nel valutare l’impronta ambientale (espressa sia come uso del suolo per la produzione sia come emissione di gas serra) di alcuni alimenti animali e vegetali in grado di fornire un apporto di EAA confacente ai requisiti umani. Il risultato ottenuto è che la produzione di proteine ​​in quantità sufficienti per corrispondere alle necessità giornaliere di EAA di un essere umano adulto richiede una quantità di suolo e un’emissione di gas serra che per le proteine animali non è molto diversa da quella necessaria per produrre proteine ​​vegetali. Questa nuova analisi ridimensiona il luogo comune secondo cui in termini d’impronta ambientale sarebbe assai più conveniente produrre proteine di origine vegetale rispetto a quelle di origine animale.
  • Da segnalare infine il lavoro di Williams e Hill (2017) i quali osservano che le diete ricche di cereali e povere di alimenti di origine animale e dunque di niacina[2], proprie del periodo successivo alla rivoluzione neolitica e che oggi persistono in vaste aree del globo, si sono tradotte in una elevata fertilità che è funzionale al fatto di colonizzare nuovi territori ma che ha come aspetti negativi una minore salute (più elevata sensibilità alle infezioni croniche, minore resistenza ai patogeni), un’altezza ridotta e minori capacità cognitive. La conclusione cui gli autori giungono è pertanto che gli alimenti di origine animale ricchi di niacina portano ad una naturale limitazione della fecondità umana oltre a dare effetti positivi su sviluppo, longevità e capacità intellettive degli individui. In sostanza dunque, secondo i predetti autori, sono le diete ricche di carboidrati a rendere il tasso di fecondità più elevato e dunque sarebbe auspicabile diffondere nei PVS alimenti di origine animale (anche in forma di latte, uova o fonti non convenzionali come gli insetti) per ottenere nel medio-lungo periodo una serie di effetti benefici fra cui (i) popolazioni umane più sane, più longeve ed intellettualmente più vivaci, (ii) riduzione del trend all’aumento della popolazione mondiale e delle conseguenti pressioni sull’ecosistema, (iii) riduzione nei ritmi di estinzione delle specie spontanee dovuta alla caccia di frodo a sua volta spinta dalla cronica carenza di niacina nelle popolazioni povere. In sostanza gli autori propongono l’idea, all’apparenza contro-intuitiva, che diete onnivore siano alla fine più sostenibili sul piano ecologico rispetto a quelle vegane, con ciò minando alcuni dei pilastri di un’ecologia a base ideologica che vorrebbe renderci tutti erbivori.

Figura – La produzione di metano da parte dei bovini fa parte del ciclo naturale del carbonio. Si noti che il metano si ossida nell’atmosfera convertendo il carbonio in CO2 che può essere fissata con la fotosintesi andando a produrre foraggi e mangimi con cui il bestiame si alimenta. All’interno di questo ciclo non vi è alcun impatto a lungo termine sul clima se le emissioni di metano e i processi di ossidazione restano in equilibrio.

Conclusioni

Dai dati sopra esposti emerge dunque che i prodotti di origine animale hanno moltissimi vantaggi per un onnivoro come l’uomo e che le emissioni degli animali da allevamento costituiscono una frazione della CO2 assorbita con la fotosintesi, componente del ciclo del carbonio essenziale per la vita sul nostro pianeta.

Ciò non significa che non vi sia spazio (e utilità) nel contenere il rilascio di gas serra da parte degli allevamenti, a partire dal miglioramento dei processi nel rumine, per passare ai mezzi che consentono l’aumento di produzione, per finire con una più razionale gestione delle deiezioni; il tutto per accrescere l’efficienza del sistema, obiettivo che – si noti bene –è assai più compatibile con gli allevamenti correttamente gestiti (intensivi) e non certo con quelli “presunti naturali”.

Da ultimo, si concorda con il suggerimento che in talune circostanze sia auspicabile promuovere la riduzione del consumo di carni rosse e di latte nei Paesi occidentali (talvolta in eccesso); per contro, nei Paesi poveri riteniamo assolutamente necessario aumentarlo.

Bibliografia

Capper J.L., Cady R.A., Bauman D.E., 2009. The environmental impact of dairy producti on: 1944 compared with 2007, J Anim Sci. 2009 Jun;87(6):2160-7

  • Hristov A.N., 2012. Historic, pre-European settlement, and present-day contribution of wild ruminants to enteric methane emissions in the United States, Journal of animal science, 2012, 90: 1371-1375.

Rotz C., Hristov A., 2019. Are U.S. cattle causing an increase in global warming?, Fact Sheet 21 in the Series: Tough Questions about Beef Sustainability,  https://www.beefresearch.org/CMDocs/BeefResearch/Sustainability_FactSheet_TopicBriefs/ToughQA/21_GlobalWarming.pdf

Tessari P., Lante A., Mosca G., 2016. Essential amino acids: master regulators of nutrition and environmental footprint? Scientific Reports 6, doi:10.1038/srep26074

Williams A.C. &  Hill L.J., 2017. Meat and Nicotinamide – A Causal Role in Human Evolution, History, and Demographics, International Journal of Tryptophan Research, Volume 10: 1–23, DOI: 10.1177/1178646917704661

[1] Al riguardo Capper et al (2009) evidenziarono che la zootecnia da latte statunitense del 1944, basata su bovine meno produttive allevate al pascolo, emetteva 3.6 kg di CO2 per litro di latte “al bicchiere del consumatore”, mentre oggi con una zootecnia intensiva praticata in grandi stalle aperte e basata su bovine geneticamente migliorate, l’emissione è di circa 1 kg di CO2 per litro di latte.

[2] Il tema è complesso e speriamo che la seguente nota esplicativa possa aiutare a chiarire la questione. Per il metabolismo umano è essenziale il coenzima NAD (Nicotinammide Adenin Dinucleotide – https://it.wikipedia.org/wiki/Nicotinammide_adenina_dinucleotide) che il nostro organismo produce a partire dalla niacina (vitamina B3, presente anche negli alimenti vegetali). Se carente, la stessa niacina può essere sintetizzata a partire dal triptofano (amminoacido poco presente in alimenti vegetali, ma più o meno elevato in quelli animali), già nell’intestino per azione dei batteri, ma anche nei tessuti. Negli alimenti la niacina è presente nei vegetali, ma in particolare in alcuni di origine animale; il fabbisogno umano, espresso in termini di niacina, è di 15-20 mg al giorno e non sempre le diete garantiscono il soddisfacimento di tale fabbisogno. Ad esempio il mancato soddisfacimento si ha con diete vegetali e monotone, specie quelle basate su farina di mais, la quale è povera di triptofano, mentre la  niacina è presente in buona misura, ma in una forma non utilizzabile dal nostro organismo. La conseguente carenza si traduce in una malattia terribile nota come pellagra e che dà luogo sia a potenti eruzioni cutanee (da cui il nome) sia a danni cerebrali irreversibili (demenza). Anche latte e uova prevengono la pellagra, ma in quanto si tratta di alimenti ricchi di triptofano; per contro, le carni la prevengono perché più o meno ricche di niacina.

Facebooktwittergoogle_pluslinkedinmail

Sorpresa, Greta Thunberg ha 50 anni!

Posted by on 15:06 in Ambiente, Attualità | 4 comments

Sorpresa, Greta Thunberg ha 50 anni!

Chissà come la prenderanno le centinaia di migliaia, no, milioni di giovani che nella teen ager svedese paladina del clima e del pianeta si sono giustamente identificati negli ultimi mesi. Grata Thunberg ha 50 anni, non 17 appena compiuti. Non solo, non ha le trecce e porta anche i baffi e un accenno di pizzetto quindi, presumibilmente, ha anche attributi, ehm… diversi. Infine, naturalmente, non si chiama Greta, ma Svante, nome proprio maschile piuttosto comune in Scandinavia che chiarisce quanto sopra.

In fondo chi siamo noi se non quello che facciamo, diciamo, sosteniamo nel nostro vivere quotidiano? Ecco, pur essendo Greta effettivamente una ragazza di 17 anni molto impegnata sul piano climatico e ambientale, quel che fa, dice, sostiene non è, a quanto pare farina del suo sacco, quanto piuttosto appunto di tal Svante, che essendo il suo papà, si chiama anche lui Thunberg.

Come lo sappiamo? Ecco qua.

Giovedì scorso gli amministratori di Facebook hanno messo on line una modifica ai codici del padre di tutti i social media, niente di che, normale routine manutentiva. La modifica ha però avuto una conseguenza imprevista, come spesso accade quando si ha a che fare con programmi monstre come in effetti deve essere quello che gestisce tutte le funzioni di Facebook. Per effetto di questa modifica, è stato possibile per alcune ore visualizzare quali account, quindi quali utenti gestiscono effettivamente le pagine di altri utenti o account. Del resto aziende, personaggi pubblici, realtà pubbliche o private con centinaia di migliaia se non milioni di follower e con tantissime cose da fare, devono per forza essere gestite da terzi, spesso anche più di uno o veri e propri team. Per esempio, con riferimento ai personaggi politici, è nota la professione di spin doctor, cioè di esperti del settore che gestiscono tutta la vita social del soggetto di turno.

Il punto è che questi alter ego dovrebbero restare anonimi, altrimenti l’utente assetato del verbo del proprietario dell’account potrebbe non gradire capendo di aver a che fare con qualcun altro che gli, diciamo così, confeziona il messaggio. Il bug nel codice di Facebook è stato riparato venerdì mattina ma, nel frattempo, su alcuni altri social, qualcuno si è preso la briga di pubblicare gli screenshot che esponevano i nomi di chi opera dietro le pagine di un bel numero di personaggi famosi. E così, tra un ministro degli esteri straniero la cui pagina è gestita dalla fidanzata, tra i nomi (alcuni reali!) degli attivisti hacker dietro le pagine di Anonimous, è comparso anche l’editor della pagina di Greta Thunberg, appunto il suo papà, attore svedese cinquantenne, il cui pari impegno ambientale è fuori discussione, ma il cui fascino, come dire, di capopolo della rivolta giovanile ambientale è, a tutti gli effetti, alquanto deficitario.

La faccenda è spiegata bene qui, su Wired.

A questo punto sarebbe interessante sapere cosa pensa davvero Greta, quella vera, quale potrebbe essere in effetti il prodotto dei suoi pensieri e dei suoi ragionamenti proprietari, una volta privata dello smaliziato editor nonché genitore. Se poi voleste dare anche un’occhiata al sistema di marketing mediatico (e non solo) che gira a sua volta dietro, davanti e tutto attorno alla famiglia Thunberg potete fare un salto qui, ma, arrivando sulla pagina, per cortesia leggete per prima l’ultima parte dell’articolo, quella in cui è chiarito, per l’ennesima volta che l’interesse per i temi del clima, per l’ambiente e per la salvaguardia del nostro pianeta non sono in discussione, anzi, sono una cosa seria e come tali vanno trattati. Le campagne mediatiche di generazione di eroi dovrebbero quindi restarne fuori, per il bene stesso degli eroi, specie se sono dei ragazzini.

PS: pare che gli editor in realtà siano due, c’è anche tal Adarsh Prathap, che si definisce “climate crisis activist” sul profilo twitter personale. Va da se’ che senza una crisi climatica su cui essere attivi il nostro non avrebbe gran che da fare… 😉

 

Facebooktwittergoogle_pluslinkedinmail

Un Mese di Meteo – Novembre 2019

Posted by on 07:00 in Attualità, Climatologia, Commenti mensili, Meteorologia | 0 comments

Un Mese di Meteo – Novembre 2019

IL MESE DI NOVEMBRE 2019[1]

Mese segnato del predominio pressoché continuo di condizioni di tempo instabile con precipitazioni quasi ovunque al di sopra della norma e temperature nella norma nelle prime due decadi e in debole o moderata anomalia positiva nella terza.

La topografia media mensile del livello di pressione di 850 hPa (figura 1a) mostra la nostra area interessata da una saccatura con asse nord-sud collocato sul Mediterraneo Occidentale e associata a una cintura di basse pressioni estesa dall’Atlantico Nordoccidentale al mare del Nord, il che è sintomo del netto prevalere di condizioni di tempo perturbato. Tale analisi è confermata dalla carta delle isoanomale (figura 1b) che indica la presenza di una spiccata anomalia negativa sulla nostra area. A conferma di tale anomalia vi è anche la graduatoria dei diversi tipi di tempo proposta in tabella 1, da cui si evince la presenza di ben 14 giorni interessati da una saccatura (depressione a forma di V) con asse da Nord (tipo di tempo 1) seguiti da 7 giorni con regime zonale (tipo 17) e da 5 giorni con saccatura da nordovest (tipo5).

Figure 1a – 850 hPa – Topografie medie mensili del livello di pressione di 850 hPa (in media 1.5 km di quota). Le frecce inserire danno un’idea orientativa della direzione e del verso del flusso, di cui considerano la sola componente geostrofica. Le eventuali linee rosse sono gli assi di saccature e di promontori anticiclonici.

Figura 1b – 850 hPa – carte delle isoanomale del livello di pressione di 850 hPa.

La variabilità del “giorno per giorno” intorno alla struttura circolatoria media sopra delineata si è manifestata con il transito di 7 perturbazioni che hanno interessato in tutto o in parte il territorio nazionale e che sono state registrate rispettivamente l’1 novembre, dal 2 al 7, dall’8 al 10, dall’11 al 13, dal 14 al 19, dal 20 al 25 e dal 27 al 29, garantendo una sostanziale continuità di condizioni di tempo instabile (tabella 2). I due giorni più piovosi sono stati il 24 e il 15 novembre al Nord, rispettivamente con medie di 26,5 e 21,7 mm, il 24 e il 3 novembre al Centro con medie di 19,9 e 17,7 mm e il 24 e il 12 novembre al Sud come medie di 24,9 e 18,4 mm.

Per Milano e Roma un’idea di massima il livello di anomalia della piovosità del novembre 2019 ci viene dai dati in tabella 3 che mostra i 20 mesi di novembre più piovosi delle intere serie che sono fra le più lunghe in Italia. Il 2019 si colloca al 13° posto per Milano e al 16° per Roma.

Andamento termo-pluviometrico

A livello mensile (figure 2 e 3) le temperature medie sono risultate per lo più nella norma nei massimi e in lieve anomalia positiva nei minimi. A livello pluviometrico mensile le figure 4 e 5 mostrano l’abbondante piovosità e le sensibili anomalie positive registrate. Anomalie negative a carattere locale si evidenziano unicamente sulla parte est della Sardegna e su alcune località del versante adriatico.

Figura 2 – TX_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle massime del mese

Figura 3 – TN_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle minime del mese

Figura 4 – RR_mese – Carta delle precipitazioni totali del mese (mm)

Figura 5 – RR_anom – Carta dell’anomalia (scostamento percentuale rispetto alla norma) delle precipitazioni totali del mese (es: 100% indica che le precipitazioni sono il doppio rispetto alla norma)

L’analisi decadale (tabella 4) mostra a livello termico le prime due decadi del mese in lieve anomalia negativa nei massimi e nella norma nei minimi seguite dalla terza decade in anomalia positiva da debole a moderata tanto nei massimi quanto nei minimi. A livello pluviometrico invece l’anomalia positiva è stata registrata sui tre macrosettori e sulle tre decadi del mese, con l’unica eccezione del centro Italia che nella seconda decade ha presentato piovosità nelle norma.

(*) LEGENDA:

Tx sta per temperatura massima (°C), tn per temperatura minima (°C) e rr per precipitazione (mm). Per anomalia si intende la differenza fra il valore del 2013 ed il valore medio del periodo 1988-2015.

Le medie e le anomalie sono riferite alle 202 stazioni della rete sinottica internazionale (GTS) e provenienti dai dataset NOAA-GSOD. Per Nord si intendono le stazioni a latitudine superiore a 44.00°, per Centro quelle fra 43.59° e 41.00° e per Sud quelle a latitudine inferiore a 41.00°. Le anomalie termiche positive sono evidenziate in giallo(anomalie deboli, fra 1 e 2°C), arancio (anomalie moderate, fra 2 e 4°C) o rosso (anomalie forti,di  oltre 4°C), analogamente per le anomalie negative deboli (fra 1 e  2°C), moderata (fra 2 e 4°C) e forti (oltre 4°C) si adottano rispettivamente  l’azzurro, il blu e il violetto). Le anomalie pluviometriche percentuali sono evidenziate in  azzurro o blu per anomalie positive rispettivamente fra il 25 ed il 75% e oltre il 75% e  giallo o rosso per anomalie negative rispettivamente fra il 25 ed il 75% e oltre il 75% .

Le analisi di anomalia termica globale divergono in quanto la carta del Deutscher Wetterdienst (figura 6b)  evidenzia una moderata anomalia positiva sull’Italia mentre la carta dell’Università dell’Alabama (figura 6a) mostra la nostra area per lo più nella norma e che risulta collocata nell’area di transizione fra un’area a moderata anomalia negativa su Gran Bretagna, Francia e Vicino Atlantico e un’area a moderata anomalia positiva sull’Europa Centro-Orientale. La divergenza si giustifica con il diverso periodo di riferimento assunto per le due analisi (1961-1990 per quella del Deutscher Wetterdienst e 1981-2010 per quella dell’Università dell’Alabama). Si noti inoltre che l’analisi dell’Università dell’Alabama presenta un dettaglio areale sensibilmente maggiore.

Figura 6a – UAH Global anomaly – Carta globale dell’anomalia (scostamento rispetto alla media 1981-2010 espresso in °C) della temperatura media mensile della bassa troposfera. Dati da sensore MSU UAH [fonte Earth System Science Center dell’Università dell’Alabama in Huntsville – prof. John Christy (http://nsstc.uah.edu/climate/)

Figura 6b – DWD climat anomaly – Carta globale dell’anomalia (scostamento rispetto alla media 1961-1990 espresso in °C) della temperatura media mensile al suolo. Carta frutto dell’analisi svolta dal Deutscher Wetterdienst sui dati desunti dai report CLIMAT del WMO [https://www.dwd.de/EN/ourservices/climat/climat.html).

 

[1]              Questo commento è stato condotto con riferimento alla  normale climatica 1988-2017 ottenuta analizzando i dati del dataset internazionale NOAA-GSOD  (http://www1.ncdc.noaa.gov/pub/data/gsod/). Da tale banca dati sono stati attinti anche i dati del periodo in esame. L’analisi circolatoria è riferita a dati NOAA NCEP (http://www.esrl.noaa.gov/psd/data/histdata/). Come carte circolatorie di riferimento si sono utilizzate le topografie del livello barico di 850 hPa in quanto tale livello è molto efficace nell’esprimere l’effetto orografico di Alpi e Appennini sulla circolazione sinottica. L’attività temporalesca sull’areale euro-mediterraneo è seguita con il sistema di Blitzortung.org (https://www.lightningmaps.org/blitzortung/europe/https://www.lightningmaps.org/blitzortung/europe/index.php?bo_page=archive&lang=de)

Facebooktwittergoogle_pluslinkedinmail

Il Rapporto Speciale sull’Oceano e la Criosfera in un Clima che Cambia: alcune considerazioni (1)

Posted by on 07:00 in Attualità, Climatologia | 5 comments

Il Rapporto Speciale sull’Oceano e la Criosfera in un Clima che Cambia: alcune considerazioni (1)

Ogni anno, all’approssimarsi dell’annuale Conferenza delle Parti, l’IPCC pubblica un rapporto speciale, il cui scopo è quello di dare basi scientifiche ai lavori della Conferenza.  Anche quest’anno è stato pubblicato un corposo rapporto che ha per oggetto lo stato e l’evoluzione degli oceani e della criosfera. Per evidenti problemi di tempo, mi sono occupato solo del capitolo dedicato a quella che è stata una mia passione da sempre: il livello del mare e la sua variazione:

Chapter 4: sea level rise and implications for low-lying islands, coasts and communities

Leggere un rapporto dell’IPCC è sempre un’esperienza interessante anche se piuttosto faticosa. Il primo ostacolo da superare riguarda il glossario utilizzato dagli autori. Trattandosi di un rapporto di tipo scientifico, uno immagina che esso sia scritto nella “lingua della matematica” per usare una citazione di G. Galilei.  Nei rapporti IPCC sembra però che i numeri facciano un po’ paura. Questo che mi accingo a commentare, non fa eccezione. In questa prima parte mi limiterò a commentare il Riepilogo Esecutivo, ovvero quella parte del rapporto in cui si sintetizzano i contenuti sviluppati negli altri punti. In genere il riepilogo è destinato ai decisori politici ed a tutti coloro che non hanno voglia di invischiarsi nella parte più tecnica e, forse, questo è il motivo per cui i numeri latitano.

Uno dei pilastri su cui si fonda la scienza è la quantificazione delle proprietà di un certo fenomeno. Questa quantificazione può essere effettuata in modo deterministico o probabilistico. Nel primo caso si ottiene un numero assoluto, nel secondo un numero che rappresenta la probabilità che un certo evento accada o non accada. La probabilità che un certo evento si verifichi nel modo in cui noi ci aspettiamo (evento favorevole) è rappresentata da un numero compreso tra zero ed uno e, molto più spesso, dalla corrispondente percentuale. Se lancio una moneta, ho il 50% di probabilità che il risultato sia testa o, il che è lo stesso, ho una probabilità di 0,50 che esca testa.

L’IPCC non utilizza numeri per definire la probabilità di un evento, ma delle “definizioni standardizzate”.  Bisogna, quindi, tradurre le definizioni standardizzate in numeri e non sempre la cosa è immediata. Per quel che mi riguarda è un modo sciocco di rendere ancora più ermetico un contenuto che lo è di per se, ma è una mia opinione.

L’IPCC è “praticamente certo” che il livello del mare sia in aumento. Ciò significa che la probabilità che il livello del mare stia aumentando, è maggiore del 99%. Fino a qua le cose filano. Qualche problema comincia a sorgere per le probabilità più basse. Bisogna ricordarsi ogni volta che se si parla di “media confidenza” o di evento “incerto” la probabilità è compresa in una fascia piuttosto ampia che, grosso modo, oscilla intorno al 50%: praticamente equivale al lancio di una moneta.

Tutto ciò premesso, vediamo cosa è scritto nel Riepilogo Esecutivo. Secondo gli autori e, quindi, l’IPCC, è quasi certo che il livello del mare stia aumentando e, cosa molto più interessante, esiste elevata sicurezza che stia crescendo la velocità con cui esso aumenta: in pratica l’aumento del livello del mare sta accelerando. Diciamo che la probabilità che ciò stia accadendo realmente è molto alta: superiore al 90%. Questo sulla base delle misure altimetriche e mareografiche. Non sono molto d’accordo, ma della cosa ci occuperemo in altra sede, per ora supponiamo che il livello del mare aumenti  e che questo aumento avvenga in modo più rapido, mano a mano che passa il tempo. Il problema è quello di accertare le cause di questo aumento della velocità di variazione del livello del mare.

Il Rapporto dell’IPCC sostiene che la variazione del tasso di aumento del livello del mare sia dovuta al riscaldamento globale e, precisamente, alla dilatazione termica della massa oceanica, alla variazione del tasso di scioglimento delle calotte glaciali terrestri e del regime delle acque invasate a terra. Fino a qui non ho molto da obiettare, in quanto quelle descritte sono le grandezze fisiche che determinano il livello del mare e sono conosciute anche come componente sterica (dilatazione termica) e componente di massa (le altre due).

L’IPCC non fa ricerca in proprio: si limita a recensire le ricerche condotte da scienziati e pubblicate sulle riviste scientifiche. Ebbene, sulla base delle ricerche prese in considerazione dai revisori dell’IPCC,  il livello del mare deve crescere in un mondo più caldo. A questo punto le mie opinioni cominciano a divergere da quelle dell’IPCC e ciò non sulla base di idee preconcette,  ma dei numeri indicati dallo stesso IPCC.  Stando a quanto scritto nel report, infatti, nell’ultimo interglaciale (tra 116.000 e 129.000 anni fa) le temperature globali erano più calde di oggi da 0,5°C a 1°C ed il livello del mare era da 6 a 9 metri più alto di quello odierno. Se andiamo a guardare il grado di incertezza di queste conclusioni, ci accorgiamo che ciò che sta scritto nel report, limitatamente a questa circostanza, è stato accertato con una probabilità compresa tra il 50% ed il 66%. Un po’ bassa o è una mia impressione?

Qualche era geologica prima dell’ultimo interglaciale e, precisamente nel Periodo Caldo Medio Plocenico (tra 3,3 e 3 milioni di anni fa), le temperature globali erano più calde di quelle odierne da 2°C  a 4°C ed il livello del mare era più alto di oggi di circa 25 metri. Questo è stato accertato con un basso livello di confidenza. Diciamo che la probabilità che sia così, oscilla intorno al 20%.

A questo punto qualcosa non mi torna. Sembrerebbe, infatti, che da fatti caratterizzati da probabilità di accadimento oscillanti tra il 20% ed il 66% (per ben che vada), deriviamo la certezza (probabilità di accadimento maggiore del 90%) che in un mondo più caldo il livello del mare salirà a causa dello scioglimento delle calotte glaciali terrestri. E poi ci si meraviglia che alla COP 25 non hanno voluto dare il benvenuto a questo rapporto, così come alla COP 24 non lo vollero dare a quello di 1,5°C. Nel frattempo si strilla a destra ed a manca che la scienza è chiara, ma sono i politici che non vogliono capire. In particolare si dice che essi “non hanno paura” a sufficienza. Mi sembra difficile avere paura con questi numeri.

A questo punto potrebbe sembrare inutile proseguire nella lettura, ma non è vero perché nelle pagine successive si scoprono molte cose interessanti. La prima riguarda le conseguenze dell’aumento del livello del mare. Un livello del mare più alto dovrebbe causare degli eventi estremi più frequenti. Tali eventi estremi possono essere individuati in maggiori livelli di marea (acqua alta a Venezia, per esempio), aumento della frequenza di allagamenti di aree costiere (lagune, aree urbanizzate ed industrializzate), invasione delle falde idriche destinate ad usi potabili ed irrigui. Grossi problemi potrebbero aversi anche per le piccole isole, ovvero gli atolli corallini che si trovano a poche decine di centimetri al di sopra dell’attuale livello del mare. In contraddizione solo apparente con quanto discusso in precedenza, questi eventi sono da imputare per una percentuale significativa anche ad altre cause, diverse da quelle climatiche. L’IPCC individua queste cause nella subsidenza delle aree costiere a seguito dell’eccessivo emungimento di acque dalle falde freatiche, nell’alterazione degli ambienti costieri per far posto alle attività antropiche, nell’aumento della popolazione residente sulle sponde oceaniche e via cantando.

Sembra di capire, pertanto, che gli effetti dei cosiddetti eventi estremi legati al livello del mare, siano amplificati dalle mutate condizioni delle coste e dalla loro eccessiva urbanizzazione.  In altre parole essi potrebbero incidere nell’immaginario collettivo molto più che nel passato, a causa dei maggiori effetti distruttivi su beni immobili e mobili che in passato non esistevano. Ovviamente questa è una mia considerazione, desunta dal report, ma non espressa in esso. Diciamo che l’aumento del livello del mare è solo una concausa dell’aumento degli eventi estremi che sono imputabili ad esso.

Si passa, quindi, dalle osservazioni alle previsioni e qui, ovviamente, le cose si complicano. Date le premesse, appare scontato che le previsioni siano basate sui famigerati scenari di emissione elaborati da IPCC. Nel report si fa riferimento a due scenari: lo scenario RCP2.6 (quello più “virtuoso” caratterizzato da una drastica riduzione delle emissioni ed allo stato poco realistico) ed allo scenario RCP8.5 (quello meno “virtuoso” in quanto caratterizzato da un aumento incontrastato delle emissioni e, quindi, altrettanto poco realistico).

Per questi due scenari estremi viene individuato il livello del mare al 2100. Sotto lo scenario più favorevole, il livello del mare dovrebbe aumentare di circa 0,43 m (media tra 0,29 m  e 0,59 m), mentre sotto lo scenario meno favorevole l’aumento medio dovrebbe essere di 0,84 m (media tra 0,61 m e 1,10 m). Tutto ciò con un livello di confidenza medio che, tradotto in termini numerici, corrisponde a qualcosa come 50% di probabilità di accadimento. Da notare che questi valori sono maggiori di quelli riportati nel Quinto Rapporto IPCC, ma è aumentato l’intervallo di incertezza. Ancora una volta devo sottolineare che tutte le peggiori profezie di sventura legate all’aumento del livello del mare, sono caratterizzate da livelli di probabilità di accadimento relativamente ridotte.

Chi ha avuto la pazienza di seguirmi fino a questo punto, certamente si ricorderà che avevamo parlato di due contributi all’aumento del livello del mare: quello sterico e quello di massa. Soffermiamoci sul secondo. Sulla base di quanto scritto nel report IPCC, il contributo dell’Antartide all’aumento del livello del mare nel 2100, potrebbe arrivare fino a 28 cm, con un livello di confidenza medio, cioè con probabilità di accadimento intorno al 50%.

Concludendo il discorso, possiamo affermare che il livello del mare sotto i vari scenari di emissione, potrebbe aumentare dei valori indicati da IPCC con una probabilità di circa il 50%.

Resta, comunque, un’incertezza di fondo: sono giuste le quantificazioni delle definizioni standardizzate fornite in questo articolo? Io presumo di si, ma qualcuno potrebbe contestare questo mio modo di agire. Rispetterei la sua opinione, per il semplice fatto che la mia e la sua sono equivalenti: stiamo interpretando il pensiero dell’IPCC. Non sarebbe stato meglio esprimersi in termini numerici, invece che in termini qualitativi? Certamente, ma vuoi mettere il fascino delle parole con l’aridità del numero?

E, per finire, un breve cenno alle metodiche di adattamento agli eventi estremi legati al livello del mare. Essi sono di diversi tipi. Si va dalla ricostituzione dell’ambiente costiero originario (lagune, dune coperte di vegetazione e simili), allo spostamento di interi gruppi di popolazione, alla realizzazione di sbarramenti artificiali e via cantando. Ognuna di queste soluzioni ha i suoi pro ed i suoi contro, ma rappresenta un modo per poter affrontare il problema.

I redattori del rapporto non nascondono che tutte le soluzioni di adattamento proposte non possono essere considerate risolutive, ma consentiranno di guadagnare tempo, in attesa che le misure di mitigazione possano avere effetto. Questo richiede, però, ingenti investimenti (diverse decine di miliardi di dollari all’anno) e può acuire le differenze sociali e di genere tra i Paesi sviluppati e quelli in via di sviluppo, per cui è necessario che tutte le iniziative siano inquadrate entro una cornice regolamentare ben precisa.

A questo punto chi ha avuto modo di seguire le vicende della COP 25 appena conclusa, avrà l’impressione che queste cose le ha lette nei resoconti della vicenda. Non si tratta di un’impressione, ma è la realtà: i rapporti IPCC hanno lo scopo di fornire una base scientifica alle politiche proposte dalle Nazioni Unite negli incontri multilaterali, per cui non bisogna stupirsi se nei rapporti scientifici si parli di politica socio-economica, di parità di genere, di diritti delle minoranze e di ripartizione di risorse oltre che di ridistribuzione di ricchezza. Analogamente non bisogna stupirsi se le discussioni politiche ed economiche nelle COP, sono fortemente intrecciate a problematiche di carattere scientifico. Scienza, politica ed economia sono, infatti, le facce di uno stesso poliedro.

Facebooktwittergoogle_pluslinkedinmail

L’aumento dell’Intensità delle Ondate di calore sull’Australia e le Cause Circolatorie

Posted by on 07:00 in Attualità, Climatologia | 0 comments

L’aumento dell’Intensità delle Ondate di calore sull’Australia e le Cause Circolatorie

In un recente post apparso su CM ho parlato dell’ondata di caldo in atto sull’Australia nel dicembre 2019, individuandone la causa sinottica in una grande cupola anticiclonica che insiste sul continente australiano da inizio mese. In genere nei grandi anticicloni dinamici la massa d’aria è animata da un moto discendente (catabatico) che ne determina il riscaldamento per compressione. Questo si associa al rilevante soleggiamento e all’avvezione di masse d’aria torride dall’area subtropicale, dando luogo a temperature sensibilmente superiori alla norma. Nello stesso post abbiamo visto che vi sono segnali di aumento dell’intensità e frequenza delle ondate di caldo sul’Australia, il che ci spinge a indagare le cause circolatorie di tale trend.

Al riguardo è utile segnalare un articolo scientifico di Pezza et al. (2007) uscito sull’International Journal of Climatology il quale evidenzia che la robustezza degli anticicloni nell’emisfero meridionale presenta un andamento ciclico legato alla Pacific Decadal Oscillation (PDO), indice teleconnettivo entrato in fase positiva nel 1977 (figura 1), il che si traduce secondo gli autori in anticicloni sull’emisfero meridionale in minor numero ma più robusti e dunque in grado di garantire temperature al suolo più elevate. Dalla figura 1 si nota anche che le ciclicità di PDO sono associate alle ciclicità presenti in ENSO. Tale legame è di tipo energetico, nel senso che ENSO è fra i fenomeni climatici ciclici più potenti perché cede enormi quantità di energia all’atmosfera in forma di vapore. Tale energia viene fatta salire a quote molto elevate dai cumulonembi tipici della zona a superficie oceanica più calda (pacifico equatoriale orientale) e di qui sfruttando la Cella di Hadley si propaga verso nord e verso Sud raggiungendo poi le latitudini medio-alte.

Figura 1 – Serie storica della Pacific Decadal Oscillation – PDO e di ENSO (fonte: NCAR – https://climatedataguide.ucar.edu/climate-data/pacific-decadal-oscillation-pdo-definition-and-indices).

Da rilevare anche il cambiamento di fase del Southern Annular Mode (SAM), analogo della North Atlantic Oscillation (NAO), che a sua volta descrive l’intensità delle westerlies nell’emisfero meridionale (figura 2).  SAM è passato in fase positiva dai primi anni 90, il che indica una maggiore disponibilità di energia per gli anticicloni.

Figura 2 – Serie storica del Souhern Annular Mode – SAM. Si noti il passaggio a una fase positiva dal 1994 (fonte: NCAR – https://climatedataguide.ucar.edu/climate-data/marshall-southern-annular-mode-sam-index-station-based)

Una conferma di tali considerazioni ci viene da un recentissimo articolo di Acacia Pepler et al. (2019) uscito sulla rivista Climate dynamics, che pone in evidenza i legami con ENSO e SAM, evidenziando che i dati di rianalisi per gli anticicloni a livello globale indicano trend positivi più rilevanti per gli anticicloni dell’emisfero australe, con aumenti della frequenza molto forti (+ 65% nell’estate australe, +50% nell’inverno australe) a latitudini comprese fra 30 e 40° Sud e diminuzioni per le latitudini adiacenti in ambedue i semestri considerati (figura 3), in parte attribuibili all’intensificazione di SAM nel periodo novembre-aprile. Per inciso si noti che l’emisfero Nord e le rimanenti latitudini dell’emisfero Sud manifestano variazioni assai più contenute.

Figura 3 – Variazione di frequenza latitudinale degli anticicloni nel periodo 1997-2016 rispetto al periodo 1961-79. La rilevanza del fenomeno è impressionante soprattutto per le latitudini comprese fa 30 e 40° nell’emisfero Sud mentre variazioni assai più contenute interessano l’emisfero Nord e le rimanenti latitudini dell’emisfero Sud (da Pepler et al., 2019 – modificato).

Ma cosa c’entra in tutto ciò l’AGW? Al riguardo mi sento di dire due cose:

  1. PDO, SAM e ENSO sono fenomeni naturali soggetti a una caratteristica ciclicità e pertanto sono destinati prima o poi a passare in fase negativa, al che dovrebbe conseguire un nuovo indebolimento degli anticicloni.
  2. Non si può escludere che il brusco cambiamento di fase di PDO (1977) e SAM (1994) sia stato forzato dal forcing antropico anche se l’esatto meccanismo ancora ci sfugge tant’è vero che i GCM (Modelli di Circolazione Globale) non sono a tutt’oggi in grado di descrivere tali ciclicità.

Bibliografia

  • Pepler A. et al., 2019. A global climatology of surface anticyclones – their variability – associated drivers and long-term trends, Climate dynamics, 52:5397–5412.
  • Pezza et al 2007 Southern Hemisphere cyclones and anticyclones – Recent trends and links with decadal variability in the Pacific Ocean, International Journal of Climatology, 27: 1403–1419
Facebooktwittergoogle_pluslinkedinmail

L’Anomalia Termica del Dicembre 2019 in Australia

Posted by on 07:00 in Attualità, Climatologia | 8 comments

L’Anomalia Termica del Dicembre 2019 in Australia

L’Australia (figura 1) è una grande massa continentale posta nell’emisfero sud fra 10 e 45°S e in questo periodo sta vivendo l’inizio dell’estate meteorologica che per convenzione è fissato all’1 dicembre. Quest’anno la stagione estiva è segnata dalla presenza di un anticiclone di blocco che sta determinando una sensibile anomalia termica accompagnata da estesi incendi boschivi.

Figura 1 – Carta fisica dell’Australia (fonte: etsy.com)

Alcuni dati

In figura 2 si riporta l’andamento delle temperature medie giornaliere per il territorio australiano del periodo ricavate come media dell’areale compreso fra 110 e 160°di longitudine Est e fra 10 e 40° di latitudine Sud. La norma è espressa dalle 3 linee in nero che sono la media e la media +/- 1 deviazione standard per il periodo 1999-2010. Il diagramma mostra che il fenomeno in questione è in atto dal 5 dicembre. Giova ricordare che secondo la cartografia in figura 3 l’anomalia termica è stata più rilevante sulla parte sud del continente ove si sono registrate anomalie positive di oltre 6°C rispetto alla media 1981-2010. Pertanto il diagramma in figura 2, considerando una media nazionale, tende a non rendere piena ragione dell’entità del fenomeno.

Figura 2 – Temperatura media dell’Australia per il periodo 17 agosto – 17 dicembre 2019 (elaborazioni dell’autore su dati CFSv2 della NOAA)

Figura 3 – Anomalia termica globale del periodo dal 10 al 18 ottobre 2019 (fonte: NOAA – https://www.esrl.noaa.gov/psd/data/composites/day/)

La figura 4 illustra il livello di anomalia delle temperature massime del 19 dicembre indicato dal servizio meteorologico nazionale australiano. Le aree in rosso sono quelle in cui si è toccato un record di temperature mai raggiunto. Sul sito del BOM è possibile anche vedere l’analisi per i giorni precedenti, il che si rivela di grande utilità per seguire in tutta la sua complessità l’evoluzione spaziale e temporale dell’anomalia termica.

Figura 4 – Carta delle temperature massime registrate il 19 dicembre (fonte: BOM – http://www.bom.gov.au/cgi-bin/climate/extremes/extreme_maps.cgi)

La figura 5 illustra la topografia del livello barico di 500 hPa. Si noti l’area dell’emisfero sud caratterizzata dal regime zonale (fascia con colori dall’arancio al blu e che per l’Australia interessa la sola Tasmania) che appare svilupparsi con grande regolarità attorno all’Antartide in virtù del fatto che nell’emisfero sud ci sono poche catene montuose e aree di terra a ondularlo. Dalla carta emerge inoltre la presenza di 4 grandi cupole anticicloniche (aree in granata con altezza della 500 hPa superore a 5900 m), una delle quali insiste proprio sull’Australia. In coincidenza con tali aree l’intenso soleggiamento e gli effetti di compressione determinano temperature particolarmente elevate.

Figura 5 – Topografia del livello barico di 500 hPa per l’emisfero sud (fonte: NOAA – https://www.esrl.noaa.gov/psd/data/composites/day/)

I livelli di anomalia del fenomeno in atto

E’ presto per esprimersi sui livelli di anomalia di un fenomeno ancora in corso che in ogni caso sta dando luogo a temperature record in molte località australiane.  Può essere utile tuttavia cercare di comprendere con che tipo di clima ci si debba confrontare in Australia nel periodo estivo e a tale scopo si riporta la figura 6 che mostra il numero medio di giorni con temperature di oltre 40°C registrato per il periodo 1910-1963 e 1964-2017 per le 60 stazioni del Servizio Meteorologico Australiano (BOM) attive dal 1910 (fonte: sito web di Joanne Nova). Raw sono le analisi sui dati originali e Acorn1 e Acorn2 le analisi operate su dati omogeneizzati da BOM. Si noti che un aumento di frequenza si registra solo per Acorn2 i cui valori medi sono riportati in figura 7. Nel sito Joannenova sono riportati anche i risultati per un gruppo di 112 stazioni del BOM e per 104 stazioni del BOM extra-urbane in cui rientrano le 60 originarie e altre attivate dopo il 1910. Nel sito stesso si avanza l’ipotesi che l’aumentata frequenza mostrata dalle serie sia frutto di una disomogeneità strumentale dovuta all’introduzione di sensori automatici elettronici, assai più pronti rispetto ai vecchi sensori a mercurio.

Figura 6 – Numero medio di giorni con temperature di oltre 40°C registrato per il periodo 1910-1963 e 1964-2017 per le 60 stazioni del Servizio Meteorologico Australiano (BOM) attive dal 1910 (http://joannenova.com.au/2019/11/raw-data-bombshell-no-change-in-very-hot-days-in-australia-since-world-war-i/)

Occorre altresì segnalare che il BOM rende disponibile la documentazione completa delle attività di omogeneizzazione svolte e, ad una prima analisi, la stessa appare rigorosa e ispirata all’idea di superare i problemi legate ad influenze non climatiche (spostamento nella localizzazione della stazione, modifiche nell’ambiente intorno alla stazione, modifica del metodo di misurazione, ecc.).

 

 

Figura 7 – Numero medio di giorni con temperature di oltre 40°C registrato per il periodo 1910-2017 per le 60 stazioni del Servizio Meteorologico Australiano (BOM) attive dal 1910 (http://joannenova.com.au/2019/11/raw-data-bombshell-no-change-in-very-hot-days-in-australia-since-world-war-i/)

Alcuni episodi storici

Con riferimento ad eventi eccezionali che hanno interessato in passato l’Australia si riportano due significativi esempi:

  • l’ondata di caldo del gennaio 1896  (in figura 8 si riportano le temperature massime registrate in quell’occasione)
  • gli incendi del 6  febbraio 1851 passato alla storia come “giovedì nero” https://en.wikipedia.org/wiki/Black_Thursday_bushfires) e che fu immortalato in un famoso dipinto di William Strutt del 1864 (figura 9)

Figura 8 – Massime assolute registrate in occasione dell’ondata di caldo del gennaio 1896 (http://joannenova.com.au/2019/12/hottest-ever-day-in-australia-especially-if-you-ignore-history/)

Figura 9 – Il terrore di uomini e animali in occasione dell’incendio del giovedì nero (6 febbraio 1851) immortalato nel dipinto di William Strutt (fonte. Wikipedia – https://en.wikipedia.org/wiki/Black_Thursday_bushfires)

Facebooktwittergoogle_pluslinkedinmail

El Niño al tempo della Piccola Età Glaciale

Posted by on 07:00 in Attualità, Climatologia | 2 comments

El Niño al tempo della Piccola Età Glaciale

In un articolo di 7 anni fa, Hereid et al.(2013) affermano che ENSO (El Niño Southern Oscillation) fornisce energia alla variabilità climatica globale attraverso cambiamenti nella forza degli alisei, nella temperatura e salinità, livello marino e configurazioni della circolazione atmosferica, e che la sua variabilità è ben caratterizzata nei record strumentali (moderni). Questi record, però, secondo gli autori, non sono in grado di descrivere completamente la variabilità (la definiscono “naturale”) di ENSO causata dalla forzante antropica.

Inoltre, la variabilità solare può interagire con ENSO anche se la sua risposta al Sole è difficile da prevedere.

Allo scopo di analizzare il comportamento di ENSO rispetto al Sole, gli autori hanno prodotto alcune serie ricavate da carote di coralli nella zona nord-orientale di Papua Nuova Guinea e di queste rendono disponibili i dati dai coralli dell’isola di Misima tra il 1412 e il 1643 dell’Era Comune (CE), in piena Piccola Era Glaciale (PEG, 1350-1850), un periodo di minore influenza solare. Gli autori scrivono che durante il periodo 1560-1660 si osserva una variabilità ridotta di ENSO, anche se non è chiara la relazione tra attività solare e variabilità ENSO; questo sottintende che la variabilità deriva dalle dinamiche interne. Il lavoro, in qualche modo, si lega ad uno studio di ElNiño non strumentale di qualche anno prima, D’Arrigo et al. (2005), a cui anche io farò riferimento più avanti.

Come ho detto, le carote di Misima hanno dato origine ad una serie di δ18O a passo mensile (per facilità di scrittura li indico spesso con d180 nei grafici). Il δ18O, essendo un dato che riflette all’inverso le variazioni di temperatura, qui viene usato come un proxy di El Niño (le deviazioni positive dalla media) e di La Niña (le deviazioni negative). Lo mostro in figura 1 insieme al suo spettro MEM.

Fig.1: Serie di δ18O da Misima, da Hereid et al., 2013. Notale il break-point, attorno al 1550, seguito da un aumento dei valori di δ18O. La scale verticale è rovesciata rispetto a quella di figura 2 di Hereid et al.

Questa serie mostra una prima fase, fino a circa il 1550, con ampie oscillazioni ma sostanzialmente a media costante; una diminuzione per i successivi dieci anni, fino a circa il 1560, e poi un aumento fino al 1630 seguito da un’apparente ripresa di oscillazioni più ampie. Sostanzialmente si osserva (tramite il filtro su 10 anni, linea gialla) una diminuzione della variabilità nel periodo di aumento della temperatura (ovvero del δ18O) e questo conferma quanto affermano Hereid et al. (2012) che identificano il periodo di quiescenza di ENSO tra il 1520 e il 1630 (v. la loro figura 2, quadro inferiore, disponibile nel sito di supporto).

Lo Spettro
Lo spettro è caratterizzato dai periodi tipici di ENSO e cioè dal gruppo 2-8 anni, dai periodi 9-26 anni e da un potente massimo a 93 anni. Entrambi i lavori citati, e in particolare D’Arrigo et al. (2005), si concentrano sui periodi 2-8 anni trascurando, ad esempio, il massimo a 9.8 anni che pure vedono sia nei dati osservati nella regione Niño3 del Pacifico sia nella loro stessa ricostruzione di El Niño per il periodo 1408-1858; non ne parlano semplicemente perché la potenza di questo picco spettrale cade sotto il livello di confidenza del 90%. Allo stesso tempo, in figura 1 si osserva che il periodo 9.7 anni è il quarto massimo dello spettro per potenza e quindi tutt’altro che trascurabile.

La considerazione precedente pone un problema: praticamente tutti i gruppi che calcolano gli spettri fissano dei limiti di “veridicità” sui periodi, limiti calcolati con un livello di confidenza derivato da simulazioni Monte Carlo: se i picchi spettrali hanno potenza inferiore ad un dato livello vengono considerati fluttuazioni statistiche e quindi non reali. Questo assunto è probabilmente vero nel caso del calcolo di un solo spettro ogni tanto, ma avendo io calcolato ormai centinaia di spettri di serie molto diverse e avendo notato che gli stessi periodi si ripetono in quasi tutte le serie con notevole precisione, anche se con possibili, forti, differenze di potenza, non sono più disposto ad accettare la regola del livello di confidenza; preferisco usare quella che in altre occasioni ho chiamato la regola della probabilità frequentista e cioè l’accettazione di un periodo, indipendentemente dalla sua potenza, che sia confermato dallo spettro di serie indipendenti, anche se simili.

Non vengono presi in considerazione neanche i massimi tra 12 e 26 anni che nella figura 2c di D’Arrigo sono quasi tutti sotto la soglia del 50% o appena sopra. La stessa cosa per il massimo a 93 anni che esiste come un debole picco, ben al di sotto del 50%, e che non viene mai nominato, mentre in figura 1 è il massimo principale e ricorda il ciclo solare di Gleissberg (88 anni) o anche una ciclicità senza nome, a 104 anni.

L’analisi spettrale di figura 1 viene confermata anche dallo spettro wavelet di δ18O mostrato nella successiva figura 2.

Fig.2: Spettro wavelet di δ18O 1412-1643. All’immagine sono stati aggiunti i periodi in anni (asse verticale) e l’anno corrispondente al numero d’ordine dell’asse orizzontale. Qui Hereid et al. viene indicato come 2012, mentre in bibliografia è 2013: la differenza dipende dall’uso della copia pubblicata in rete oppure della copia stampata.

Lo spettro wavelet mostra anche l’esistenza, costante su tutta la lunghezza della serie, del massimo a 93 anni -il più potente- che però appare fuori dal cono di influenza, l’area al cui interno i massimi sono considerati attendibili. Si può localizzare appena sotto la potenza “10”, cioè sotto il valore (2^10)/12=1024/12 mesi=85.3 anni. Si osserva anche la fascia di periodo 1 anno che in figura 1 è identificata dalla sigla 1 (18).

Analisi del δ18O e di ENSO
Se si vuole analizzare la serie dell’ossigeno, è necessario costruire la corrispondente serie detrended, in particolare del periodo 1560-1643 che mostra una pendenza 50 volte maggiore di quella della prima parte dei dati. L’operazione si vede in figura 3 dove il grafico superiore mostra la scelta delle due parti in cui la serie è stata divisa e i fit lineari da cui è stato calcolato il detrended; il grafico inferiore mostra la serie completa detrended con i due limiti (±0.2 permille) al di là dei quali sono stati selezionati gli eventi El Niño (positivi) e La Niña (negativi).

Fig.3: In alto le due parti in cui è stata divisa la serie dell’ossigeno e i rispettivi fit lineari. In basso la serie da cui è stata sottratta la pendenza (il detrended).


Fig.4: Eventi positivi e negativi per cui il valore assoluto di δ18O supera il ±0.2 permille. Questi ed altri dati sono disponibili in forma di istogramma nelle ultime tre figure del post.

Ho calcolato per le due serie di figura 4 gli spettri MEM che confronto in figura 5:

Fig.5: Spettri MEM delle due serie che rappresentano El Niño (rosso) e la Niña (blu).

Gli spettri mostrano che El Niño e La Niña sono eventi che rispondono a stimoli esterni diversi, anche se a volte -ad esempio per 93, 9.8, 6.4, 4.6 anni- presentano le stesse ciclicità. I periodi di 34.4, 12.1, 10.8, 7.3, 4.2, 3.8 anni sembrano essere di competenza esclusiva di El Niño, mentre 46.4, 8.8, 7.7, 3.5 anni sarebbero appannaggio di La Niña.

È difficile attribuire i massimi spettrali ad una causa certa: oltre al già ricordato picco a 93 anni e al gruppo 2-8 anni, troviamo massimi tra 10 e 25 anni forse -ma con più di un’incertezza- legati ai cicli solari di Schwabe e di Hale; un massimo a 46.4 anni (solo La Niña) ricorda molto il ciclo sinodico Saturno-Urano (45.3 anni) mentre quello a 34.4 anni (solo El Niño) è simile ai 35.8 anni del ciclo sinodico Saturno-Nettuno. Il picco a 9.8 anni, comune ad entrambi gli eventi, ha durata pari alla metà del ciclo sinodico Giove-Saturno (9.93 anni).
Ma non farei troppo affidamento su queste similitudini e mi limiterei al solo elenco dei massimi osservati e all’elenco dei cicli e dei massimi solari di tabella 1 a causa della natura dei dati di prossimità e delle incertezze ad essi associate..

Tabella 1: Cicli e minimi solari

Cycle of Period
Hallstatt 2200 yrs
Eddy 1000 yrs
no-name 506 yrs
de Vries o Suess 208 yrs
no-name 150 yrs
no-name 104 yrs
Gleissberg 88 yrs
Hale 22 yrs
Schwabe 11 yrs
Minimum of Year (length)
G (no name) 1880-1930 (50)
Dalton 1790-1810 (20)
Maunder 1645-1715 (70)
Spörer 1460-1550 (90)
Wolf 1280-1350 (70)
Oort 1010-1050 (40)
RWP -250,400 (650)
MWP   950-1250 (300)
LIA 1350-1850 (500)

Confronto con gli indici moderni
Ci possiamo chiedere se gli eventi ENSO hanno avuto una evoluzione nel tempo e se mostrano differenze tra il periodo della PEG e i tempi moderni con dati strumentali.
Per capire meglio mettiamo a confronto gli istogrammi di frequenza (numero di aventi per anno) sia di El Niño che di La Niña sui periodi 1411-1643, 1874-2018 e 1950-2018 ricavati, gli ultimi due dagli indici SOI (Southern Oscillation Index) di NOAA e del BOM (Bureau Of Meteorology australiano) e il primo dal δ18O dell’isola di Misita di figura 3, assumendo, che si possano considerare eventi Niño i valori dell’indice rispettivamete inferiori a -0.5, -7 e -0.2‰ e Niña quelli superiori a +0.5, +7 e +0.2‰.

Dalle tre figure che seguono non sembra di poter osservare una evoluzione significatica. Si notano periodi di ridotta variabilità di El Niño, sia in figura 7 (tra il 1925 e il 1960, interrotta da un forte evento nel 1940) che in figura 8 (tra il 1952 e il 1964; una parte dello stesso evento precedente), durante un periodo di ridotta attività solare tra il 1880 e il 1940.

Fig.6: Eventi caldi (El Niño, rosso) e freddi (La Niña, blu) estratti dalla serie δ18O di Misita. Le linee di colore contrastante sono i fit lineari delle due serie.


Fig.7: Eventi caldi (El Niño, rosso) e freddi (La Niña, blu) estratti dalla serie SOI di BOM (Soibom). Le linee di colore contrastante sono i fit lineari delle due serie.


Fig.8: Eventi caldi (El Niño, rosso) e freddi (La Niña, blu) estratti dalla serie SOI di NOAA. Le linee di colore contrastante sono i fit lineari delle due serie.

Nelle due figure dell’indice SOI (7 e 8) spicca per la sua larghezza un evento El Niño tra il 1990 e il 1995, argomento del lavoro di Allan e D’Arrigo (1999) che definiscono la sequenza di El Niño “persistente” e si chiedono quanto sia inusuale questa situazione.

I dati di questo post sono disponibili nel sito di supporto.

Bibliografia

Facebooktwittergoogle_pluslinkedinmail

Verso l’Era Glaciale e altre amenità

Posted by on 07:00 in Attualità, Climatologia | 10 comments

Verso l’Era Glaciale e altre amenità

Il riscaldamento globale antropogenico o crisi climatica o catastrofe climatica, o come preferiamo chiamare la situazione che si basa sull’assumere come vere alcune affermazioni mai dimostrate (l’aumento della CO2 produce riscaldamento a livelli parossistici; l’aumento della CO2 precede l’aumento della temperatura; l’uomo, tramite la modifica dell’ambiente è in grado di modificare il clima; di conseguenza, diminuire la concentrazione di gas serra permette di avere un clima “migliore”, in un qualche senso mai specificato, e in definitiva permette il controllo umano sul clima) è un argomento che in questi tempi tristi e pieni di ombre, che, vagamente ma non troppo, ricordano la caduta dell’impero romano e le invasioni barbariche, tiene banco in tutte le manifestazioni sociali che si rispettino.

Ma non è il solo argomento; seppur a debita distanza, ha il suo spazio anche la diminuzione dell’attività solare che fa pensare ad un nuovo minimo di Maunder con la sua coda di periodo freddo tipo PEG. Anche io, nel mio piccolo, nel 2013 ho previsto un periodo freddo attorno al 2030, sulla base di una oscillazione di periodo 60 anni nelle temperature globali.

Tutte queste considerazioni, però, rischiano di essere poco più che chiacchiere da salotto perché, su tempi molto, molto più lunghi, ho visto che abbiamo iniziato la discesa delle temperature verso le prossima era glaciale. Infatti ho scaricato dal sito NOAA Paleo i dati di δ18O tra 0 e 200 mila anni fa (un dato di prossimità per la temperatura) che mostro in figura 1 insieme al duplicato dell’interglaciale precedente (l’Eemiano o MIS 5e), sovrapposto all’Olocene con uno spostamento di 120 mila anni puramente indicativo e arbitrario (differenze di mille o duemila anni possono essere considerate normali).

Fig.1: Serie di δ18O dalla stazione Vostok. Tutti i dettagli sono disponibili nel file dati nel sito di supporto. Nel grafico superiore viene indicata (in verde) la parte di Eemiano che è stata sovrapposta (in rosso) all’Olocene. Nel grafico in basso i primi 20 mila anni da ora, per mettere in evidenza differenze e somiglianze tra i due interglaciali.

Questi dati fanno parte della carota della stazione antartica Vostok e sono definiti a “bassa risoluzione”, come indica la sigla “lo” nel nome.
Si può notare una notevole somiglianza tra i due interglaciali, anche in almeno una delle oscillazioni che hanno preceduto la salita verso il periodo più caldo e nella struttura dell’inizio di discesa verso un nuovo periodo glaciale; anzi, la parte più calda dell’Olocene sembra aver avuto una durata inferiore all’Eemiano e che abbia iniziato una discesa più accentuata. La cautela è d’obbligo perché per l’Olocene abbiamo dati più dettagliati, a differenza di quanto succede per l’Eemiano e, se posso dirlo, di hockey stick ne abbiamo abbastanza da troppo tempo.

Se i dati sono attendibili, ma se non lo sono bisogna dimostrarlo, abbiamo iniziato la corsa, probabilmente lunga alcune migliaia di anni, verso la prossima Era Glaciale e l’AGW appare come un insignificante episodio transitorio che lascia il tempo che trova e per il quale si configura sempre di più una natura puramente politica.

Per la sezione “amenità” ripropongo la verifica di qualcosa che qui su CM conosciamo bene: mai si ha che l’aumento della CO2 precede sistematicamente l’aumento di temperatura, anzi spesso è proprio il contrario, come succede nelle carote groenlandesi GRIP e GISP2. A volte si nota che il chi precede chi è un balletto in cui a guidare la danza sono alternativamente l’una o l’altra grandezza e questo fa pensare che entrambe rispondano, ognuna con le sue caratteristiche e i suoi tempi, allo stesso stimolo esterno.
In figura 2 ho confrontato il δ18O di figura 1 con la serie antartica di anidride carbonica (è una serie composita tra 0 e 800 mila anni che qui uso fino ai 200 mila anni di δ18O).

Fig.2: Confronto tra δ18O e CO2 (linea rossa, scale di destra). Ricordo che la sigla “ka” sta per “kyr BP” cioè migliaia di anni fa.

Questa figura mostra la validità del discorso sul balletto appena fatto: infatti a partire dalla parte iniziale (destra) del grafico in alto si vedono una serie di oscillazioni che sembrano sincrone, precedute da una stasi della temperatura cui non corrisponde un andamento simile della CO2; poi seguite dalla temperatura che precede la CO2 durante la rapida salita dell’Eemiano. Seguono varie fasi, tipo due stasi della CO2, attorno a 120 e 90 mila anni fa, che coincidono una con la brusca discesa dell’Eemiano e l’altra con la salita e la successiva discesa del MIS 5c; durante il MIS 5a salita e discesa sembrano essere avvenute in fase, a meno che non si voglia considerare la strana idea che nella salita la temperatura precede la CO2 e il contrario nella discesa: in questo caso il meccanismo andrebbe spiegato e sarebbe anche necessario spiegare perché alcune volte succede e altre no.

Per terminare questo elenco (ma ognuno può verificare con i propri occhi le altre situazioni) andiamo alla salita dell’Olocene in cui la CO2 precede la temperatura fino a metà percorso, per poi permettere l’ormai usuale scambio di ruoli. La parte finale (sinistra) del grafico mostra una ripidissima salita della CO2 cui corrisponde, tra molte oscillazioni, una generale diminuzione della temperatura e io mi pongo una semplicissima domanda: e allora?

Ma, si dirà, quell’aumento è tutta CO2 immessa dall’uomo in atmosfera! Ammesso che sia vero (ma quei dati di CO2 vengona da Mauna Loa e sono recenti e dettagliati come non avremo mai da una carota di ghiaccio, e quindi hockey stick ancora), la domanda non cambia. E allora?

Se, come sembra dai grafici presentati qui, CO2 e temperatura sono disaccoppiate e vivono ognuna di vita propria (sicuramente con qualche periodo di momentanea correlazione), qualcuno, ma certo non io, dovrà spiegare in cosa consista e a cosa si riferisca l’eventuale preoccupazione che deriverebbe da questo grafico.

Sulla relazione tra temperatura e CO2 su scale temporali molto inferiori, ricordo un post su CM di Luigi Mariani, del 2012, e un mio post di poco successivo, che mostra il balletto di cui si è parlato sopra, commentato ancora in forma embrionale. In quest’ultimo post si fa riferimento, per il sito di supporto, ad un server che non esiste più. Ecco il sito corretto.

I dati di questo post sono disponibili nel sito di supporto.
Facebooktwittergoogle_pluslinkedinmail

COP 25: alcuni punti di vista

Posted by on 12:00 in Attualità, Climatologia, COP25 - Madrid | 4 comments

COP 25: alcuni punti di vista

Sono passati già quattro giorni dei tredici previsti e da Madrid non trapela nulla di rilevante. Alla Conferenza delle Parti sono accreditati oltre quattromila giornalisti, ma non si riesce ad avere alcuna notizia. Uno dei principali organi di stampa del Paese ospitante, l’autorevole El Pais, pubblica qualcosa, ma ciò che pubblica sa più di cronaca che di notizie sullo stato d’avanzamento dei lavori.

Per capire dove andremo a parare voglio offrirvi il parere di uno scienziato presente a Madrid. Egli ha rilasciato un’intervista a El Pais il giorno dell’apertura dei lavori della COP 25. Cercherò di riassumerla in quanto mi sembra emblematica dello stato d’animo degli scienziati. Il ricercatore intervistato, è Bjorn Stevens, direttore dell’Istituto di Meteorologia del Max Planck Institute di Amburgo. Egli pone diverse questioni interessanti ed anche condivisibili in quanto sono logiche a priori, indipendentemente dal cambiamento climatico. Secondo lo studioso non è utile chiedere ai cittadini di dare il proprio contributo individuale per ridurre le emissioni. Essi possono anche farlo, ma non cambiano di molto la situazione. Si è soliti criticare i viaggi in aereo perché sarebbero più inquinanti di quelli in treno, per cui molte persone hanno cominciato a spostarsi in treno. Il risultato è che per andare da Madrid ad Amburgo, per esempio, si impiegano due giorni. Utilizzando altre tecnologie (TAV?), lo stesso viaggio potrebbe essere fatto in sette ore. Detto in altri termini il cambio di stile di vita può essere chiesto ed ottenuto, con ricadute rilevanti a livello ambientale e climatico, se si riuscisse ad offrire, a parità di costi economici e sociali, lo stesso servizio in modo più sostenibile. Come dargli torto?

Altro aspetto che Stevens mette in rilievo è la necessità di una grande collaborazione internazionale di ricercatori sulle tematiche relative allo sviluppo di tecnologie per la mitigazione delle cause del cambiamento climatico e per l’aumento della resilienza delle strutture e della società agli effetti del cambiamento climatico. A titolo di esempio addita la grande collaborazione internazionale che ha portato alla nascita del CERN e che ha generato tutte le scoperte effettuate nel campo della fisica delle particelle e non solo. Solo una grande comunità di scienziati che lavorano tutti su una stessa problematica, potrà consentire di risolvere le problematiche ambientali e climatiche. Questo aspetto del suo discorso è meno condivisibile del primo, ma rientra in una logica corretta e, posto che il cambiamento climatico in atto sia dovuto a cause antropiche, quella di B. Stevens mi sembra una proposta interessante.

Altro punto rilevante della sua intervista che condivido pienamente riguarda le sue aspettative circa la COP 25. La sua risposta è di una chiarezza disarmante. Lui non si aspetta nulla da questa COP perché essa avrà la stessa sorte di tutte le 24 che l’hanno preceduta: si concluderà con un nulla di fatto. Concordo e sottoscrivo. Secondo il ricercatore la soluzione al problema climatico potrà trovarsi in un accordo tra Nazioni nell’ambito del G7.

Nell’intervista c’è anche la solita genuflessione di rito alla narrativa corrente circa il cambiamento climatico: ghiacci che si sciolgono, artico in fiamme, disastri a rotta di collo e via discorrendo, ma era scontata.

C’è anche una caduta di stile riguardo agli scettici del cambiamento climatico: egli li liquida con un secco “non ti curar di loro, ma guarda e passa”. Non sono proprio le sue parole, ma il senso è quello.

Altrettanto interessante mi è parso un articolo  pubblicato su The Guardian da Anne Bell, nota attivista, che fa parte del gruppo dirigente di Possible, un’associazione caritatevole che ha come scopo quello di battersi contro il cambiamento climatico. Ella traccia una breve storia delle COP che si sono succedute nel corso dei decenni dal punto di vista di un’attivista. Secondo Bell la lotta al cambiamento climatico ha conosciuto tre momenti estremamente importanti: Kyoto, Copenaghen e Parigi. Mentre Kyoto e  Parigi hanno rappresentato due punti di svolta nella lotta contro il cambiamento climatico nella direzione voluta dagli attivisti, Copenaghen ha rappresentato una disfatta inimmaginabile per il movimento ambientalista. Il resto delle COP può essere considerato solo un fatto di folklore e nulla più. Nessuno se ne è accorto. Concordo e sottoscrivo. Quella di Madrid potrebbe andare diversamente, grazie al movimento di opinione innescato nel mondo da G. Thunberg. Dal contesto sembra, però, che Bell abbia poca fiducia circa l’esito della COP in corso e, difatti, si augura che il movimento di opinione sia ad ampio raggio e, quindi, possa protrarsi fino alla prossima Conferenza delle Parti: la COP 26 di Glasgow. Questa, a giudizio di A. Bell, sarà la Conferenza della svolta ed a Glasgow potremo assistere ad una nuova Kyoto o ad una nuova Copenaghen. Molto dipenderà, secondo l’autrice, dalla capacità del movimento ambientalista innescato da G. Thunberg di resistere fino al prossimo dicembre. Dalla lettura del suo articolo, sembrerebbe che la Bell sia una persona che crede nella ciclicità degli eventi: una sorta di corsi e ricorsi storici in salsa ambientalista. E vabbè, tutto rinviato al prossimo anno, dunque.

Ho voluto riportare questi due punti di vista circa le aspettative sui risultati della COP 25. Si tratta del punto di vista di un esponente dell’ala “scientifica” del movimento ambientalista e del punto di vista di un’esponente dell’ala “politica” dello stesso. Si, perché di questo, ormai, si tratta. La scienza utilizzata dai politici per portare avanti la loro agenda.

Qualcuno potrebbe obiettare che questo giudizio è frutto del mio atteggiamento scettico (negazionista, secondo la vulgata imperante a Madrid e dintorni). Non è così. E’ quanto sostengono i principali leader politici impegnati in prima linea nella lotta al cambiamento climatico: N. Pelosi, P. Sanchez, A. Guterres. in questo articolo  pubblicato su El Pais che, in fatto di attivismo climatico, è forse peggio di The Guardian o qualche testata nostrana. La scienza utilizzata come clava contro gli scettici e per convincere, si convincere, i riluttanti politici presenti alla COP.

Nel frattempo anche il Papa ha fatto sentire la sua voce alla COP 25. In un messaggio inviato ai partecipanti egli invita a non perdere un’opportunità unica, per bloccare il cambiamento climatico attraverso “un cambiamento di prospettiva che metta la dignità al centro della nostra azione, chiaramente espressa nel ‘volto umano’ delle emergenze climatiche”. E’ un chiaro invito a modificare il nostro sistema di sviluppo in un senso comunitario. In tal modo si salverà il genere umano come promette la scienza. Tutti applaudono il Pontefice ambientalista, salvo attaccarlo appena tocca altri argomenti cui l’area politica che gravita attorno al movimento salvapianeta è molto sensibile ed ha posizioni opposte a quelle di Papa Francesco.

Qualche giorno fa un lettore di CM si chiedeva a quanto ammontassero le emissioni delle COP. Oggi è stata pubblicata una velina  di fonte ONU in cui si spiega che l’impatto della Conferenza, in termini di emissioni di diossido di carbonio, è neutro. Più avanti ci comunica che entro la prossima primavera il Paese organizzatore certificherà le emissioni della COP e che le stesse saranno caricate alla Spagna che ridurrà le proprie di una quantità uguale. L’ONU predisporrà, infine, una serie di certificati che potranno essere acquistati dalle imprese ed organizzazioni partecipanti alla COP per “ridurre” le proprie emissioni non legate alla COP. Il solito giochetto delle tre carte, insomma. Apprendiamo, infine, che la COP ha bandito la carta: tutti i documenti sono stati digitalizzati ed è possibile partecipare virtualmente agli eventi collaterali alla COP. Sarebbe stato più interessante partecipare virtualmente ai lavori, ma resterà un semplice auspicio.

Tornando alle trattative tra i delegati, posso ribadire che poco o nulla si muove. Chi abbia voglia di farsi un’idea del tipo di discussioni in corso, può dare un’occhiata a questo documento . In perfetto stile burocratese dice che la macchina dei negoziati funziona a pieno regime, ma produce solo chiacchiere.

Molto più importante, invece, una prima bordata della Cina che diffida gli europei dal fare i furbi.

In una dichiarazione  riportata dalla Reuters, uno dei delegati cinesi ha chiarito che l’Accordo di Parigi potrà considerasi finito se l’EU metterà in pratica un’idea del Commissario all’ambiente Timmermans e che costituisce una delle colonne portanti del Green New Deal, proposto dalla nuova Commissione Europea. Si tratta di un dazio da applicare alle merci entranti in Europa e provenienti dai Paesi in cui le legislazioni in materia di emissioni sono molto più blande (leggi Cina). I cinesi hanno mangiato la foglia al volo ed hanno realizzato che una simile tassa avrebbe reso vincolanti gli impegni di Parigi, indipendentemente dalla volontà del Paese produttore. Da qui la reazione piccata dei negoziatori cinesi già scottati pesantemente dai dazi imposti da Trump. Eh, si. Il mercato del carbonio e l’art. 6 dell’Accordo di Parigi saranno gli scogli su cui potrebbe naufragare questa COP. Tutto come previsto.

Nel frattempo si attende l’arrivo di G. Thunberg previsto per domani. Forse la COP 25 avrà un sussulto.

Facebooktwittergoogle_pluslinkedinmail

Temperatura Globale – Modelli e Osservazioni

Posted by on 14:58 in Attualità, Climatologia | 12 comments

Alcune riflessioni sulla Figura 11.25 di IPCC AR5, di Luigi Mariani e Franco Zavatti

La figura 11.25a del report IPCC AR5 (WG1) riportata sotto come figura 1, è davvero di una pregnanza unica. Il report non indica chi ne sia l’autore, ma leggendo negli Acknowledgements in fondo al capitolo si trova una frase che restringe l’indagine a due persone: “The authors thank Ed Hawkins (U.Reading, UK) for his work on key sinthesis figures and Jan Sedlacek (ETH, Switzerland) for his outstanding work on the production of numerous figures“.

Fig.1: Figura 11.25 di AR5. Si riportano le previsioni al 2050 di più di 100 modelli con tutti gli RCP e le osservazioni. Da questa figura sono stati ricavati gli inviluppi di figura 2 e dai valori numerici il grafico di HC4

Più nello specifico, la figura 11.25 mostra l’andamento delle temperature globali dal 1986 al 2050, espresse come anomalia, rispetto alla media delle temperature globali misurate, per il periodo 1986-2005 (dati tratti da 4 dataset osservativi globali fra cui HadCrut4) per i seguenti casi:

  1. 41 run “storiche” e cioè riferite al periodo 1986-2005 (linee grigie).
  2. 137 run previsionali con modelli AOGCM riportate con colori diversi a seconda dello scenario emissivo considerato, da quello con meno CO2 (RCP 2.6) a quello con più CO2 (RCP 8.5).
  3. Andamenti termici globali dei 4 dataset osservativi per il periodo 1986-2012 (linea spessa nera) e cioè HadCrut4 (Hadley Center/Climate Research Unit gridded surface temperature data set, Morice et al., 2012); la Interim reanalysis delle temperature globali dell’aria in superfice (ERA-Interim) dello European Centre for Medium Range Weather Forescast (ECMWF), Simmons et al, 2010; il dataset GISTEMP (goddard Institute of Space Studies Surface Temperature Analysis), Hansen et al., 2010 e infine l’analisi dalla NOAA, Smith et al., 2008.

Non siamo gli unici ad aver riflettuto su questa figura, come potete vedere nell’articolo “Comparing CMIP5 & observationspubblicato su Climate-lab e dove si aggiungono alla figura gli andamenti termici osservati per il periodo 2013-2019. Nella discussione che segue il post interviene anche il succitato Ed Hawkins offrendo alcune utili precisazioni e fornendo altresì per il periodo 2005-2050 i valori delle linee del 5 e 95% riferite alle run dei 137 modelli. Anche in base a questi dati abbiamo prodotto l’immagine di figura 2 che riporta i tratti essenziali della figura 11.25a., gli inviluppi superiore e inferiore degli oltre 100 modelli riportati, e lo abbiamo confrontato, in figura 2, con la temperatura globale HadCrut4 (d’ora in poi HC4).

Fig.2: Alcune linee essenziali dedotte dalla figura 11.25 di IPCC AR5, Inviluppi superiore e inferiore e la loro mediana, confrontate con le temperature globali HC4 aggiornate al 2019.

Da questa figura appare che

  • l’inviluppo superiore rappresenta con difficoltà  i dati reali (e vediamo in figura 1 come essi vengano rappresentati dalle singole run dei modelli) e che questi si collocano costantemente nello spazio compreso fra linea di inviluppo inferiore (linea rossa più bassa) e mediana (linea grigia centrale)
  • la linea di inviluppo inferiore descrive in modo efficace la pausa tra il 2001 e il 2013, il periodo di mancata crescita delle temperature globali i cui limiti temporali sono definiti dai due forti El Nino del 1997-98 e del 2015-16 (eventi che come noto i modelli GCM non sono in grado di descrivere per mancanza di basi teoriche). Questa ci sembra un’informazione nuova: i modelli non sono in grado di descrivere la pausa tra il 2001 e il 2013 ma il loro inviluppo inferiore sì. Come mai?

Se proviamo a scalare verso il basso HC4 di 0.2°C otteniano la figura 3 che mostra in maggiore dettaglio come l’inviluppo inferiore ricostruisca la pausa.

Fig.3: Come figura 2, con soltanto gli inviluppi (superiore, Tn: rosso ; inferiore Tx: rosa) e con HC4 scalata verso il basso di 0.2°C rispetto alla figura 2.

Fatta questa constatazione, è necessario capire se gli inviluppi hanno un senso e se la loro esistenza può essere associata a qualcosa di fisico, di reale. Gli inviluppi sono i valori estremi, massimo e minimo, della figura 1 indipendentemente dal modello che ha generato gli estremi.

Il valore minimo di ogni modello dipende dall’RCP, dal modo di trattare aspetti specifici e meno noti della macchina climatica e dal set di parametri iniziali (da ricordare un esperimento condotto da NCAR/UCAR e descritto in https://judithcurry.com/2016/10/05/lorenz-validated/, dove 30 modifiche inferiori ad un trilionesimo di grado nella temperatura atmosferica globale hannno prodotto, nei modelli, 30 risultati molto diversi tra loro).

Per tentare un confronto tra le osservazioni e i singoli modelli, proponiamo i modelli, ottenibili da KNMI, BNU-ESM e CSSM4 per gli RCP 8.5 e 2.6, confrontati con HC4, …

Fig.4: Due modelli CMIP5, ognuno calcolato per due RCP, confrontati con HC4 (linea blu).

…oppure il modello ACCESS 1.3 con RCP 4.5, confrontato sempre con HC4 solo nel periodo delle osservazioni.

Fig.5: Il modello ACCESS1.3, RCP 4.5, confrontato con HC4 (linea blu).

Come si vede chiaramente, il confronto con le osservazioni non fa certo ben sperare per la qualità delle previsioni. Anche il modello di figura 5, che complessivamente sembra compatibile con i dati iniziali, mostra importanti differenze e, dal 2000, l’inizio della divergenza già evidente in altri modelli, e l’abituale mancanza della pausa.

Al contrario, l’inviluppo inferiore (figura 3) rappresenta bene i dati osservati; ma l’insieme dei parametri, della gestione delle situazioni specifiche, degli RCP come può gestire e giustificare l’inviluppo? Intanto notiamo che se è vero che i minimi di ogni modello dipendono da vari fattori, difficilmente questi valori derivano dagli RCP più elevati (questa situazione è teoricamente possibile, ma in un numero molto piccolo di casi, tale da non modificare sostanzialmente l’aspetto dell’inviluppo). Allora, la migliore ricostruzione dei dati osservati si ha con i valori più bassi di RCP, e quindi con previsioni al 2100 per nulla catastrofiche (in figura 3 abbiamo i dati fino al 2050, ma nulla lascia pensare ad un improvviso rialzo nei restanti 50 anni).

Per verificare il comportamento dei modelli su tutta l’estensione di HC4 abbiamo calcolato il minimo dei 4 modelli scaricati da KNMI (ACCESS1.3, BNU-ESM, CSSM4 e INMCM4) e lo abbiamo confrontato con gli inviluppi di figura 1 e con HC4 (ove necessario, le serie sono spostate arbitrariamente per ottenere la migliore sovrapposizione). Il risultato è mostrato in figura 6, dove si vede che ancora l’insieme dei valori più bassi dei modelli e l’inviluppo inferiore descrivono i dati in modo ragionevole.

Fig.6: Confronto tra gli inviluppi di figura 3, HC4 e il minimo dei 4 modelli usati. Tx e HC4 sono spostati arbitrariamente, come indicato nel grafico.

Conclusioni
I modelli sembrano rappresentare al meglio i dati osservati dal 1986 al 2018 quando si utilizza il loro inviluppo inferiore, anche se non è chiaro il significato di tale inviluppo.

L’inviluppo inferiore, esempio unico tra tutti i casi che abbiamo potuto verificare, ricostruisce anche la pausa, cioè la stasi della temperatura globale tra il 2001-02 e il 2013 (prima che El Nino 2015-16 potesse prendere il sopravvento).

Non siamo in grado di fornire una spiegazione del perché l’inviluppo inferiore fornisca la migliore rappresentazione delle osservazioni. Offriamo questo aspetto dell’analisi del clima come contributo ad eventuali, ulteriori discussioni.

I dati di questo post sono disponibili nel sito di supporto.
Related Posts Plugin for WordPress, Blogger...Facebooktwittergoogle_pluslinkedinmail
Translate »