Climate Lab – Fatti e Dati in Materia di Clima

Tra la fine del 2015 e l’inizio del 2016, poco dopo la fine della COP21 di Parigi, abbiamo messo a punto un documento pubblicato nella sua interezza (e scaricabile qui in vari formati) con il titolo “Nullius in Verba, fatti e dati in materia di clima”. L’idea è nata dall’esigenza di far chiarezza, ove possibile e nei limiti dell’attuale conoscenza e letteratura disponibili, in un settore dove l’informazione sembra si possa fare solo per proclami, quasi sempre catastrofici.

Un post però, per quanto approfondito e per quanto sempre disponibile per la lettura, soffre dei difetti di tutte le cose pubblicate nel flusso del blog, cioè, invecchia in fretta. Per tener vivo un argomento, è invece necessario aggiornarlo di continuo, espanderlo, dibatterle, ove necessario, anche cambiarlo. Così è nato Climate Lab, un insieme di pagine raggiungibile anche da un widget in home page e dal menù principale del blog. Ad ognuna di queste pagine, che potranno e dovranno crescere di volume e di numero, sarà dedicato inizialmente uno dei temi affrontati nel post originario. Il tempo poi, e la disponibilità di quanti animano la nostra piccola comunità, ci diranno dove andare.

Tutto questo, per mettere a disposizione dei lettori un punto di riferimento dove andare a cercare un chiarimento, una spiegazione o l’ultimo aggiornamento sugli argomenti salienti del mondo del clima. Qui sotto, quindi, l’elenco delle pagine di Climate Lab, buona lettura.

  • Effetti Ecosistemici
    • Ghiacciai artici e antartici
    • Ghiacciai montani
    • Mortalità da eventi termici estremi
    • Mortalità da disastri naturali
    • Livello degli oceani
    • Acidificazione degli oceani
    • Produzione di cibo
    • Global greening

____________________________________

Contenuti a cura di Luigi Mariani e revisionati in base ai commenti emersi in sede di discussione e per i quali si ringraziano: Donato Barone, Uberto Crescenti, Alberto Ferrari, Gianluca Fusillo, Gianluca Alimonti, Ernesto Pedrocchi, Guido Guidi, Carlo Lombardi, Enzo Pennetta, Sergio Pinna e Franco Zavatti.

Il Climate Change entra nel pallone

Posted by on 07:50 in Ambiente, Attualità | 6 comments

Il Climate Change entra nel pallone

Argomento spinoso quello di oggi, molto più delle solite diatribe in materia di clima e affini. Argomento che, almeno con riferimento a chi vive nella capitale e nei suoi dintorni, suscita facilmente reazioni di pancia. Ben lontani dai tempi del Bernini, che pure per la realizzazione della cupola di San Pietro deve aver avuto i suoi problemi, in città da mesi non si parla d’altro che dello stadio della Roma. Forse ora che pare sia stata raggiunta una parvenza di accordo, parlarne sarà un po’ meno pericoloso, ma ci credo poco.

Tuttavia, senza pretendere di possedere gli strumenti per valutare gli innumerevoli aspetti di natura economica, sociale, culturale etc etc, penso sia cosa di un certo interesse mettere a disposizione dei lettori un comunicato stampa fatto dalla SIGEA, Società Italiana di Geologia Ambientale. Un documento in cui si affronta il tema della conformazione geologica dell’area designata per l’opera, mettendo in risalto le problematiche idrogeologiche di quella che, a tutti gli effetti, è un’ansa del Tevere, ovvero un’area il cui aspetto è stato, è e sarà inevitabilmente legato a doppio filo con le dinamiche del fiume, quindi con il regime precipitativo, quindi, più in generale, con gli eventi atmosferici e le tendenze climatiche.

Il giudizio non è proprio positivo, anzi, direi decisamente negativo, sebbene siano individuate alcune necessarie caratteristiche che l’opera dovrebbe avere per essere realizzata con un certo livello di sicurezza. Non possiedo gli strumenti conoscitivi per valutare la questione, per cui lascio volentieri alla folta comunità di esperti di questo settore che ci fanno l’onore di frequentare le nostre pagine ogni genere di commento. E’ ben difficile tuttavia non pensare che intraprendere un cammino come quello prospettato rischia di veder realizzata una sagra delle varianti al progetto piuttosto che l’opera stessa, con tutto quello che questo comporta…ma questa è un’altra storia.

Prima di lasciarvi al documento, vorrei però metterne in risalto poche righe con le quali anche gli amici geologi, solitamente prudenti nell’affrontare i temi climatici, non hanno saputo resistere alla tentazione di salire sul carro del clima che cambia:

[…] Si tratta di valutare quando avverrà il cambiamento di percorso del fiume, tenendo presente i cambiamenti climatici in atto che tendono a far sì che la velocità del cambiamento è aumentata rispetto alle previsioni di alcuni decenni or sono. […]

Come al solito, si tratta di un inchino al pensiero dominante privo di riscontri oggettivi, a meno che non si disponga di informazioni scientificamente robuste che spieghino di quale cambiamento si tratti e di come la sua velocità sia aumentata. Se il riferimento è agli eventi precipitativi estremi, non risulta ci siano lavori solidi che corroborino questa affermazione. Anche su questo, magari, qualche lettore saprà darci qualche informazione in più.

Ciò detto, questo è il testo: L’ansia per uno stadio nell’ansa di un fiume: il caso di Tor di valle a Roma. La pericolosità idrogeologica deve rientrare tra le scelte strategiche di un Paese fragile.

Buona lettura

Facebooktwittergoogle_pluslinkedinmail

CO2, numeri impossibili… O forse no?

Posted by on 18:29 in Ambiente, Attualità, Climatologia | 1 comment

CO2, numeri impossibili… O forse no?

Vengo a conoscenza tramite Twitter di un paper di recentissima pubblicazione su Global and Planetary Change:

In pratica si tratta di una revisione sostanziale del ciclo del carbonio, attraverso la quale l’autore (singolo) giunge a due conclusioni piuttosto sorprendenti per quanto si allontatano dal paradigma cui siamo abituati su questo argomento.

Numeri a parte, che vedremo brevemente tra poco, l’innovazione più significativa nell’approccio alla definizione dellle dinamiche che regolano i ruoli dei fattori sorgente e assorbente delle emissioni, è quella di considerarli dipendenti dalla temperatura, quindi tutt’altro che stabili nel tempo, con la capacità del sistema di “gestire” l’assorbimento che varia al variare della temperatura. Una instabilità o, se credete, una predisposizione al cambiamento, di cui in larga misura non si tiene conto nei lavori che sono alla base delle assunzioni dell’IPCC, focalizzate essenzialmente sulle fonti di emissione antropica.

Di qui le differenze sostanziali. Il consenso scientifico, per come è espresso dall’IPCC, infatti, assume che la CO2 originata dalle emissioni antropiche avvenute dall’inizio dell’era industriale e fino al 2100, resterà in atmosfera per più di mille anni e che la sua rimozione totale richiederà alcune centinaia di migliaia di anni. Tenendo conto delle modifiche cui sarebbe soggetto il ciclo del carbonio al variare della temperatura, l’autore asserisce che, alle condizioni attuali di temperatura e concentrazione di CO2, la percentuale di anidride carbonica attribuibile alle emissioni antropiche che è ancora in atmosfera sarebbe di 17 ppmv sul totale di 390 ppmv, con le rimamenti 373 ppmv da assegnare quindi alle fonti naturali. Questo relega il contributo antropico all’attuale concentrazione di CO2 al 4,3% del totale, e il contributo all’aumento occorso dal 1750 ad oggi al 15%.

Da notare, come scrive lo stesso autore e come asserisce la letteratura utilizzata dall’IPCC, che comunque è noto che le fonti naturali contribuiscono al 95% al ciclo del carbonio, per cui pensare che le loro dinamiche siano ininfluenti è quanto meno riduttivo.

Il paper è a questo link, benché ovviamente a pagamento, ma su questa pagina ce n’è un estratto abbastanza lungo.

Buona lettura.

Facebooktwittergoogle_pluslinkedinmail

Palme, Banani e il Clima di Milano

Posted by on 13:00 in Ambiente, Attualità, Climatologia | 3 comments

Palme, Banani e il Clima di Milano

Nessuno di noi può sfuggire in questi giorni  al tormentone dei media su palme e banani piantumati in Piazza Duomo a Milano. In questa sede mi asterrò da ogni commento sull’opportunità in termini estetici di una tale scelta e chiederei ai lettori la cortesia di fare altrettanto, alla luce del fatto che “de gustibus non est disputandum”.

Vedrò invece di analizzare in modo molto sintetico il tema della “compatibilità” di banani e palme con il clima di Milano, che un clima Cfa di Koeppen.

Anzitutto il banano (Musa spp.), pur senza quasi mai fruttificare, sopravvive senza grandi problemi nella città di Milano in quanto, anche se i suoi fusti venissero uccisi dal gelo, si salverebbe comunque il rizoma, il quale essendo interrato è protetto dal gelo e produrrà nuovi germogli la primavera successiva.

Venendo poi alla palma piantata in Piazza del Duomo, non si tratta di una palma tropicale ma una palma delle medie latitudini e cioè della palma giapponese o se preferite cinese (Trachycarpus fortunei (Hook.) H.Wendl) che ha un’ottima resistenza al gelo come dimostra il fatto che fa bella mostra di sé nel Nord Italia e nella stessa Milano da oltre un secolo (fu infatti uno dei cavalli di battaglia del liberty a inizio novecento). Per inciso ricordo che un filare di queste palme si trova da decenni in via Ponzio nel lato posteriore del Politecnico di Milano  e non mi pare che tali piante abbiano mai avuto problemi di sopravvivenza neppure nel terribile gennaio 1985. Altra cosa sarebbe piantare palme tropicali come la palma da datteri (Phoenix dactylifera L.) che è del tutto incompatibile con il clima milanese perché sensibilissima al gelo.

Si tenga peraltro conto che le specie succitate beneficiano in ogni caso dell’isola di calore che in pieno centro e in condizioni di cielo sereno con tempo stabile aumenta mediamente di 3-4°C le temperature minime rispetto a quelle delle zone rurali circostanti la città, riducendo così sensibilmente la probabilità di gelate.

Facebooktwittergoogle_pluslinkedinmail

Il Carbone è il nemico, usiamo il Carbone

Posted by on 07:00 in Ambiente, Attualità, Energia | 6 comments

Il Carbone è il nemico, usiamo il Carbone

Questa notizia, se non fosse paradossale, sarebbe davvero divertente. Come in moltissimi (quasi tutti) settori di applicazione, anche in campo climatico gli Stati Uniti sono davanti a tutti. Nella ticerca, negli investimenti, nella modellistica, nelle pubblicazioni…e, naturalmente, anche soprattutto in prima linea nella lotta al nemico pubblico numero uno, il riscaldamento globale e i suoi derivati. I più famosi e impegnati scienziattivisti climatici – nuova specie sviluppatasi con lo specifico scopo di salvare il pianeta – sono americani. Negli USA e dagli USA sono gestiti tre dei dataset della temperatura globale più utilizzati, con uno di questi, quello del GHCN, che è praticamente la base di tutti gli altri.

Per gestire tutti questi dati e per far girare modelli di simulazione climatica capaci di arrivare fino all’anno 3000 e oltre (con il nobile scopo di dare a tutti un’idea di cosa indossare in quei giorni se dovesse capitare di fare una gita), c’è bisogno di una spropositata capacità di calcolo, che ovviamente non basta mai.

E così, qualche anno fa, l’NCAR (National Center for Atmospheric Research), famoso istituto di ricerca con sede in Colorado, decise, chiese ed ottenne di dotarsi di un nuovo mega computer. Un’occasione unica, inoltre, per perseguire lo sviluppo economico della località che sarebbe stata scelta per la realizzazione. Tutto bello, tutto giusto, tutto invidiabile.

Solo che, quando sono andati a spingere il tasto “on”, si sono accorti che il mega computer non era nello stato del Colorado, ma in quello del Wyoming. Che strano, perché gli amministratori del Colorado avrebbero dovuto rinunciare alla visibilità ed alle fantastiche opportunità di un’occasione del genere? Molto semplice, come tutti i mega computer, anche questo, sebbene nuovo di zecca ed altamente efficiente, ha bisogno di un sacco di energia per funzionare, dove per un sacco si intendono 8 MW, di cui 4-5 per il calcolo e 3-4 per il raffreddamento. In Wyoming l’elettricità costa molto ma molto meno che in Colorado, quindi, da un punto di vista economico, la scelta era quasi obbligata, pena rendere l’operazione insostenibile. E perché costa poco l’energia in quello stato? Ancora più semplice, perché è prodotta per il 95% del fabbisogno con il carbone, di cui lo stato e ricchissimo, al punto da gestire una delle più grandi e produttive miniere della nazione. Un posto da dove si vende carbone a tutto il mondo.

Dunque, l’equazione è questa. L’uso dei combustibili fossili ammazza il pianeta; per sapere se è vero, cosa questo potrebbe comportare e come porvi rimedio, si studia il problema consumando più energia dove costa meno perché prodotta con i combustibili fossili. Con i risultati di questo impegno si consiglia a tutti di smettere di usare i combustibili fossili per pagare di più l’energia.

Elementare no?

PS: trovate tutto qui. Il mega computer comunque si chiama Cheyenne…gli americani non si battono…

Facebooktwittergoogle_pluslinkedinmail

L’Altalena del Clima nell’Era Glaciale – Eventi, Meccanismi e Conseguenze Storiche

Posted by on 07:00 in Attualità, Climatologia | 8 comments

L’Altalena del Clima nell’Era Glaciale – Eventi, Meccanismi e Conseguenze Storiche

Riassunto

Partendo dal ricco materiale presentato nella review a firma Javier, apparsa alcuni giorni or sono sul sito di Judith Curry, parleremo degli eventi di Dansgaard-Oeschger (D-O) e degli eventi di Heinrich (H) discorrendo in particolare delle possibili cause e degli effetti sugli ecosistemi e sulle popolazioni umane che vissero in Eurasia alle medie latitudini durante l’ultima era glaciale.

Abstract

Starting from the wide review of Javier issued a few days ago on the web site of Judith Curry (https://judithcurry.com/2017/02/17/nature-unbound-ii-the-dansgaard-oeschger-cycle/ ), we talk about the Dansgaard-Oeschger events (D-O) and the Heinrich events (H) discussing in particular the causes and the effects on the ecosystems and human / hominid populations living in Eurasia at mid latitudes during the Wurm glaciation.

LA SCOPERTA DEGLI EVENTI D-O E DEGLI EVENTI H

Gli eventi di Dansgaard-Oeschger (di qui in avanti indicati come eventi D-O) sono eventi climatici il cui elemento più caratteristico è un forte ed improvviso aumento delle temperature dell’aria in Artico, per cui possono essere fatti ricadere nella categoria degli “abrupt climate changes”. La scoperta di tali eventi nella glaciazione di Wurm si deve a Willi Dansgaard, il quale li mise in evidenza nel 1972 studiando la composizione isotopica di una carota glaciale prelevata a Camp Century in Groenlandia. Circa 20 anni dopo, Hans Oeschger segnalò che gli eventi D-O erano accompagnati da un brusco aumento dei livelli di CO2 (Stauffer et al., 1984), aumento poi destituito di fondamento e attribuito ad una contaminazione chimica in quanto non trova alcun riscontro nelle carote glaciali antartiche (Javier, 2017).

Gli eventi di Heinrich (di qui in avanti eventi H) sono invece eventi il cui aspetto più caratteristico è la sensibile diminuzione delle temperature dell’aria in Artide e che sono così chiamati perché descritti per la prima volta dal geologo marino Hartmut Heinrich (Heinrich, H., 1988), il quale mise in luce sul fondale oceanico del Nord Atlantico la presenza di sedimenti trasportati da Iceberg staccatisi dai margini marini delle calotte glaciali nella parte finale di tali fasi fredde.

CARATTERISTICHE DEGLI EVENTI D-O E DEGLI EVENTI H

La glaciazione di Wurm si è caratterizzata per l’elevatissima variabilità del clima (figure 1, 7, 8) , con l’alternarsi di fasi calde e fredde rispettivamente note come stadiali e interstadiali. In tale contesto gli eventi D-O e gli eventi H spiccano per la loro intensità, pur non essendo in alcun modo da considerare come gli unici cambiamenti climatici avvenuti in epoca glaciale.

Gli eventi H presentano una periodicità di circa 6000 anni e la loro cronologia è riportata in tabella 1 (Hemming, 2004). Al loro culmine tali eventi determinano la discesa del ghiaccio artico marino in inverno fino a latitudini inferiori ai 45° Nord e alla loro conclusione si manifesta il distacco dalle calotte glaciali boreali di quelle flotte di Icebergs di cui per l’appunto trovò traccia Hartmut Heinrich nei sedimenti marini.

 

Figura 1 – Andamento termico del GRIP core del plateau groenlandese durante la glaciazione di Wurm con indicati 21 eventi D-O (Ganopolski A., Rahmstorf S., 2001).

Tabella 1 – I sette eventi di Heinrich della glaciazione di Wurm. Sono indicate le datazioni dei sedimenti glaciali marini che segnano la chiusura degli eventi (Hemming, 2004).

Evento H6 H5 H4 H3 H2 H1 H0
Migliaia di anni da oggi 60 45 38 31 24 16.8 12

Circa gli eventi D-O si deve anzitutto segnalare che nella glaciazione di Wurm se ne sono registrati  un totale di oltre 20 (figura 1) e che la loro periodicità in anni è di 1470 +/- 8%, che diviene +/- 2% negli eventi più recenti e meglio datati (Rahmstorf,  2003). L’interesse per tali eventi si lega alla loro inusitata potenza: secondo i proxy data del plateau groenlandese le temperature medie annue salgono di circa 8-10°C nell’arco di alcuni decenni e dunque su intervalli di tempo compatibili con la vita umana (figura 2). Come termine di confronto si consideri che l’attuale AGW si caratterizza per un aumento delle temperature in 150 anni che è stato di 0.85°C per le temperature globali e di 1.3°C per quelle europee.

Figura 2 – Andamento termico dei 10 eventi D-O più recenti per il GRIP core del plateau groenlandese (Ganopolski A., Rahmstorf S., 2001).

L’ALTALENA BIPOLARE

Inizialmente gli eventi D-O furono considerati come fenomeni locali, per essere poi elevati al rango di  fenomeni globali dopo averne riscontrato traccia in ambedue gli emisferi (figure 3 e 4), con l’emisfero australe soggetto a una caratteristica opposizione di fase a livello termico rispetto a quello boreale. Infatti le carote glaciali artiche e antartiche mostrano che:

  • il brusco riscaldamento in Groenlandia causato dagli eventi D-O è seguito dall’insorgere di un raffreddamento antartico che si innesca mediamente con un ritardo di 218 ± 92 anni (2σ)
  • il raffreddamento in Groenlandia è seguito dall’insorgere di un riscaldamento in Antartide che si innesca mediamente con un ritardo di 208 ± 96 anni e che è più intenso se la fase fredda di D-O coincide con un evento H (figura 5).

Tutto ciò porta a pensare che si sia di fronte ad una connessione di tipo oceanico fra emisfero Sud e Nord fondata sull’AMOC (Atlantic Meridional Overturning Circulation), che è il principale ramo della grande circolazione  termoalina, componente essenziale del sistema climatico. AMOC è caratterizzata da una corrente propria degli strati superiori dell’Atlantico (prime centinaia di metri di profondità) e che trasporta verso Nord acqua calda e ricca di sale[1] e da una corrente profonda (North Atlantic Deep Water – NADW) che trasporta verso sud acqua fredda. Questo sistema circolatorio oceanico trasporta enormi quantità di calore dall’Emisfero australe e dai tropici verso il Nord Atlantico, dove l’acqua calda risale in superficie trasferendo calore all’atmosfera e raffreddandosi al punto di  sprofondare, innescando così la corrente profonda verso sud. Per lo sprofondamento è essenziale che l’acqua si sufficientemente fredda e sufficientemente ricca di sale, per cui una diluizione dovuta allo scioglimento dei ghiacci artici potrebbe almeno in teoria interromperla.

Il legame fra eventi D-O e AMOC è stato recentemente riassunto in uno schema meccanicistico noto come bipolar seesaw (altalena bipolare, nel senso che coinvolge i due poli) (WAIS Divide Project Members, 2015).

Figura 3 – Effetti globali degli eventi D-O. Il riscaldamento in Groenlandia coincide (punti rossi) con clima caldo umido in Europa, temperature marine superficiali più alte nel Mediterraneo occidentale, aumento delle precipitazioni sulla costa venezuelana, intensificazione del monsone estivo nell’Oceano indiano, aridità nella parte sud-ovest del Nord America e nel Sudest Asiatico, i cambiamenti di ventilazione oceanica in California, aumento della temperatura del mare e della produttività nel mare Arabico. Il riscaldamento in Groenlandia coincide poi (punti blu) con raffreddamento in Antartide e nei mari circumpolari antartici, ove si evidenzia una caratteristica opposizione di fase. I punti gialli indicano le zone in cui le prove sono state reperite solo per il Dryas recente (Y.D.). (W. Broecker. 1999, aggiornato da Javier, 2017).

Figura 4 – Variazioni di temperatura (A) e di precipitazione (B) nelle transizioni stadiale-interstadiale di Wurm stimate con modelli (Menviel, et al. Il 2014).

Figura 5 – Andamento termico idealizzato degli eventi D-O in Artide e Antartide (vn Ommen, 2015 – modificato da Javier, 2017).

COME FUNZIONA L’ALTALENA

Secondo i dati disponibili e utilizzando lo schema prodotto da Javier (2017), proviamo a delineare un interno ciclo D-O partendo dallo stadiale freddo nel momento in cui l’Antartide inizia a riscaldasi (altalena bipolare impostata in modo tale da riscaldare l’Antartide e raffreddare l’Artide). In tale momento AMOC è indebolita e trasferisce poco calore verso il Nord Atlantico, il quale pertanto vede la copertura glaciale espandersi in modo massiccio.

L’aumento delle temperature antartiche accresce il gradiente termico fra i due poli, per cui AMOC si intensifica gradualmente, accrescendo la quantità di acqua calda trasmessa verso Nord. L’acqua calda produce rilascio di iceberg dalle calotte glaciali con la formazione di sedimenti oceanici tipica della fase finale degli eventi H e tuttavia non riesce a scaldare le alte latitudini perché invece di cedere calore all’atmosfera si immerge sotto il mare ghiacciato dove viene stratificata e isolata dall’Aloclino. Tuttavia ogni 1470 (± 120) anni le acque calde emergono in superficie e bruscamente iniziano a riscaldare l’atmosfera, dando così l’avvio all’interstadiale artico. Questo brusco riscaldamento inverte l’altalena bipolare tant’è che dopo circa 218 anni la regione antartica inizia a raffreddarsi. Infatti, una volta emerse in superficie in area artica, le acque calde si raffreddano ed affondano, alimentando la corrente di ritorno fredda. In tale fase le alte latitudini settentrionali iniziano a raffreddarsi aumentando l’estensione del ghiaccio marino e ripristinando così l’aloclino. Pertanto le acque calde in arrivo da sud sono di nuovo isolate rispetto all’atmosfera e la temperatura dell’aria scende fino a porre fine all’interstadiale. Infine il forte raffreddamento del nuovo stadiale ribalta l’altalena bipolare riavviando il ciclo.

In tale schema la chiave di volta è la salita in superficie delle  acque calde che ha luogo ogni 1470 anni. Sul motivo di tale salita si brancola tuttora nel buio e Javier avanza un’ipotesi di tipo mareale e dunque legata a un’interazione del nostro pianeta con Luna e Sole, anche se l’autore si rende perfettamente conto che non vi sono al momento prove a favore della stessa, tanto che la definisce “unsupported hypothesis”. Al riguardo la figura 6 illustra il forcing luni-solare dal 1600 ad oggi così come presentato in un lavoro di Keeling[2] e Wholf del 2000. Lo stesso Keeling negli ultimi anni della sua vita si interessò di effetti mareali sul clima e ciò spiega il suo lavoro con Wholf.

Figura 6 – Forcing luni-solare dal 1600 ad oggi. Ogni evento, indicato da una linea verticale, dà una misura del forcing in termini di velocità angolare della Luna al momento dell’evento. Gli Archi collegano gli eventi prominenti nelle sequenze mareali di 18.03 anni. I massimi secolari sono etichettati con lettere. Infine sono tracciati i principali periodi climatici freddi (Keeling and Wholf, 2000).

EFFETTI ECOLOGICI E STORICI

A livello ecologico occorre evidenziare che gli eventi D-O non sono accompagnati da particolari innalzamenti dei livelli di CO2 atmosferica, il che non è certo favorevole all’espansione dei vegetali che sono alla base delle catene alimentari. Favorevoli a tale espansione si rivelano invece le temperature più miti e le piovosità più elevate alle latitudini medio-basse (figura 4) proprie degli interstadiali D-O. Alla temperatura mite e all’elevata piovosità si lega anche il sensibile aumento dei livelli di metano (CH4) caratterizzato da bassi tenori in deuterio. La povertà in deuterio sta a indicare una probabile origine  dalle aree umide dell’emisfero boreale, escludendo una sua liberazione dai clatrati, evidenza questa che destituisce di fondamento l’ipotesi di una “clathrate gun” come feed-back positivo che agendo su un fattore primario d’innesco sarebbe in grado di dar luogo agli eventi D-O.

Gli eventi D-O e gli eventi H hanno avuto conseguenze profonde sull’evoluzione del genere umano, influenzando vita dei nostri progenitori che nel paleolitico vissero di caccia e raccolta alle medie altitudini di  Europa e in Asia. Si tenga infatti conto che in Eurasia durante la glaciazione di Wurm hanno vissuto la nostra specie e almeno altri tre ominidi (Neanderthaliani, Denisovani, e Homo heidelbergensis) dei quali portiamo tracce significative nel nostro stesso DNA (Ko, 2016).

La nostra specie (Homo sapiens) compare in Europa circa 42 mila anni orsono e dunque in uno stadiale freddo (figura 7), colonizzando le aree che l’effetto oceanico tenevavo libere dal ghiaccio (es: Francia centrale ove si sono reperite le prime tracce dell’uomo di Cro-magnon).

Inoltre degli altri ominidi presenti alle medie altitudini in Europa e in Asia sappiamo che:

Dal diagramma in figura 8 si nota che intorno a 100mila anni orsono l’era glaciale aveva  già avuto inizio anche se non aveva ancora raggiunto il proprio apice, toccato intorno a 80mila anni fa. Gli sconvolgimenti ecologici legati all’espansione dei ghiacci possono aver portato al collasso la popolazione di Homo heidelbergensis, ad esempio riducendone drasticamente le fonti di cibo. In tal senso non è da escludere l’effetto negativo della concorrenza con il più evoluto uomo di Neanderthal.

Figura 7 – Eventi D-O degli ultimi 50 mila anni dati ricavati dalla carota glaciale groenlandese GISP2 (Rahmstorf, 2003).

Figura 8 – Andamenti dell’isotopo 18 dell’ossigeno utilizzati come proxy delle temperature (fonte: https://en.wikipedia.org/wiki/W%C3%BCrm_glaciation).

Gli altri eventi critici (scomparsa della nostra specie ed estinzione di neandertaliani e denisoviani) si collocano invece tutti fra 42mila e 40mila anni orsono. Tale breve periodo cade in uno stadiale freddo (un evento H che immaginiamo difficile per uomo e ominidi) che precede il brusco inizio di un interstadiale caldo avvenuto intorno a 38mila anni orsono (figura 7), il quale ha senza dubbio favorito l’insediamento dei nostri progenitori in Europa e la cui alba non fu invece a quanto pare vista da neandertaliani e denisovani, i quali sarebbero scomparsi prima che questo avesse inizio. Non è da escludere che la scomparsa dei nostri cugini più prossimo sia stata frutto della competizione con il più moderno Homo sapiens per i territori di caccia e raccolta, i ripari, ecc. anche se altre ipotesi (malattie portate dai nuovi colonizzatori o cause non antropiche) non sono al momento da scartare.

L’evento H a noi più noto è il Dryas recente che prende nome da una specie erbacea artica (Dryas octopetala L.) che oggi come relitto glaciale è presente anche su Alpi e Appennino centro-settentronale. Il Dryas recente segue l’evento D-O noto come oscillazione di Allerod ed è da intendere come l’ultimo evento H con cui ci siamo confrontati come specie. Il Dryas recente ha conseguenze enormi in quanto coincide con la nascita dell’agricoltura in quattro luoghi fra loro remoti e non comunicanti e cioè la mezzaluna fertile (medio oriente), Il sudest asiatico, il centro-sud America e l’Africa sub-sahariana. Sulla peculiare sincronicità di quella che può essere considerata una delle maggiori rivoluzioni della storia umana[3] ha certamente agito il clima che durante il Dryas recente divenne più freddo e più arido, motivando popoli dediti a caccia e raccolta a investire nella semina sistematica di vegetali come, nel caso dei Natufiani della mezzaluna fertile, il frumento, l’orzo e le leguminose da granella. Un ruolo enorme nel fenomeno lo rivestì tuttavia l’aumento di CO2 che passando dalle 180 ppmv dell’era glaciale alle 280 ppmv dell’interglaciale rese sensibilmente più produttiva la nascente agricoltura (Sage, 1995).

Si ricordi inoltre che la fine della glaciazione di Wurm fu segnata anche da un imponente aumento del livello marino che crebbe in breve tempo di circa un centinaio di metri, distruggendo i popolamenti umani presenti lungo le coste. Tale incremento, come sostiene da tempo l’amico geologo Uberto  Crescenti, può essere ritenuto all’origine dei miti del diluvio che si ritrovano in tante società umane (dagli aborigeni australiani ai popoli del medio oriente ai popoli pre-colombiani).

Conclusione

E’ difficile ragionare di eventi D-O per le fasi glaciali precedenti a Wurm in quanto la copertura glaciale della calotta groenlandese, su cui si fonda la teoria dell’altalena bipolare, è tutta riferibile alla glaciazione di Wurm o all’Olocene e ciò in quanto il caldissimo interglaciale precedente al nostro ha spazzato via tutto il giaccio della glaciazione di Riss. In sostanza occorrerà trovare altri proxy per estendere la comprensione alle glaciazioni quaternarie che hanno preceduto Wurm (Mc Gregor et al., 2015).

Quanto fin qui scoperto in relazione ad eventi D-O e H pone in luce meccanismi molto interessanti e che mettono  in primo piano come agente causale la grande circolazione oceanica (AMOC). Al riguardo può essere utile domandarsi quanto i meccanismi scoperti siano estendibili all’Olocene. In tal senso Javier ci segnala che, con riferimento all’ipotesi mareale, la minore altezza dei mari rende la situazione glaciale del tutto peculiare, nel senso che solo con mare più basso sarebbe possibile il ciclo che la salita in superficie della acque calde  ogni 1470 anni.

In sintesi dunque per gi eventi D-O disponiamo di un’ipotesi di meccanismo (l’altalena bipolare) che tuttavia non getta luce sulla chiave di volta di tutto il meccanismo e cioè la ciclicità a 1470 anni, il che è un po’ come avere per le mani un antico orologio di cui possiamo studiare gli ingranaggi senza tuttavia avere la più pallida idea della fonte di energia che lo muoveva. C’è dunque ancora molta strada da fare ma questo forse è il bello della faccenda.

Bibliografia

  • Ganopolski A., Rahmstorf S., 2001. Rapid changes of glacial climate simulated in a coupled climate model, Nature 409, 153-158 – doi:10.1038/35051500
  • Hemming S. R., 2004. Heinrich events: Massive late Pleistocene detritus layers of the North Atlantic and their global climate imprint. Reviews of Geophysics
  • Javier, 2017. Nature Unbound II: The Dansgaard- Oeschger Cycle, https://judithcurry.com/2017/02/17/nature-unbound-ii-the-dansgaard-oeschger-cycle/
  • Keeling C.D., Whorf T.P., 2000. The 1,800-year oceanic tidal cycle: A possible cause of rapid climate change, PNAS 97 3814-3819 (http://www.pnas.org/content/97/8/3814.full.pdf)
  • Ko K.H., 2016. Hominin interbreeding and the evolution of human variation, Journal of Biological Research-Thessaloniki, DOI 10.1186/s40709-016-0054-7.
  • McGregor etal 2015 Radiostratigraphy and age structure of the Greenland Ice Sheet, Journal of geophysical research, Earth surface, Volume 120, Issue 2, pages 212–241, February 2015
  • Rahmstorf S.,  2003. Timing of abrupt climate change: A precise clock, Geophys. Res. Lett., 30(10), 1510, doi:10.1029/. 2003GL017115
  • Sage R.W., 1995. Was low atmospheric CO2 during the Pleistocene a limiting factor for the origin of agriculture?, Global Change Biology, Volume 1, Issue 2, 3–106.
  • van Ommen T., 2015. Palaeoclimate: Northern push for the bipolar see-saw. Nature, 520, 630–631
  • WAIS Divide Project Members, 2015. Precise interpolar phasing of abrupt climate change during the last ice age, Nature 520, 661–665.

[1] La ricchezza in sale è frutto in particolare dei processi evaporativi che lo concentrano negli strati superficiali.

[2] Keeling è lo scienziato che avviò i monitoraggi di CO2 a Mauna Loa e che se non erro è citato da Gore nel suo An inconvenient truth

[3] Con la nascita dell’agricoltura nascono ad esempio le prime città e si possono creare quei surplus di cibo che consentono la sopravvivenza di categorie non dedite all’agricoltura (sacerdoti, guerrieri, artigiani, ecc.) ponendo così le basi delle civiltà moderne.

Facebooktwittergoogle_pluslinkedinmail

L’equazione dell’Antropoche?

Posted by on 07:00 in Attualità, Climatologia | 16 comments

L’equazione dell’Antropoche?

Qualche giorno fa G. Guidi ha pubblicato un post in cui si faceva cenno all’articolo, pubblicato sulla rivista The Anthropocene Review dal titolo,

The Anthropocene Equation  di O. Gaffney & W. Steffen (da ora Gaffney et al., 2017).

Incuriosito dal termine “equazione” associato ad Antropocene, sono andato a leggere l’articolo.

Man mano che andavo avanti i dubbi e le perplessità aumentavano in modo esponenziale fino all’apoteosi finale. Ho fatto passare qualche ora ed ho riletto l’articolo. Il mio giudizio non è cambiato di una virgola: è un articolo che lascia allibiti sia dal punto di vista matematico che logico. Procediamo, però, con ordine.

Da un punto di vista puramente astratto il sistema Terra può essere rappresentato da un’equazione differenziale (1)        in cui E sta per Earth, A per astronomico e G per geofisico. Tradotto significa che la variazione nel tempo del sistema Terra è una funzione di due variabili: una astronomica e l’altra geofisica. La variabile astronomica tiene conto del fatto che le condizioni del sistema terrestre dipendono da forzanti orbitali ovvero dalle variazioni di quantità di energia ricevuta che la Terra subisce a seconda delle posizioni in cui essa si trova rispetto al Sole ed alle variazioni che possono caratterizzare l’orbita terrestre. In realtà la variabile astronomica è una variabile molto complessa che coinvolge l’inclinazione dell’asse terrestre, la posizione del sistema solare nella Galassia e tantissimi altri aspetti che abbiamo avuto modo di analizzare in altri post. Tutte queste variabili interagiscono con il sistema terrestre amplificandosi e/o annullandosi a vicenda per cui il fatto di schematizzare cose così complesse con una semplice A rende oltremodo perplessi in quanto è costume, in matematica, che ad una variabile sia associato un campo di valori, ovvero dei numeri, che nel caso di un sistema fisico, rappresentano delle grandezze fisiche misurabili. Stesso discorso vale per G ovvero la variabile geofisica. Essa dovrebbe tener conto degli impatti di corpi extraterrestri, dei vulcani e di tutte le forze endogene ed esogene che modificano il nostro pianeta. Anche qui credo che chi voglia cimentarsi in un calcolo, abbia grosse difficoltà a trovare i valori da inserire nell’equazione.

Gaffney et al., 2017 si rende conto che l’equazione (1) è piuttosto riduttiva in quanto non tiene conto del fatto che i fattori astronomici e geofisici sono mediati da una serie di meccanismi che coinvolgono l’atmosfera, la biosfera, l’idrosfera, la criosfera e così via. In altre parole le forzanti esterne devono confrontarsi con quella che chiamiamo variabilità interna del sistema. Correttamente, quindi, gli autori modificano l’equazione (1) introducendo una terza variabile che tenga conto della variabilità interna al sistema (I), ottenendo l”equazione (2)

Anche per la variabile I  possiamo ripetere in maniera pedissequa tutte le criticità viste per le altre due variabili, ma da un punto di vista logico e restando nel piano della pura astrazione, l’equazione tiene conto dei fattori che determinano le variazioni del sistema Terra e, quindi, del clima terrestre.

Durante il Quaternario piccole variazioni della forzante astronomica sono state in grado di determinare grossi cambiamenti della variabile I per cui il clima, che ha determinato in larga parte le partizioni del Quaternario, è stato guidato dalle forzanti astronomiche e, in misura minore da quelle geofisiche. In questa ottica si collocano i cicli di Milankovic durante i quali le forzanti astronomiche hanno modulato la variabilità interna del sistema che ha determinato i cambiamenti climatici terrestri.

A questo punto Gaffney et al., 2017 calano l’asso: in un sistema con concentrazione di diossido di carbonio atmosferico intorno alle 280 ppm volumetriche, l’attuale ciclo (Olocene) sarebbe continuato per altri 50000 anni circa senza forti scossoni.

Già su questo non si può essere d’accordo con gli autori in quanto altri autori sono di diverso avviso, ma evitiamo divagazioni e cerchiamo di seguire il ragionamento sviluppato nell’articolo. Negli ultimi due secoli e mezzo l’azione dell’uomo ha notevolmente modificato l’ambiente terrestre e, quindi, il sistema Terra. Per questo motivo la variabilità interna di cui tiene conto la variabile I nell’equazione (2), è dipesa in massima parte  dall’uomo, per cui è necessario introdurre un’altra variabile che tenga conto in modo specifico dell’effetto antropico e, a questo punto, i giochi sono fatti: entra in gioco la variabile antropica H e  l’equazione del sistema Terra diviene (3).

Gli autori facendo riferimento essenzialmente ad alcuni articoli di uno di loro (Steffen) hanno la certezza che tutto ciò che sta succedendo sulla Terra sia in massima parte colpa dell’uomo e, quindi, esiste un rapporto molto stretto tra le variazioni di E e le variazioni di H. Per corroborare la loro tesi, fanno una serie di esempi: il ciclo dell’azoto è stato fortemente alterato dal processo di Haber-Bosh (quello che consente di produrre sinteticamente ammoniaca e che è stato alla base, tra l’altro, della rivoluzione verde), il tasso di estinzione delle specie è fortemente aumentato, l’acidificazione degli oceani è senza precedenti come la concentrazione di CO2  atmosferica (almeno negli ultimi 60 milioni di anni). E’ fuor di dubbio, per loro, ovviamente, che ciò ha determinato un legame privilegiato tra E ed H  per cui  l’equazione  (3) può essere comodamente scritta nel modo seguente:

Sulla base di considerazioni più filosofiche che scientifiche e senza uno straccio di numero, gli autori sono riusciti a trasformare una funzione in tre variabili in una funzione in un’unica variabile semplicemente assumendo che le altre variabili sono del tutto trascurabili rispetto ad essa. Essi scrivono che tendono (?) a zero: usano una freccia che in matematica ha questo significato. Detto in altre parole, la variabilità del sistema Terra dipenderebbe solo ed esclusivamente dall’uomo, punto. Io sono senza parole in quanto ciò significa che l’impatto di un meteorite di dimensioni chilometriche, un’emissione di massa coronale fronte Terra, un cambiamento di direzione del campo magnetico terrestre o altri fenomeni naturali che in passato si sono verificati, sono del tutto insignificanti rispetto all’azione dell’uomo. Gli autori sottolineano, però, che ci troviamo in un campo di pura astrazione (e meno male), ma non lesinano considerazioni che calano l’astrazione nella nostra realtà quotidiana. Essi cercano, infatti, di “quantificare” la variabile H attraverso una serie di variabili aggiuntive per cui

Le lettere hanno il seguente significato: P è la popolazione globale (veramente è la parte della popolazione che consuma di più, cioè i perfidi ed abietti abitanti del primo mondo), C rappresenta il consumo e T  la tecnosfera, ovvero l’influenza della tecnologia e della tecnocrazia sull’ambiente.

A questo punto il quadro è fin troppo chiaro: si è voluto ammantare di una veste matematica un discorso prettamente politico, quello della ridistribuzione della ricchezza a livello planetario e quello della distinzione del genere umano tra “buoni” (gli abitanti del terzo e quarto mondo) e “cattivi” (tutti gli altri), con questi ultimi nella veste dei devastatori del paradiso terrestre planetario.

Una cosa “positiva” la possiamo trovare, però, nell’articolo. Gli autori hanno l’onestà intellettuale di ammettere che la forma di H è molto simile a quella dell’identità di Ehrlich di cui conosciamo la storia ed il suo infelice epilogo.  Già questo avrebbe dovuto dissuaderli dal perseverare nel loro discorso, ma non è stato così.

Non contenti di aver individuato una relazione che già aveva dato una pessima prova di se nel passato recente, gli autori hanno deciso di continuare ad oltraggiare la matematica elaborando uno schema che riprende anche se alla lontana l’attrattore di Lorenz. Questo accoppiamento mi ha fatto male in quanto poteva anche starmi bene la descrizione astratta (forse meglio sarebbe dire astrusa) dell’equazione dell’Antropocene, ma utilizzare l’attrattore di Lorenz, frutto di elaborazioni matematiche ben precise che generano la grafica che ci è nota e che ci ammalia, senza un minimo di elaborazione numerica, solo sulla base di elucubrazioni che a volte rasentano le allucinazioni, è troppo.

In questo schema si vede la Terra ancorata nello spazio delle fasi, caratterizzato da due grossi lobi che rappresentano la fase glaciale e quella interglaciale, con cicli di circa 100000 anni regolati dall’equazione (2). Nel 1950, non si capisce bene su quali basi numeriche e fattuali, la Terra si sposta velocemente nello spazio delle fasi e nel 2016 fuoriesce dall’attrattore su cui aveva stazionato per milioni di anni, passando su di un nuovo attrattore indicato come “Stato dell’Antropocene”. Dopo un certo numero di cicli, non si sa bene sulla base di quale calcolo numerico, si allontana dall’attrattore diretta verso la perdizione totale. Un disegnuccio privo di senso matematico.

E per finire due considerazioni.

L’Antropocene non esiste. Come già ebbi modo di scrivere in un commento ad un altro post, qui su CM, esso non esiste nella stratigrafia geologica. Inserire una nuova epoca geologica nella cronologia geologica è un’operazione estremamente complessa e richiede che essa sia ben evidente nella stratigrafia, sia, cioè, caratterizzata da un ben preciso affioramento con delle specifiche caratteristiche che lo distinguano da altri affioramenti. Una nuova epoca può essere definita solo ed esclusivamente dall’International Commission of Stratigraphy e, ad oggi, nessun documento ufficiale della Commissione ha stabilito che esiste un’epoca definita Antropocene. Allo stato degli atti la Commissione ha costituito un gruppo di lavoro che sta esplorando (e sono già alcuni anni) la questione.
Fino a quando il gruppo di lavoro non si sarà pronunciato, la Sottocommissione del Quaternario non avrà deciso circa il lavoro del gruppo e, infine, la Commissione non avrà deliberato, è del tutto inutile parlare di Antropocene e, di conseguenza, di “equazione dell’Antropocene”.  Equivale a disquisire del sesso degli angeli.

L’ultima considerazione riguarda l’articolo di Gaffney e Steffen, 2017. Raramente ho avuto occasione di leggere qualcosa di peggio. Io amo il genere fantasy, per cui sono abituato a scenari, per così dire, alternativi, ma se leggo un racconto di fantascienza so perfettamente dove andremo a parare. In questo caso di fantasy stiamo parlando, ma spacciato per scienza.

Facebooktwittergoogle_pluslinkedinmail

Rassegna dissonante

Posted by on 08:00 in Attualità, Climatologia | 1 comment

Rassegna dissonante

Ricostruzioni e modelli non coincidono? Cambiamo le ricostruzioni.

Da Science Daily ma, soprattutto da Nature Geoscience, uno studio che ha prodotto nuove ricostruzione del clima del medio olocene nell’area del Mediterraneo, risolvendo a quanto pare un problemino non banale. Dalle ricostruzioni precedenti, basate essenzialmente sull’analisi di sedimenti di pollini, il periodo compreso tra 9000 e 5000 anni fa era noto essere stato piuttosto freddo per l’area del Mediterraneo. I modelli climatici, però, non riescono a riprodurre questo raffreddamento. Nonostante sia noto che la scarsa attendibilità dei modelli climatici a scala globale diventa praticamente nulla a scala regionale, il problema andava risolto. Non potendo migliorare i modelli, perché per farlo occorre capirci di più sulle dinamiche del clima, cerchiamo di migliorare le ricostruzioni. E così è stato, passando all’esame di fossili di insetti, dall’analisi dei quali sembra risulti che quel periodo è stato in realtà più caldo di quanto si pensasse.

Questo riabilita i modelli, che poi possa non corrispondere a quanto accaduto è un altro problema, che del resto avevamo anche prima. Sorge però una domanda: perché quel periodo è stato così caldo con 260 ppmv di CO2? E se attraverso quel periodo il Mediterraneo ci è passato indenne, perché il fatto che sia caldo adesso dovrebbe essere fonte di preoccupazione?

Il rateo di riscaldamento di 0.7°C del periodo recente è eccezionale

The Antropocene Equation

Nelle ultime sei decadi, i forcing antropogenici hanno portato ratei di cambaimento eccezionalmente rapidi nel sistema Terra. Questo nuovo regime può essere rappresentato da una “Equazione dell’Antropocene”, dove gli altri forcing tendono a zero e il rateo di cambiamento indotto dall’uomo può essere stimato.

Perché il gli altri forcing debbano tendere a zero non è chiaro…ma, comunque, lo studio che ci riporta sempre nel medio olocene, questa volta tra 9500 e 5500 anni fa, quindi un periodo di appena 500 anni più recente. Il riferimento però è all’intero pianeta, non più solo al Mediterraneo. Nell’analizzare il rateo di variazione della temperatura negli ultimi 9500 anni, gli autori riportano che:

Tra 9500 e 5500 anni fa le temperature globali si stabilizzarono, seguite poi da un molto leggero trend di raffreddamento (Marcott et al., 2013). Negli ultimi 7000 anni il rateo di cambiamento della temperatura è stato approssimativamente di 0.01°C per secolo. Negli ultimi cento anni, il rateo di cambiamento è stato di circa 0.7°C per secolo (IPCC 2013), 70 volte più dell’altro e nella direzione opposta. Negli ultimi 45 anni (dal 1970, quando l’influenza degli uomini sul clima è divenuta più evidente) il rateo della temperatura è salito a circa 1.7°C per secolo (NOAA 2016), 170 volte più di quello di rferimento.

Quindi il medio olocene è stato un po’ più freddo ma per il Mediterraneo è stato più caldo. Lo studio preso a riferimento per l’Equazione dell’Antropocene è quello linkato nella citazione. L’autore, in un’intervista di qualche anno fa ha detto:

La nostra ricostruzione globale di paleotemperature include un cosiddetto “upthick” delle temperature durante il ventesimo secolo. Tuttavia, nel paper abbiamo specificato che questo andamento particolare è di durata più breve del periodo di allisciamento della nostra procedura statistica ed è basato soltanto su poche delle paleo-ricostruzioni tra quelle che abbiamo utilizzato. Perciò, la porzione di riscaldamento del ventesimo secolo non è statisticamente robusta, non può essere considerata rappresentativa di cambiamenti globali delle temperature e quindi non è alla base di alcuna delle nostre conclusioni.

Dissonanza

L’Equazione dell’Antropocene non torna. Il pianeta nel medio olocene era più freddo o più caldo? Dipende, se serve per riabilitare i modelli era più caldo, se serve per dire che ora siamo nei guai era più freddo. Questione di prospettiva 😉

 

Facebooktwittergoogle_pluslinkedinmail

Ne sentivamo davvero la mancanza

Posted by on 07:00 in Ambiente, Attualità, Climatologia | 9 comments

Ne sentivamo davvero la mancanza

Il post “Un Mese di Meteo” di questo mese, giunto regolarmente sulle nostre pagine grazie al prezioso lavoro dell’amico Luigi Mariani, ha suscitato più interesse del solito. In particolare, stiamo discutendo della qualità dei dati di cui si dispone per compiere queste analisi postume. Un tema topico quando si parla di clima e tempo. Già perché potrà sembrare banale, ma senza dati di buona qualità non c’è valutazione che tenga. E, purtroppo, di dati di buona qualità non ce ne sono molti.

Prendiamo il caso del recente maltempo che abbiamo avuto sulle regioni centrali adriatiche e, appena pochi giorni prima, su quelle meridionali, sempre di sud-est. Intense ed abbondanti nevicate accompagnate da temperature molto basse, ad opera della più classica delle discese di aria polare continentale proveniente dalla Russia. Davvero tanta neve, accumuli per i quali non c’è bisogno di far calcoli per capire che i numeri finali si collocano a buon diritto nella parte più alta della distribuzione statistica degli eventi di questo genere.

Una distribuzione che però esiste e che conferma, qualora mai non si volessero ascoltare le voci di chi da quelle parti ci ha trascorso l’esistenza, che questo genere di cose accadono, non molto spesso ma accadono. Forse non tutti sanno, ad esempio, che il record mondiale della nevicata più abbondante appartiene a due paesi, Caparacotta in provincia di Isernia e Pescocostanzo in provincia di l’Aquila, record segnato nel marzo del 2015.

Sicché, di cos’è che non si sentiva davvero bisogno? Semplice: di scomodare i cambiamenti climatici per giustificare la necessità di aumentare la resilienza del nostro territorio a questo tipo di eventi.

E’ accaduto il 9 febbraio scorso alla Commissione Ambiente della Camera, durante le audizioni dei rappresentanti di Enel e Terna, chiamati a riferire dei “disservizi verificatisi nelle zone dell’Italia centrale in seguito ai recenti eventi sismici e avversità meteorologiche”. Stando a quanto riportato dai media, il Presidente della commissione, circa gli eventi atmosferici del gennaio scorso, avrebbe dichiarato che “Bisogna preparasi a prevenire il ripetersi di simili casi per il futuro e che “Da quanto riferito da Enel, oggi in audizione alle Commissioni riunite Ambiente Territorio e Lavori Pubblici e Attività Produttive della Camera, emerge la conferma che i fenomeni meteorologici estremi legati ai mutamenti climatici in atto sono in aumento, sia per frequenza che per intensità. Evidenza che peraltro risulta con chiarezza anche da numerose fonti internazionali. E’ prioritario prepararsi ad affrontare le conseguenze del climate change rafforzando la capacita’ di resilienza dell’Italia, il cui territorio e’ notoriamente fragile. Per la rete elettrica occorre investire sia in nuove tecnologie, che aumentare la magliatura della rete come avviene gia’ in alcune zone alpine. E’ necessario aprire da subito un capitolo importante delle politiche di adattamento anche tecnologico ai mutamenti climatici”.

Ora, non è dato sapere di quali informazioni inerenti le serie meteorologiche storiche siano in possesso Enel, Terna o chi li ha ascoltati. Però sappiamo che in Abruzzo di stazioni con serie storiche sufficientemente lunghe per corroborare queste affermazioni non ce ne sono. Probabilmente ci sono i dati, nei registri di qualche convento e nelle annotazioni di qualche appassionato, dati che andrebbero analizzati, studiati e validati, cosa che inoltre andrebbe fatta per tutto il nostro territorio. Ma nessuno lo ha fatto mai, perché sono lavori in cui si deve investire tempo e denaro, senza la certezza di giungere a qualcosa di concreto. Infatti, le fonti internazionali cui si fa riferimento, invece di confemare quanto riportato, lo negano.

Per esempio, ecco l’IPCC nel report del 2015, capitolo 2, appunto sugli eventi estremi (le parti più salienti sono sottolineate):

  • “Overall, the most robust global changes in climate extremes are seen in measures of daily temperature, including to some extent, heat waves. Precipitation extremes also appear to be increasing, but there is large spatial variability”
  • There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century
  • “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century … No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin”
  • “In summary, there continues to be a lack of evidence and thus low confidence regarding the sign of trend in the magnitude and/or frequency of floods on a global scale”
  • In summary, there is low confidence in observed trends in small-scale severe weather phenomena such as hail and thunderstorms because of historical data inhomogeneities and inadequacies in monitoring systems

Quindi, non c’è evidenza di aumento degli eventi estremi che non siano ondate di calore (su cui si potrebbe comunque discutere a lungo) a partire dalla seconda metà del secolo scorso, quello, per intenderci, del riscaldamento globale. E, in sostanza, non ci sono trend osservati che riportino un aumento degli eventi estremi a limitata scala spaziale, soprattutto a causa della disomogeneità dei dati storici e dell’inadeguatezza dei sistemi di osservazione.

Ora, che la resilienza vada aumentata è fuor di dubbio. In un paese fatto quasi interamente di montagne dove in genere nevica viene da pensare che si debba poter disporre di infrastrutture adeguate. Che lo si debba fare perché il clima è cambiato è falso. Che lo si debba fare perché è previsto che cambi in peggio, ammesso che esistano condizioni ottimali diverse dalla normale variabilità climatica, eventi estremi compresi, non trova conferme nelle informazioni di cui disponiamo.

Ma lo dicono tutti, ormai a tutti i livelli. Peccato che additare il clima che cambia non farà smettere di piovere, né di nevicare. E continuare a ripetere una cosa falsa non la farà diventare vera.

Facebooktwittergoogle_pluslinkedinmail

La neve dalla nebbia, quando la Natura si mescola con le attività umane

Posted by on 08:00 in Ambiente, Attualità | 2 comments

La neve dalla nebbia, quando la Natura si mescola con le attività umane

L’amico Luigi Mariani mi ha segnalato una notizia piuttosto interessante. Una ventina di giorni fa, in Olanda, c’è stata una nevicata davvero singolare. Breve, molto localizzata, in condizioni di alta pressione, con molta nebbia e, soprattutto, largamente imprevista. Guardate la foto qui sotto.

Sembra un’immagine passata a Photoshop, invece è un classico caso di nebbia che da origine a precipitazioni nevose. E’ un fenomeno che a volte capita in Pianura Padana ed è conosciuto come “neve chimica”, nell’accezione endemicamente negativa che riusciamo a dare a tutti gli eventi in cui in qualche modo abbiamo un ruolo. Del resto, è assodato che in questo genere di eventi le emissioni inquinanti hanno un ruolo fondamentale.

L’immagine è stata ripresa dall’Operational Land Imager (OLI) su Landsat 8 il 19 gennaio, un paio di giorni dopo le precipitazioni nevose. In sostanza, quando sussistono condizioni assoluta stabilità e basse temperature, si generano inversioni termiche nello strato atmosferico più basso che impedendo il rimescolamento verticale favoriscono la formazione della nebbia. In più, nelle zone sottovento (non dimenticate mai che la nebbia ha bisogno comunque di debolissimi movimenti d’aria) alle aree industriali, il particolato rilasciato da queste ultime aumenta le probabilità di condensazione. Il rimescolamento interno alla nube favorisce la diminuzione delle temperature e, quindi, di ulteriore condensazione, sia in forma solida che in forma liquida. L’ambiente misto in cui viene a trovarsi la nube innesca un processo noto come Wegener-Bergeron, con i cristalli di ghiaccio che crescono di dimensioni a spese delle gocce d’acqua e, magicamente, scende la neve.

Perché spot e non diffusa? Semplicemente perché l’addizione di particolato proveniente dalle aree industriali è sostanziale al fine dell’innesco di tutto il processo, altrimenti la nebbia resta quello che è normalmente, un aggregato di goccioline minuscole confinato negli strati più bassi dell’atmosfera.

E’ palese che questi eventi sono comunque deboli ed estremamente localizzati, ma proprio per questo però possono presentare difficoltà di gestione non banali, per esempio in ordine alla circolazione stradale.

Se volete saperne un po’ di più andate su questa pagina della NASA, dove ci sono anche un paio di documenti che descrivono analoghi eventi di qualche anno fa.

Facebooktwittergoogle_pluslinkedinmail

Come ti cambio il passato, ovvero, un commento sui dati della ricerca “pausebuster”

Posted by on 08:00 in Attualità, Climatologia | 11 comments

Come ti cambio il passato, ovvero, un commento sui dati della ricerca “pausebuster”

Riassunto: Vengono presentati alcuni dei dati utilizzati per il lavoro di Karl et al.,2015 (detto pausebuster per il tentativo di cancellare la pausa delle temperature globali dopo il 2000), nonché sottolineati certi aspetti poco chiari.
Abstract: Some data used in Karl et al.,2015 (named the pausebuster paper for the aim to cancel the after-2000 pause in global temperature) are presented and commented in a few quite unclear behaviours.

Una notizia importante per chi si occupa o si diletta di clima è quella uscita sul Daily Mail il 7 febbraio scorso, sotto forma di una intervista in cui il dr. J.J. Bates (ex responsabile dell’archiviazione dati a NOAA, in pensione dalla fine del 2016) accusa Karl (ex direttore NOAA, in pensione anche lui) di aver usato, per il suo ultimo lavoro, dati non archiviati – e quindi documentati e controllati, assieme al software di analisi – e programmi di elaborazione preliminari e instabili, con lo scopo di annullare la pausa nelle temperature globali di inizio secolo, in vista della COP21 di Parigi e a sostegno scientifico dei relativi accordi politici.

Come è noto, la pausa procurava (e procura) un notevole imbarazzo ai modelli climatici che supportano l’AGW, tanto che per spiegarla/giustificarla, nel corso degli anni sono stati proposte circa 50 spiegazioni diverse o forse di più.

I dettagli sull’uso dei dati da parte di Karl e colleghi sono spiegati in un post di Bates sul sito di Judith Curry (link). I dati sono disponibili a questo sito NOAA sia in originale che nella versione “corretta” tramite il programma instabile cui accennavo poco fa. Io qui uso alcuni dei dati contenuti nelle cartelle “WithoutCorrections” e “NewAnalysis”: quelli della prima cartella li chiamo anche “raw” (grezzi) anche se certamente non lo sono, essendo il risultato di una complessa elaborazione che, partendo dalle singole stazioni distribuite su una griglia geografica, dalla loro varia (e sparsa) posizione territoriale e dalla mancanza di molti dati, provvede ad uniformare l’informazione e a costruire la serie temporale che usiamo.
Per dati “corretti” intendo sia i dati “raw” passati attraverso il programma preliminare e instabile cui ho già accennato (GHCNMv.3.2.2) che i dati disponibili nel sito NOAA Climate at glance (CAG), mensili e annuali, presenti anche nel sito di supporto dal novembre 2011. Chiamo questi ultimi dati anche “ufficiali” perché lo sono e perché sono diversi da quelli corretti da Karl, come si vedrà più avanti.

In fig.1 (pdf) mostro i dati “raw” mensili terra+oceano e solo oceano, e il confronto tra terra+oceano e i dati ufficiali relativi a novembre 2014 (come quelli usati da Karl) e a dicembre 2016 (ultima serie disponibile).

Fig.1: In alto i dati “raw” mensili di terra+oceano e oceano a confronto. in basso sono confrontati terra+oceano(linea nera) e le due serie ufficiali di novembre 2014 (linea blu) e dicembre 2016(linea verde). Questi dati sono mostrati solo per informazione: nel seguito saranno usati i dati annuali.

In fig.2 (pdf) i dati annuali grezzi di terra+oceano e di oceano e il confronto tra i “raw” e i dati “NewAnalysis” depositati da Karl, entrambi terra+oceano. Da notare che i dati sono stati depositati in un sito ftp e non archiviati, come Bates fa notare nel suo post.
Qui si vede l’effetto dell’uso di GHCNMv.3.2.2: la correzione alza (rende più caldi) i dati iniziali della serie fino a circa il 1945 e i dati successivi al 2005 (ma qui la correzione è piccola e quasi paragonabile ad un altro paio lungo la serie). La pendenza complessiva passa da 0.089 a 0.068 °C/decade, con una diminuzione di quasi il 24%.

Fig.2: In alto come in fig.1 per i dati annuali. Da notare la differenza sistematica tra le due serie che inizia subito prima di El Niño 97-98. In basso il confronto tra i dati raw terra+oceano e i dati corretti con GHCNMv.3.2.2 da Karl.

Nel quadro superiore di fig.2 si vede che le due serie si accordano bene, pur con qualche differenza lievemente maggiore tra il 1920 e il 1945, fino all’inizio di El Niño 97-98; dal 1997 mostrano uno scarto sistematico compreso tra 0.05 e 0.1 °C. Perché? Cosa è successo dopo il 1997? Questi dati sono “raw”, per i quali si può discutere come siano state coperte (interpolate) le aree mancanti, in particolare nelle regioni polari e in vaste aree marine, ma sostanzialmente -e per i nostri fini- sono dati accettati, sui quali non c’è discussione.

La minore salita delle temperature marine non trova riscontro nè nell’OHC (Ocean Heath Content) dell’oceano globale (dove inizia dal 2005-2006) nè nella VAT (Vertical Averaged Temperature) dello stesso oceano globale, dove c’è una diminuzione dal 2004 e un rapido aumento dal 2010. Ancora, le temperature terra+oceano non mostrano un aumento di pendenza rispetto a quelle marine, anzi entrambe lasciano vedere una pausa dal 2001, anche se parzialmente mascherata da El Niño 2010.

Per me questa discrepanza resta un mistero.

Per confronto, mostro in fig.3 (pdf) anche i dati “ufficiali”, cioè quelli normalmente disponibili come dati NOAA-NCEI sul sito CAG.

Fig.3: come il quadro inferiore di fig.2, con l’aggiunta dei dati ufficiali NOAA, relativi a novembre 2014 e a dicembre 2016, e i fit lineari di tutte le serie.

Se osserviamo i fit lineari e i valori numerici delle pendenza, notiamo che ci sono tre aspetti poco chiari:

  1. I dati ufficiali (linee rossa e azzurra) sono sistematicamente più caldi di circa 0.3°C rispetto ai dati corretti (linea marrone). Perché?
  2. La pendenza dei dati corretti 1880-2014 (linea marrone) è uguale alla pendenza dei dati ufficiali 1880-2016, quelli con El Niño 2015-2016 (linea rossa). Rispetto alla pendenza dei dati ufficiali 1880-2014 (quelli direttamente confrontabili, linea azzurra) c’è una differenza di circa il 4.5%, piccola ma reale. I dati corretti da Karl (linea marrone) hanno forse bisogno di un’ulteriore correzione perchè la loro pendenza possa coincidere con quella dei dati CAG al 2014?
  3. Nei dati ufficiali al 2014 e al 2016 (linee azzurra e rossa), attorno al 1937-38 si nota una differenza di anomalia pari a circa 0.1°C, ~10 volte i rispettivi, presunti errori di misura ed elaborazione, e non mi sembra di vedere altre situazioni simili nel resto del dataset. Perchè gli algoritmi (o i codici) di analisi producono queste differenze, e per di più in quella zona critica che tante variazioni e discussioni ha prodotto in passato?

In conclusione la solita domanda, ormai trita e ritrita: perché ogni volta che si mette mano a un dataset di temperature globali -cioè alla base minima comune su cui innestare i diversi ragionamenti- sono sempre di più i dubbi e le domande che le certezze?

Tutti i grafici e i dati, iniziali e derivati, relativi a questo post si trovano nel sito di supporto qui, nell’ultima sezione in basso

Bibliografia

 

  • Thomas R. Karl, Anthony Arguez, Boyin Huang, Jay H. Lawrimore, James R. McMahon, Matthew J. Menne, Thomas C. Peterson, Russell S. Vose, Huai-Min Zhang: Possible artifacts of data biases in the recent global surface warming hiatus, Science , 348, 1469-1472, 2015. DOI:10.1126/science.aaa5632
  • Due ulteriori link sulla vicenda Bates-Karl:
    Judith Curry 6.2.17
    WUWT 7.2.17

 

 

Related Posts Plugin for WordPress, Blogger...Facebooktwittergoogle_pluslinkedinmail