Climate Lab – Fatti e Dati in Materia di Clima

Tra la fine del 2015 e l’inizio del 2016, poco dopo la fine della COP21 di Parigi, abbiamo messo a punto un documento pubblicato nella sua interezza (e scaricabile qui in vari formati) con il titolo “Nullius in Verba, fatti e dati in materia di clima”. L’idea è nata dall’esigenza di far chiarezza, ove possibile e nei limiti dell’attuale conoscenza e letteratura disponibili, in un settore dove l’informazione sembra si possa fare solo per proclami, quasi sempre catastrofici.

Un post però, per quanto approfondito e per quanto sempre disponibile per la lettura, soffre dei difetti di tutte le cose pubblicate nel flusso del blog, cioè, invecchia in fretta. Per tener vivo un argomento, è invece necessario aggiornarlo di continuo, espanderlo, dibatterle, ove necessario, anche cambiarlo. Così è nato Climate Lab, un insieme di pagine raggiungibile anche da un widget in home page e dal menù principale del blog. Ad ognuna di queste pagine, che potranno e dovranno crescere di volume e di numero, sarà dedicato inizialmente uno dei temi affrontati nel post originario. Il tempo poi, e la disponibilità di quanti animano la nostra piccola comunità, ci diranno dove andare.

Tutto questo, per mettere a disposizione dei lettori un punto di riferimento dove andare a cercare un chiarimento, una spiegazione o l’ultimo aggiornamento sugli argomenti salienti del mondo del clima. Qui sotto, quindi, l’elenco delle pagine di Climate Lab, buona lettura.

  • Effetti Ecosistemici
    • Ghiacciai artici e antartici
    • Ghiacciai montani
    • Mortalità da eventi termici estremi
    • Mortalità da disastri naturali
    • Livello degli oceani
    • Acidificazione degli oceani
    • Produzione di cibo
    • Global greening

____________________________________

Contenuti a cura di Luigi Mariani e revisionati in base ai commenti emersi in sede di discussione e per i quali si ringraziano: Donato Barone, Uberto Crescenti, Alberto Ferrari, Gianluca Fusillo, Gianluca Alimonti, Ernesto Pedrocchi, Guido Guidi, Carlo Lombardi, Enzo Pennetta, Sergio Pinna e Franco Zavatti.

Quando gli uomini erano uomini… e la Groenlandia era la Groenlandia

Posted by on 07:00 in Attualità, Climatologia | 10 comments

Quando gli uomini erano uomini… e la Groenlandia era la Groenlandia

Niente paura, gli uomini per molti aspetti non sono più uomini (e neanche le donne), ma la Groenlandia è, oggi, come è sempre stata. Magari un po’ più verde o un po’ più bianca ma, a dispetto delle profezie di sventura che ne paventano l’imminente scioglimento, almeno lei non è cambiata più di tanto.

A rassicurarci su questo argomento, sebbene avendo cura di non dirlo né di farlo direttamente, arriva uno studio pubblicato sulla rivista Geology e ripreso dal EurekAlert:

Study shows that Vikings enjoyed a warmer Greenland

Sicché, analizzando i dati di prossimità disponibili, essenzialmente sedimenti rinvenuti nelle stratificazioni del fango accumulatosi nei secoli, questo gruppo di ricercatori è stato in grado di ricostruire le oscillazioni climatiche dell’area per gli ultimi 3000 anni. E’ subito apparsa loro chiaramente l’importante oscillazione negativa della Piccola Età Glaciale, così come i periodi più caldi precedente e successivo. I Vichinghi occuparono la costa della Groenlandia dal 985 al 1450 circa, quindi esattamente durante la fase calda medioevale, abbandonando il territorio quando la PEG stava consolidandosi. Particolarmente interessante il fatto che da quanto sono stati in grado di ricostruire, appare anche che nel periodo immediatamente precedente la virata verso il freddo, il clima divenne più instabile, con picchi sia positivi che negativi delle temperature.

E’ questo un segnale riconducibile ad una propensione della circolazione atmosferica a livello di emisfero ad assumere caratteristiche più meridiane, cioè con frequenti scambi d’aria lungo la longitudine, cui si associa anche la fenomenologia più intensa. una descrizione questa che ha molte analogie con l’attualità, e che, per l’ennesima volta, testimonia non solo la presenza di importanti variazioni del clima nel medio periodo – un clima che non è mai stato stabile come molti vorrebbero lasciare intendere – ma anche la presenza di temperature paragonabili alle attuali per l’area groenlandese nella fase di insediamento delle colonie.

Domanda: da dove veniva quel riscaldamento se non dalla variabilità naturale e dalla progressiva (e persistente anche oggi) fase interglaciale?

la risposta non è difficile e non è dentro di noi, ma nelle serie storiche della temperatura. Così i Vichinghi erano forse un po’ meno tosti, nel senso che le condizioni ambientali che trovarono, pur difficili, pare fossero in qualche modo affrontabili. Tant’è che quando le cose cambiarono, vuoi per il clima, vuoi per il declino della loro organizzazione sociale, furono costretti ad abbandonare gli insediamenti.

Disclaimer: La Groenlandia si chiama così perché le terre dove arrivarono i Vichinghi erano verdi come sono ancora oggi, quindi non è da questo che si misura la variabilità del clima da quelle parti. Oltre che dei profeti di sventura climatica, diffidate anche di chi racconta che prima era verde ed ora è bianca per sostenere la tesi opposta ;-).

Enjoy

Facebooktwittergoogle_pluslinkedinmail

L’influenza umana sul clima terrestre: nuove ipotesi di lavoro

Posted by on 13:16 in Attualità, Climatologia | 7 comments

L’influenza umana sul clima terrestre: nuove ipotesi di lavoro

Nel corso degli anni la Piccola Era Glaciale (PEG), gli ottimi climatici romano, miceneo e medioevale sono stati indicati come un chiaro esempio di cambiamenti naturali del clima terrestre in quanto, si pensava, che l’uomo durante quel periodo fosse incapace di modificare in modo significativo il contenuto di diossido di carbonio atmosferico e, quindi, l’equilibrio radiativo del pianeta. Ciò in ossequio alla teoria secondo la quale solo la CO2 atmosferica è responsabile dei cambiamenti climatici. Stando ad un articolo di The Guardian, però, sembrerebbe che, almeno per la PEG, non sia così. Anche questo cambiamento climatico, infatti, sarebbe una conseguenza dell’impatto umano sul clima terrestre.

Secondo l’articolo pubblicato dal quotidiano inglese, le prove di ciò sono contenute nei risultati di una ricerca condotta da un gruppo di scienziati inglesi.
La cosa mi sembra degna di approfondimento e, seguendo il link all’articolo scientifico contenuto nel pezzo del Guardian, vado a cercarlo, augurandomi che esso sia liberamente accessibile. Sono stato fortunato: l’articolo è open access!

L’articolo cui fa riferimento il pezzo del Guardian, è contenuto in un numero di Quaternary Science Reviews che porta la data del primo marzo 2019, ma che è già disponibile in rete, è

Earth system impacts of the European arrival and Great Dying in the Americas after 1492 a firma di A. Koch, C. Brierley, M.M. Maslin e S. L. Lewis (da ora Koch et al., 2019)

Koch et al, 2019 sviluppa un articolato ragionamento che, però, ….. NON porta alla conclusione adombrata dal Guardian. Nonostante ciò ho deciso di condividere con i lettori di CM i contenuti dell’articolo che, nonostante siano diversi da quanto faccia pensare The Guardian, in ogni caso mi sembrano piuttosto interessanti anche se poco condivisibili, almeno per quel che mi riguarda.

Nel 1492 la spedizione capeggiata da C. Colombo arrivò nel continente americano: l’uomo europeo e quello americano si incontrarono e le sorti del mondo cambiarono. Questo è pacifico e lo riportano tutti i manuali scolastici, a partire da quelli per le scuole elementari. L’incontro non fu indolore per i nativi americani per diversi ordini di motivi. Gli studiosi di storia, di biologia, di antropologia, di epidemiologia e via cantando, si sono molto appassionati alla questione ed hanno elaborato una serie di teorie che hanno cercato di spiegare un evento estremamente traumatico: la scomparsa della maggior parte della popolazione indigena americana.

Andiamo a guardare alcune di queste teorie. Secondo alcuni studiosi gli europei “esportarono” nel Nuovo Mondo molte delle patologie che per secoli li avevano decimati: peste, vaiolo, morbillo, influenza, ecc. e che erano sconosciute ai nativi. La loro virulenza, attenuata nel Vecchio Mondo da secoli di convivenza, in America non trovò alcun ostacolo immunitario e quindi fece strage della popolazione locale.
Secondo altre teorie un raffreddamento del clima, unito alle vessazioni cui i nativi erano sottoposti dai conquistatori che determinavano peggiori condizioni di vita, resero estremamente perniciosi gli effetti delle epidemie amplificandone le conseguenze già di per se nefaste.

Cosa sia effettivamente successo in quel periodo storico, è molto difficile da capire e, probabilmente, non riusciremo mai a comprendere a fondo ciò che effettivamente successe. La spiegazione più probabile, secondo il mio modesto parere, potrebbe essere quella che riunisce tutte le varie spiegazioni del fenomeno e, quindi, un insieme di cause sanitarie, ambientali, sociali ed economiche che determinarono il disastroso tracollo della popolazione americana.

Partendo da questo dato di fatto, cioè la drammatica riduzione della popolazione americana originaria, definita Great Dying dagli autori e che io ho piuttosto liberamente tradotto in Grande Moria, nell’articolo si cerca di quantificare il numero delle morti e l’impatto ambientale che la moria determinò. Ad onor del vero gli autori accennano anche all’altra teoria, quella climatica, ma propendono nettamente per la moria come causa e non conseguenza del cambiamento climatico.

Koch et al. 2019 potrebbe essere considerato una rianalisi di diverse serie di dati elaborate da studiosi che si sono occupati del problema. Come per ogni rianalisi che si rispetti, bisogna utilizzare degli algoritmi statistici per interpolare/estrapolare dati e, quindi, pervenire ad un dato sintetico che possa essere ulteriormente elaborato per ottenere il risultato che ci interessa mettere in evidenza.

Per poter comprendere la metodologia utilizzata dagli autori, soffermiamoci per un attimo sul modo in cui essi hanno determinato la popolazione americana prima del 1492, quindi prima dell’arrivo dei colonizzatori europei. Essi hanno in primo luogo diviso il continente americano in aree per così dire omogenee. Basandosi su una serie di lavori che hanno studiato l’evoluzione della popolazione indigena nel corso del periodo a cavallo del 1492 per porzioni significative di queste aree omogenee, gli autori hanno individuato un intervallo entro cui oscillava il dato relativo alla popolazione originaria delle varie aree. In proposito è necessario notare che la banda di oscillazione della popolazione nelle varie aree in cui è stato suddiviso il territorio oggetto di studio, è amplissima. A titolo puramente esemplificativo la popolazione dell’area caraibica, quella del primo contatto, per intenderci, a seconda delle stime, oscilla tra 100.000 abitanti ed 8.000.000 di persone. E’ un intervallo enorme per cui Koch et al., 2019 opta per un più “realistico” 300.000/500.000 persone. Per il Messico le stime oscillano tra circa 3.000.000 e 52.000.000 di abitanti. Anche in questo caso ci troviamo di fronte ad un intervallo enorme e anche in questo caso gli autori optano per un “equo” 20.000.000 di abitanti. Un ulteriore problema deve essere individuato nel fatto che nell’ambito della stessa area (Messico per esempio) troviamo sia stime a carattere nazionale, sia stime a carattere più locale (solo lo Yucatan, ad esempio) per cui è necessario poter omogeneizzare questi dati, per ottenere un dato totale riferito all’intera area oggetto di studio.

Per tagliare la testa al toro, gli autori hanno preso tutte le 119 stime di popolazione delle Americhe precedenti il primo contatto e le hanno suddivise per aree geografiche senza apportare nessuna variazione ai dati numerici e senza esprimere alcun giudizio circa la loro qualità. Successivamente hanno trasformato le stime regionali in stime dell’intera area d’interesse, sommando i singoli dati parziali. Ottenuti i dati nazionali per ognuna delle aree di studio, hanno provveduto a calcolare la mediana dei singoli dati. Tale calcolo è stato effettuato con un procedimento statistico piuttosto sofisticato che ha incrociato i dati a due a due, generando un numero impressionante di combinazioni (2*1028). Ho provato a calcolare manualmente la semplice mediana di alcune serie di dati nazionali ed ho ottenuto risultati che differiscono di poco da quelli calcolati dagli autori, per cui posso affermare che, sostanzialmente, il dato totale della popolazione pre-colombiana delle Americhe è la somma delle mediane delle macro-aree in cui è stato diviso il continente.

Il metodo statistico utilizzato dagli autori ha consentito di calcolare una distribuzione di probabilità che presenta un massimo in corrispondenza del valore di circa 60.000.000 di persone. Tale valore è stato suffragato dalla simulazione Montecarlo basata su 10000 termini, per cui appare statisticamente robusta. Il problema è che sempre di somme di mediane si tratta e, come ha scritto qualche giorno fa G. Guidi in un suo post, la media di diversi errori, sempre errore resta.

Perché questo mi sembra il punto debole di tutto lo studio. Gli autori si limitano a trattare statisticamente dei dati, senza chiedersi che affidabilità essi possano avere, senza attribuire un peso ad ognuno di essi. Si limitano, cioè, ad un mero esercizio matematico attribuendo uguale probabilità di esattezza a stime numeriche enormemente diverse. Se ci trovassimo di fronte ad una serie di misurazioni e volessimo calcolare la semidispersione massima, relativamente all’area caraibica, otterremmo un valore di 3.970.000 che tradotto in errore relativo percentuale, ci dà un eclatante 317,85%!

Con lo stesso criterio calcolano il consumo di suolo pro capite pre-colombiano ed ottengono un valore mediano compreso tra 0,98 ha/ab e 1,11 ha/ab.
In questo caso le stime prese in esame sono poco più di una sessantina e per qualche macroregione il numero di stime è di una o due. Estrapolare all’intera macroregione i dati di zone piuttosto limitate, non mi sembra una grande idea, ma ciò è quello che fanno gli autori. Una semplice moltiplicazione consente di calcolare la superficie terrestre destinata ad uso antropico (coltivazioni, insediamenti e via cantando): circa 62.000.000 di ha.

Koch et al., 2019 passa, poi, a stimare la quantità di popolazione dopo la Grande Moria. Allo scopo vengono utilizzati dei censimenti della popolazione ed i risultati degli studi effettuati sui registri delle tasse e delle esazioni. Essendo tali stime molto poche (sette) ad esse non si può applicare alcun trattamento statistico se non una semplice media aritmetica. Sulla base di questa media la popolazione di indigeni americani tra il 1600 ed il 1650 (circa un secolo e mezzo dopo il primo contatto) è di circa 6.000.000 di individui: il 10% di quella precedente il primo contatto. Sulla base di tali considerazioni Koch et al., 2019 calcola la percentuale di riduzione media della popolazione indigena dopo la Grande Moria: circa il 90%. E’ solo il caso di precisare che questo valore appare molto più grande dei valori medi di calo della popolazione dei nativi americani pubblicati da vari autori, diciamo che è in linea con i risultati di un paio di studi riferiti al Messico ed alle regioni occupate dall’impero Inca. Secondo gli autori la cosa deve essere considerata accettabile, visto che quelle regioni sono state maggiormente studiate dai ricercatori. Non sono molto d’accordo in quanto nessuno può garantire che il tasso di mortalità sia stato lo stesso in ognuna delle macroregioni e lo dimostra il fatto che stime regionali hanno dato valori molto diversi da quello calcolato dagli autori. Estrapolare a tutto il continente americano i dati del Messico, mi sembra un’esagerazione, ma è una mia opinione.

La riduzione della popolazione indigena ha determinato, ovviamente, una riduzione dell’uso del suolo in quanto minori erano le esigenze della popolazione. Questa ipotesi mi sembra molto semplificativa in quanto non tiene conto dell’incremento di popolazione conseguente l’arrivo di coloni dall’Europa e di schiavi dall’Africa e, inoltre, non tiene conto del fatto che immense superfici vennero destinate a colture destinate a soddisfare i fabbisogni europei e dell’uso del suolo per l’estrazione delle ricchezze minerarie dal sottosuolo. Leggendo Koch et al., 2019, si ha l’impressione che le Americhe continuassero ad essere abitate solo dagli indigeni anche un secolo dopo il primo contatto. Continuiamo comunque a seguire il ragionamento degli autori. Sulla base di tale ragionamento, ipotizzando che l’indice pro capite dell’utilizzo del suolo fosse rimasto lo stesso di prima della colonizzazione, la superficie destinata all’uso umano si ridusse drasticamente. Le superfici abbandonate dall’uomo, furono ben presto ricoperte dalla vegetazione selvatica e, lentamente, la foresta pluviale e quella temperata ripresero possesso delle aree una volta utilizzate dall’uomo. Prove di ciò sono fornite dai rilievi archeologici, da quelli satellitari, dallo studio dei residui di incendi ritrovati nelle foreste (bisognerebbe distinguere, però, quelli naturali da quelli appiccati dagli uomini per sottrarre le terre da coltivare alla selva) ed altre metodiche di indagine.
Sulla base dei calcoli effettuati da Koch et al., 2019, la superficie recuperata dalla foresta dopo la Grande Moria, può essere stimata in circa 54.000.000 di ha, pari, grosso modo, all’estensione della Francia.

Ed a questo punto entra in gioco il diossido di carbonio. La foresta assorbe ed immagazzina molto più carbonio rispetto alle coltivazioni umane e l’uso del suolo prima coperto da foreste, libera grandi quantità di carbonio nell’atmosfera. Detto in parole semplici e riassumendo in modo drastico l’ampio ragionamento dei ricercatori, la nuova situazione sottrasse una grande quantità di diossido di carbonio all’atmosfera, generando un rapido raffreddamento del clima. Il tutto è riassunto nel grafico seguente tratto dall’articolo di Koch e colleghi, 2019.

In questa figura nel pannello A è riportata la concentrazione di CO2 atmosferica derivata da carote glaciali, mentre nel pannello B viene ricostruito l’assorbimento di CO2 atmosferico, mediante la rappresentazione del rapporto tra due diversi isotopi del carbonio. Si noti come sia la riduzione della concentrazione di CO2 atmosferica che l’aumento dell’assorbimento di maggiori quantità di carbonio atmosferico, si siano verificati proprio durante la Grande Moria (banda gialla).

Ed ora mi sembra il caso di sviluppare qualche altra considerazione.

Come ho già cercato di spiegare nel corpo del post, lo studio mi lascia alquanto perplesso circa il modo in cui sono stati ricavati i dati, ma, nel complesso, apprezzo l’idea di fondo, ovvero che le modifiche nell’uso del suolo e gli andamenti climatici sono correlati. Non sono rimasto convinto, però, dalla catena causale: è il cambiamento climatico che ha determinato una modifica dell’uso del suolo o è successo il contrario? Gli autori sono convinti che il cambiamento dell’uso del suolo abbia determinato il clima, ma non mi sembra che abbiano fornito una prova incontrovertibile di ciò.
Quello che mi lascia molto perplesso sono però le conclusioni ed in particolare quella parte in cui essi tentano di anticipare al 1610 la data di inizio dell’Antropocene. Chi segue CM sa che considero piuttosto bislacca l’idea di intitolare una nuova epoca geologica non sulla base di una classificazione stratigrafica, ma sull’impulso ideologico-filosofico di alcuni scienziati e di molti attivisti. Più che di Antropocene, parlerei di Antropocentrismo. In ogni caso, ammesso e non concesso, che la Grande Moria abbia innescato un raffreddamento del clima, si è trattato di un evento breve e molto meno intenso di quelli prodotti da eventi naturali che abbiamo avuto modo di esaminare in altri post qui su CM (evento freddo del 536 d.C., per esempio).

Ciò che però mi lascia esterrefatto è il tentativo di The Guardian di attribuire la PEG alla grande Moria degli indigeni americani. La PEG è iniziata quasi due secoli prima degli eventi di cui parlano Koch et al., 2019 ed è finita quasi due secoli dopo. Eppure nell’articolo che lancia lo studio di Koch e colleghi, non si esita a collegare i due eventi. La cosa più buffa di tutte è che nell’articolo di Koch et al., 2019 non si fa proprio riferimento alla PEG, ma in quello del Guardian il legame tra i due eventi è dato quasi per certo. Conoscendo la linea editoriale di The Guardian in tema di cambiamento climatico, la cosa non dovrebbe sorprendere più di tanto, ma credo che a tutto ci debba essere un limite: quello della decenza.

NB: segnalo agli amici di CM un’altra analisi di questo lavoro uscita su La Nuova Bussola Quotidiana a firma di Luigi Mariani.

Facebooktwittergoogle_pluslinkedinmail

Il contenuto di calore degli oceani: questo sconosciuto.

Posted by on 11:31 in Attualità, Climatologia | 8 comments

Il contenuto di calore degli oceani: questo sconosciuto.

Mi sono occupato già diverse volte del problema del contenuto di calore degli oceani. L’ultima occasione è stata un commento di un articolo scientifico pubblicato qualche mese fa.  Grazie ad una segnalazione di G. Guidi, ho avuto la fortuna di scovare una lunga serie di articoli che si occupano dell’argomento e che sono stati recensiti da J. Curry nel suo blog.

Molto interessante mi è parso un articolo segnalato qualche settimana fa da G. Guidi:

The Little Ice Age and 20th century deep Pacific cooling  a firma di G. Gebbie e P. Huybers.

Gli autori sulla scorta di una serie di misure effettuate oltre un secolo fa, di una serie di misure più recenti e degli output di un modello matematico che descrive l’evoluzione del profilo termico verticale dell’oceano in funzione delle temperature superficiali ed atmosferiche, ricostruiscono il contenuto di calore degli oceani nel corso di un millennio circa. Essi calcolano innanzitutto il contenuto di calore dell’Oceano Pacifico e dell’Oceano Atlantico nella seconda metà del XIX secolo sulla base dei rilievi effettuati dalla spedizione del vascello Challenger nel 1874/1875 e lo confrontano con quello ottenuto sulla base delle misure della missione WOCE che nel corso degli anni ’90 del secolo scorso ha provveduto alla misurazione di una serie di parametri idrografici in moltissimi punti della superficie oceanica terrestre, in particolar modo delle temperature oceaniche a varie profondità.

Gli esiti del confronto hanno consentito di acclarare che relativamente all’Oceano Pacifico, la zona compresa tra 0 e 1500 metri di profondità, circa, si è riscaldata in modo molto evidente. Viceversa la zona al di sotto dei 1500 metri ha fatto registrare un raffreddamento statisticamente significativo.  Per l’Oceano Atlantico, invece, le cose sono andate in modo alquanto diverso: il riscaldamento ha riguardato tanto la superficie che le acque profonde (fino a 3500 metri). Dopo i 3500 metri si registra un raffreddamento anche delle acque atlantiche.

Gebbie e P. Huybers hanno utilizzato un modello matematico per ricostruire il profilo verticale di temperature in funzione del tempo ed hanno utilizzato i profili di temperatura verticale ricavati dalle misure di Challenger e WOCE, per calibrare il modello stesso. Sulla base dei risultati ottenuti, i due ricercatori concludono che la dipendenza del contenuto di calore degli oceani dalla temperatura superficiale non può essere considerata una relazione banale, ma una relazione estremamente complessa. In particolare il calore immagazzinato nella parte di oceano più vicina alla superficie, impiega tempi diversi per propagarsi agli strati più profondi dell’oceano. Le parti più profonde dell’Oceano Pacifico, per esempio, si riscaldano (raffreddano) anche diversi secoli dopo che si sono riscaldate (raffreddate) le acque più superficiali. L’Oceano Atlantico segue invece regole diverse, probabilmente a causa del diverso modo in cui agiscono le correnti termoaline. Per quel che riguarda le acque del Pacifico, gli autori sostengono che l’attuale raffreddamento delle acque oceaniche profonde è un effetto della Piccola Era Glaciale.

Le mie perplessità circa la metodologia utilizzata per lo studio, sono diverse.  In primo luogo il volume oceanico indagato direttamente è estremamente ridotto (una piccola percentuale del totale) sia dal punto di vista temporale che spaziale. L’elaborazione modellistica riguarda un ampio intervallo temporale (diversi secoli) e una grossa percentuale della massa oceanica.
Mi sembra che ci troviamo di fronte ad un’estrapolazione piuttosto impegnativa: i risultati di circa due secoli di dati vengono utilizzati per sintonizzare circa 20 secoli di simulazione.

Altrettanto perplesso mi lascia il grande intervallo di incertezza che caratterizza i risultati ottenuti.
Lo scrivo quando i risultati di alcuni studi non mi piacciono e lo ribadisco anche per uno studio le cui conclusioni concordano con il mio pensiero: non mi sembra corretto utilizzare due pesi e due misure.
Tutto ciò premesso, le conclusioni dell’articolo sono piuttosto interessanti. In primis esso manda a carte quarantotto una delle spiegazioni più accreditate del cosiddetto “calore mancante” o “mannaro” che dir si voglia, ovvero di quel calore che non fa quadrare il bilancio energetico del sistema climatico terrestre. Secondo K.E. Trenberth il calore mancante si sarebbe inabissato nelle profondità oceaniche, determinando un aumento delle temperature delle acque abissali: il calore mancante si troverebbe, quindi, in fondo al mare. Stando ai risultati di questo studio, invece, ci vogliono secoli se non millenni perché il calore superficiale si propaghi agli strati più profondi dell’oceano: pochi decenni non sono sufficienti e, pertanto, questa ipotesi non sembra più idonea a spiegare la differenza tra gli output modellistici e le osservazioni. Questo vale però solo per l’Oceano Pacifico mentre per l’Oceano Atlantico il discorso è parecchio diverso e la tesi di Trenberth appare più plausibile.

Altro aspetto importante dello studio di G. Gebbie e P. Huybers riguarda la quantità di calore assorbito dagli oceani nel corso del 20° secolo. Stante la dinamica ipotizzata dagli autori, il riscaldamento delle acque superficiali sperimentato nel corso dell’epoca post industriale, non deve essere imputato esclusivamente al riscaldamento globale generato dalla CO2, ma per circa il 25% al calore ceduto dalle acque più profonde a quelle superficiali. Potremmo dire, quindi, che parte del riscaldamento globale atmosferico potrebbe anche essere conseguenza del raffreddamento delle acque profonde e, quindi, la sua origine dovrebbe essere fatta risalire al periodo caldo medievale.  Insomma una bella botta alle certezze che circolano negli ambienti pro AGW.

Se la quantità di calore assorbita dagli oceani nel corso del 20° secolo è, pertanto, inferiore a quella prevista dagli studiosi, significa che anche i valori della sensibilità climatica all’equilibrio e di quella transitoria, devono essere rivisti al ribasso. E questa non è cosa di poco conto.

Le novità non finiscono qui, però. Sempre scorrendo la lista stilata da J. Curry, troviamo un altro articolo molto interessante:

CERA-20C: A Coupled Reanalysis of the Twentieth Century di P. Loyalaux et al.

CERA è un modello accoppiato oceano-atmosfera e viene utilizzato dall’ECMWF per effettuare rianalisi recenti di parametri atmosferici ed oceanici. CERA- 20C è una versione del modello CERA che è stata implementata per ricostruire i parametri terrestri ed oceanici dell’intero XX secolo, utilizzando una griglia orizzontale con maglie di 125 km di lato e che si sviluppa su   91 livelli verticali.  L’articolo citato si occupa di diversi parametri: temperature superficiali, pressioni, contenuto di calore degli oceani, cicloni tropicali e via cantando. Per quel che riguarda il nostro oggetto di discussione, ovvero il contenuto di calore degli oceani, bisogna considerare il capitolo 5 dell’articolo. In tale capitolo gli autori dopo aver illustrato i vantaggi nell’uso dei modelli accoppiati oceano-atmosfera rispetto a quello dei modelli non accoppiati, commentano i risultati ottenuti. Particolarmente istruttiva è la fig. 10 dell’articolo, di cui riporto un adattamento elaborato sulla base grafica estratta dal post di J. Curry.

In tale figura sono riportati i grafici rappresentanti il contenuto di calore degli oceani nel corso del XX secolo nella fascia superiore ai 300 metri di profondità (pannello in alto a sinistra) nella fascia superiore ai 700 metri di profondità (pannello in alto a destra) e quella dell’intera colonna d’acqua (pannello in basso). Dall’analisi dei diagrammi si può notare che il contenuto di calore della fascia più superficiale degli oceani, è aumentato nel periodo compreso tra l’inizio del secolo e la metà del secolo, raggiungendo il massimo valore tra il 1940 ed il 1960. Successivamente è sceso fino a portarsi ai livelli di inizio secolo e, dopo un breve periodo in cui ha oscillato intorno a valori mediamente bassi, ha ricominciato ad aumentare fino a raggiungere i valori attuali che, in ogni caso, sono più bassi di quelli degli anni ’50 del secolo scorso. Gli altri due pannelli evidenziano un andamento leggermente diverso, in quanto manca il massimo degli anni ’50 e l’incertezza delle misure è notevolmente più elevata. Gli autori fanno notare, infine, che l’incertezza dei risultati dipende in massima parte dalla carenza di osservazioni che vincolino il modello. Essendo il numero di osservazioni piuttosto ridotto alle maggiori profondità e nella prima parte del secolo, non stupisce l’ampiezza della banda di incertezza e l’andamento piuttosto discontinuo dei diagrammi.

Mi sembra che ci sia poco da aggiungere alle considerazioni degli autori: le misure disponibili nella prima metà del secolo scorso sono poche, soprattutto al di sotto dei 300 metri di profondità, per cui le stime del contenuto di calore degli oceani nelle acque profonde è molto imprecisa. Tali misure, inoltre, interessano volumi oceanici molto piccoli e, quindi, una percentuale molto ridotta della massa oceanica.

A questo punto appare evidente un fatto: il contenuto di calore degli oceani è una grandezza piuttosto incerta o, per essere più precisi, è piuttosto incerta la sua evoluzione storica. In altri termini non sappiamo quanto calore fosse contenuto negli oceani prima della metà del secolo scorso, per cui mi viene da sorridere quando sento parlare di incrementi senza precedenti del contenuto di calore degli oceani negli ultimi decenni.

Poiché gran parte dei modelli climatici sono dei modelli accoppiati oceano-atmosfera, in cui il contenuto di calore degli oceani gioca un ruolo molto importante, appare evidente che le incertezze che caratterizzano il valore del contenuto di calore degli oceani, si ripercuotono pesantemente nei risultati delle elaborazioni di questi modelli e, quindi, sugli scenari che essi delineano. Si potrebbe pensare, però, che le incertezze siano relegate al passato, per cui esse non dovrebbero influenzare le elaborazioni dei modelli inizializzati con le condizioni attuali. Non è proprio così, in quanto le incertezze sono piuttosto ampie anche sul contenuto di calore attuale degli oceani.

A quanto ammontano queste incertezze nella stima del contenuto di calore oceanico? A questa domanda fornisce una risposta, purtroppo parziale, un altro articolo recensito da J. Curry:

Towards determining uncertainties in global oceanic mean values of heat, salt, and surface elevation di C. Wunsh.

In questo articolo vengono esaminati gli errori di tipo stocastico commessi nella stima di alcuni parametri che caratterizzano gli oceani e l’atmosfera attraverso le elaborazione modellistiche. Tale analisi viene effettuata per il periodo compreso tra il 1994 ed il 2013 perché la mole di dati che caratterizzano questo periodo, è tale da consentire una loro trattazione statistica.  Non si sono presi in considerazione gli errori sistematici, cioè quelli legati alle schematizzazioni fisiche dei processi di scambio termico atmosfera oceano ed al rumore legato all’elaborazione numerica, in quanto ciò richiederebbe una profonda revisione del codice di calcolo utilizzato.

Lo studio è incentrato su di un modello di circolazione oceanica globale (ECCO 4), ma i risultati possono essere estesi a tutti i modelli di circolazione globale esistenti.  Wunsh parte da una constatazione piuttosto sconfortante: non è possibile determinare le incertezze insite negli output modellistici con metodi matematici rigorosi, in quanto tali metodi richiederebbero potenze di calcolo oggi non disponibili.  Né è possibile una trattazione statistica rigorosa, in quanto i modelli di calcolo generano strutture deterministiche. Il procedimento utilizzato per la stima dell’incertezza, è, pertanto, di tipo euristico, ovvero basato su ipotesi particolari. Nella fattispecie l’ipotesi formulata dall’autore, è che per brevi periodi (venti anni sono un breve periodo per processi secolari se non millenari) le grandezze in gioco non sono in grado di strutturarsi e, quindi, rendono possibile una trattazione statistica dei dati e, pertanto, determinare i livelli di incertezza che li caratterizzano. L’ipotesi mi sembra plausibile, per cui i risultati ottenuti, possono essere  condivisibili. Tralasciando il complesso armamentario matematico utilizzato dall’autore (chi sia interessato può attingere direttamente dal testo liberamente accessibile), lo studio consente di appurare che gli oceani, nel ventennio compreso tra il 1994 ed il 2013, hanno aumentato il loro contenuto di calore ad un ritmo pari a 0,48 ± 0,16 W/m2 inclusi 0,095 W/m2 di riscaldamento geotermico. L’incertezza associata a tale valore si aggira intorno al 30% circa (due deviazioni standard) e rappresenta il suo limite inferiore.

Tale tasso di riscaldamento degli oceani non è molto diverso da quello calcolato da Levitus per il periodo 1955-2010, per cui non credo di sbagliare se scrivo che il tasso di riscaldamento degli oceani è praticamente costante da oltre mezzo secolo.

Sono rimasto molto sorpreso dal fatto che il calore geotermico (vulcani, decadimento di nuclei radioattivi e via cantando) rappresenta un’aliquota considerevole del riscaldamento oceanico: poco meno del 20%. In passato ho avuto qualche scambio di opinioni con un lettore di CM in cui sostenevo che il calore geotermico avesse influenza trascurabile sull’aumento del contenuto di calore oceanico: alla luce di questo studio devo riconoscere pubblicamente che avevo torto.

Alla luce di quanto ho avuto modo di illustrare in questo articolo, giungo alla conclusione che le nostre conoscenze circa il contenuto di calore degli oceani sono piuttosto limitate e che ciò dipende sia dal ridotto numero di rilievi effettuati (da un punto di vista spaziale e da un punto di vista temporale), sia dalla scarsa conoscenza delle dinamiche con cui il calore si trasmette all’interno degli oceani.

Altro aspetto di estremo rilievo è che una percentuale notevole (oltre il 40%) del contenuto di calore oceanico, dipende da cause cui io non avevo mai pensato: il raffreddamento delle acque abissali ed il calore geotermico. Questo comporta, come ho già avuto modo di scrivere, la necessità di una drastica riduzione dei valori della sensibilità climatica all’equilibrio e di quella transitoria, una drastica revisione delle cause che determinano l’innalzamento del livello del mare (relativamente alla componente sterica, ovvero volumetrica legata alla dilatazione termica) e, quindi, delle ipotesi a base dei modelli empirici del livello del mare.

Bisogna, infine, rivedere molte delle ipotesi a base dei modelli di circolazione globale accoppiati oceano-atmosfera. E questo non lo dico solo sulla base di quanto ho letto negli studi citati, ma anche sulla base di un report interno alla NOAA che nella post fazione, scrive a chiare lettere che

For the ocean, almost all of the net energy of the earth from the sun is absorbed in its volume from the surface to the bottom. More quantitatively, in the atmosphere/ocean system, approximately 95 percent of the heat is in the ocean. Therefore, it is essential that scientists know where this heat is being stored in the ocean water column, and how it might be impacting the circulation of the ocean, not just in the near surface region, but also at depth.

Questo tema viene sviluppato ed approfondito nel corso della post-fazione fino a giungere alla conclusione che le previsioni dei modelli matematici potranno essere precise solo nel momento in cui riusciremo a conoscere in modo corretto tanto i valori delle temperature superficiali (regolate dalla CO2 e dal particolato e dalle nuvole, aggiungo io), quanto il contenuto di calore degli oceani. Oggi come oggi la conoscenza del contenuto di calore degli oceani, è molto approssimativa per cui non siamo in grado di modellarlo in modo soddisfacente e, quindi, i modelli matematici di previsione del clima ne risentono in modo considerevole. Nonostante tutto ciò decisori politici, attivisti climatici ed ambientali e via cantando ci assicurano che abbiamo una ventina d’anni per mettere le cose a posto riducendo drasticamente le emissioni. Ne sarebbero convinti il 97% dei climatologi, sulla base degli output dei modelli matematici, anzi di una suite di modelli matematici.

Facebooktwittergoogle_pluslinkedinmail

Un Mese di Meteo – Novembre 2018

Posted by on 07:00 in Attualità, Climatologia, Commenti mensili, Meteorologia | 0 comments

Un Mese di Meteo – Novembre 2018

IL MESE DI NOVEMBRE 2018[1]

Mese con piovosità abbondante e temperature per lo più in anomalia positiva più spiccata al settentrione.

Il mese di novembre è climaticamente segnato da precipitazioni abbondanti su tutta Italia in virtù del fatto che alle alte latitudini del nostro emisfero, ove la notte ha durata elevata, si accumulano masse d’aria sempre più fredda. Tali masse d’aria in presenza di  pattern circolatori idonei possono irrompere sul Mediterraneo sul quale stazionano invece masse d’aria umida e mite. Il contrasto fra le diverse masse d’aria produce perturbazioni intense con precipitazioni abbondanti e che possono provocare danni ai beni e alle persone. In proposito ricordiamo ad esempio che nella notte fra sabato 3 e domenica 4 novembre sono straripati diversi torrenti fra le provincie di Palermo e Agrigento provocando 13 morti di cui 9 annegati in una villetta sita nei pressi del torrente Milicia, in comune di Casteldaccia.

Con riferimento agli effetti dei cambiamenti climatici sulle perturbazioni che interessano l’areale italiano è interessate segnalare l’ articolo di Lionello et al., 2016 in cui si sviluppa una climatologia delle depressioni Mediterranee (Mediterranean cyclones) per il periodo 1979-2008, evidenziando da un lato il fatto che novembre è il mese più esposto a tali depressioni nel quadrante NW del bacino (che nel lavoro di Lionello include l’intero areale italiano tranne parte del settore ionico) e dall’altro l’assenza di trend nella frequenza delle depressioni Mediterranee in novembre e nell’anno.

Il novembre 2018 ha visto il territorio nazionale in tutto o in parte interessato da 6 perturbazioni transitate rispettivamente l’1, fra 2 e 3, fra 4 e 11, fra 17 e 21, fra 22 e 23 e fra 24 e 28 novembre (tabella 1).

La topografia media mensile del livello di pressione di 850 hPa (figura 1a) mostra l’Italia interessata da una saccatura da Nordovest associata a un profondo minimo depressionario atlantico con centro a sudovest dell’Islanda (lettera B).  Sull’Europa orientale è presente invece un promontorio anticiclonico subtropicale di blocco che limita il progredire verso est delle perturbazioni. La carta delle isoanomale (figura 1a) conferma tale analisi evidenziando un profondo nucleo di anomalia negativa in Atlantico e un forte nucleo di anomalia positiva centrato sul Baltico.

Figure 1a – 850 hPa – Topografie medie mensili del livello di pressione di 850 hPa (in media 1.5 km di quota). Le frecce inserire danno un’idea orientativa della direzione e del verso del flusso, di cui considerano la sola componente geostrofica. Le eventuali linee rosse sono gli assi di saccature e di promontori anticiclonici.

Figura 1b – 850 hPa – carte delle isoanomale del livello di pressione di 850 hPa.

Tabella 1 – Sintesi delle strutture circolatorie del mese a 850 hPa. Il termine perturbazione sta ad indicare saccature atlantiche o depressioni mediterranee (minimi di cut-off) o ancora fasi in cui la nostra area è interessata da regimi che determinano variabilità perturbata (es. flusso ondulato occidentale).

Andamento termo-pluviometrico

Le temperature medie delle massime mensili (figura 2) hanno manifestato un’anomalia positiva per lo più debole al Centro – Nord mentre al Sud sono risultate nella norma. Le medie delle minime  (figura 3) sono state invece soggette a un’anomalia positiva debole o moderata, localmente forte sul settentrione.

Figura 2 – TX_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle massime del mese

Figura 3 – TN_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle minime del mese

Dalla figura 5 si coglie la presenza di anomalie pluviometriche positive su regioni del Nordovest,  Friuli Venezia Giulia, Liguria, Lazio, Calabria, Sicilia (Est ed estremo ovest) e Sardegna sudoccidentale mentre sul resto del territorio dominano anomalie negative.

Figura 4 – RR_mese – Carta delle precipitazioni totali del mese (mm)

Figura 5 – RR_anom – Carta dell’anomalia (scostamento percentuale rispetto alla norma) delle precipitazioni totali del mese (es: 100% indica che le precipitazioni sono il doppio rispetto alla norma).

L’analisi decadale (tabella 2) evidenzia che le anomalie positive delle temperature si sono concentrate nella prima e seconda decade del mese interessando soprattutto il centro-nord. Le anomalie pluviometriche positive si sono dal canto loro concentrate nella prima decade del mese e sono state mediamente più spiccate al centro-nord.

Tabella 2 – Analisi decadale e mensile di sintesi per macroaree – Temperature e precipitazioni al Nord, Centro e Sud Italia con valori medi e anomalie (*).

(*) LEGENDA:

Tx sta per temperatura massima (°C), tn per temperatura minima (°C) e rr per precipitazione (mm). Per anomalia si intende la differenza fra il valore del 2013 ed il valore medio del periodo 1988-2015.

Le medie e le anomalie sono riferite alle 202 stazioni della rete sinottica internazionale (GTS) e provenienti dai dataset NOAA-GSOD. Per Nord si intendono le stazioni a latitudine superiore a 44.00°, per Centro quelle fra 43.59° e 41.00° e per Sud quelle a latitudine inferiore a 41.00°. Le anomalie termiche positive sono evidenziate in giallo(anomalie deboli, inferiori a 2°C), arancio (anomalie moderate, fra 2 e 4°C) o rosso (anomalie forti,di  oltre 4°C), analogamente per le anomalie negative deboli (minori di 2°C), moderata (fra 2 e 4°C) e forti (oltre 4°C) si adottano rispettivamente  l’azzurro, il blu e il violetto). Le anomalie pluviometriche percentuali sono evidenziate in  azzurro o blu per anomalie positive rispettivamente fra il 25 ed il 75% e oltre il 75% e  giallo o rosso per anomalie negative rispettivamente fra il 25 ed il 75% e oltre il 75% .

L’anomalia termica sopra descritta è confermata dalla carta delle anomalie termiche globali riportata in figura 6a, ricavata da dati MSU e dalla quale si nota che l’anomalia termica positiva si lega a un nucleo di anomalia positiva centrato sulla Scandinavia. In figura 6b riportiamo inoltre la carta dell’anomalia termica globale da stazioni il suolo prodotta dal Deutscher Wetterdienst sulla base dei report mensili CLIMAT che i diversi servizi meteorologici fanno confluire presso la sua sede. Le due carte sono coerenti nel rappresentare i principali nuclei di anomalia a livello planetario (nucleo di anomalia negativa sulla parte est degli Usa e del Canada, nucleo di anomalia positiva sulla Scandinavia e nucleo di anomalia positiva su Alaska e Siberia orientale).

Figura 6a – UAH Global anomaly – Carta globale dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media mensile della bassa troposfera. Dati da sensore MSU UAH [fonte Earth System Science Center dell’Università dell’Alabama in Huntsville – prof. John Christy (http://nsstc.uah.edu/climate/)

Figura 6b – DWD climat anomaly – Carta globale dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media mensile al suolo. Carta frutto dell’analisi svolta dal Deutscher Wetterdienst sui dati desunti dai report CLIMAT del WMO [https://www.dwd.de/EN/ourservices/climat/climat.html).

_________________________________________

[1]              Questo commento è stato condotto con riferimento alla  normale climatica 1988-2017 ottenuta analizzando i dati del dataset internazionale NOAA-GSOD  (http://www1.ncdc.noaa.gov/pub/data/gsod/). Da tale banca dati sono stati attinti anche i dati del periodo in esame. L’analisi circolatoria è riferita a dati NOAA NCEP (http://www.esrl.noaa.gov/psd/data/histdata/). Come carte circolatorie di riferimento si sono utilizzate le topografie del livello barico di 850 hPa in quanto tale livello è molto efficace nell’esprimere l’effetto orografico di Alpi e Appennini sulla circolazione sinottica. L’attività temporalesca sull’areale euro-mediterraneo è seguita con il sistema di Blitzortung.org (http://it.blitzortung.org/live_lightning_maps.php).

Facebooktwittergoogle_pluslinkedinmail

Temperature italiane al 2017 e la “pausa”

Posted by on 06:00 in Ambiente, Attualità, Climatologia | 16 comments

Temperature italiane al 2017 e la “pausa”

Questo post nasce con l’intento di verificare la bontà dei dati annuali di temperature italiane che ho casualmente trovato nel giornale locale di Ferrara La Nuova Ferrara. La sorgente dei dati si trova qui a mentre notizie giornalistiche (di stampo catastrofista, naturalmente) si possono trovare qui.

I dati, in forma di grafici ben leggibili, riguardano 66 città italiane (in realtà sono “zone” o “multizone”, come ad esempio Ferrara e Modena insieme).

Nell’articolo de “La Nuova Ferrara” si legge:

Lo European Data Journalism Network (EDJNet) ha analizzato due serie di dati dello European Centre for Medium-Range Weather Forecasts (ECMWF), ERA-20C per il periodo 1900-1979 ed ERA-interim per il periodo 1979-2017.
Entrambe le serie di dati sono “rianalisi”; questo vuol dire che gli scienziati dello ECMWF hanno usato un ampio spettro di fonti (satelliti, stazioni meteo, boe, sonde aerostatiche) per fare una stima di una serie di variabili applicate a quadrati di circa 80 chilometri di lato (125 chilometri di lato per le serie di dati ERA-20C). Se le stazioni meteo forniscono dati molto più affidabili sul momento, le rianalisi dell’ECMWF sono molto più adatte per una ricerca sul lungo periodo come questa. Le stazioni meteo possono spostarsi o, come più spesso accade, le città si estendono intorno a esse, rendendo i dati meno affidabili quando si vanno a guardare tendenze centennali.
I dati dell’ECMWF non tengono conto dei microclimi o delle isole di calore; perciò è probabile che le vere temperature nelle singole città siano di uno o due gradi superiori a quelle indicate. La tendenza invece non cambia.

Per avere un termine di paragone mi sono affidato ai dati pubblicati nel sito di Sergio Pinna. Le temperature medie annuali delle tre macro regioni – nord, centro, sud – disponibili sono in fig.1 (pdf) insieme ai loro fit lineari.

Fig.1. Temperature medie per le tre macro regioni, dal 1951 al 2017, dal sito di Sergio Pinna. Si osserva una crescita delle temperature ad un tasso medio compreso tra 0.17 e 0.27 °C/decade. Si noti inoltre la presenza di tre fasi:1951-1976 con lieve decremento, 1976-2000 con sensibile aumento e 2000-2017 con crescita più limitata.

Come detto, il mio interesse primario è quello di verificare la bontà dei dati ECMWF, confrontandoli con quelli di Pinna nella parte comune (1951-2017). Nel sito ECMWF si possono scaricare i valori numerici delle temperature ma io qui ho preferito digitalizzare i grafici disponibili su La Nuova Ferrara, anche per una maggiore velocità di acquisizione. Il confronto in figura 2 per le tre macro regioni, (pdf, nord), (pdf, centro), (pdf, sud), ci mostra che i dati di rianalisi seguono strettamente, nei dettagli, i dati medi di Pinna che qui sono rappresentati con una linea rosso scuro più breve delle altre. Il centro mostra un risultato più confuso ma la sostanza non cambia.

Fig.2. I valori medi annuali delle 6 città per macro regione, confrontati con i valori medi della corrispondente macro regione disponibili nel sito di Pinna. Le città sono indicate con la sigla provinciale.

I dati ECMWF seguono certamente i valori medi di Pinna nella struttura, ma non nei valori assoluti delle temperature: un esempio – dovuto all’attenzione dell’amico Luigi Mariani – è la serie di Bolzano che nei dati di rianalisi si attesta su valori medi attorno a 4-4.5°C, mentre la sua media annuale è superiore a 10-13°C. Per una verifica è sufficiente esaminare la serie resa disponbile dal Servio Meteo della Provincia Autonoma di Bolzano e calcolare la media tra la TMAX e la TMIN annuale riportate nelle ultime due colonne.

Un altro esempio, non verificato ma sospetto, è l’uguaglianza tra le temperature di Perugia e L’Aquila: a Perugia si coltiva estesamente l’ulivo mentre a L’Aquila no. Un altro esempio ancora è la differenza media di circa un grado tra Ancona e Pescara che ci si aspetterebbe essere quasi impercettibile, vista la vicinanza di entrambe le città e la loro posizione sul mare.

È sufficiente un solo esempio per inficiare l’intera serie delle 66 città del dataset. Io non so quale errore sistematico possa far cambiare la temperatura (ad esempio di Bolzano) di 6-8°C, ma so che questi dati non potranno essere usati in forma assoluta. Credo che il loro uso migliore sia quello in forma di anomalia e quello che sfrutta la loro struttura che appare corretta, come ho fatto nel paragrafo successivo.

Analisi dei dati ECMWF

Si nota, con una semplice ispezione visuale della figura 2, che a partire da circa il 2000 la pendenza diminuisce rispetto al periodo precedente che ho fissato tra il 1976 e il 2000 per evitare la diminuzione di temperatura che si osserva tra il 1950 e il 1976, in particolare al Centro e al Sud (ma anche al Nord, più debole). Senza ripetere l’analisi descritta in questo articolo su CM, e parzialmente ripetendo, solo per i dati annuali e senza spettri, l’analisi del 2015 sui dati di Pinna fino al 2014, ho considerato le due sezioni dei dataset ECMWF, dal 1976 al 2000 e dal 2000 al 2017, da cui ho calcolato i fit lineari e le pendenze che mostro in fig.3 (pdf, nord), (pdf, centro), (pdf, sud). Le corrispondenti figure in cui sono mostrati sia i fit che i dati e le pendenze sono disponibili nel sito di supporto.

Fig.3. Fit lineari delle medie annuali, con i valori delle pendenze, dei tratti 1976-2000 e 2000-2017 (estremi inclusi). Nei file numerici (nord; centro; sud) oltre ai parametri dei fit, viene riportato il test di Student per le pendenze 1976-2000 e 2000-1017 e la probabilità che le pendenze siano diverse.

Ho confrontato la pendenza di ogni coppia 1976-2000 e 2000-2017 tramite il test di Student sulle pendenze, con 25 e 18 dati rispettivamente. Il test ci dice che le pendenze delle due sezioni di ogni dataset sono statisticamente differenti tranne che per due città (Potenza e Salerno) e che la diversità per le due pendenze de L’Aquila è verificata solo al 66%.

Considerazioni conclusive

I dati di rianalisi sono attendibili e adatti a successive analisi, preferibilmente più estese di quella attuale che ha lasciato molte regioni (Lombardia, Veneto, Friuli, Lazio, Molise, Calabria, Sardegna) senza una serie di temperatura che le rappresentasse.

Per quanto mi riguarda, l’affidabilità di questi dati è fissata dal confronto con i dati medi annuali di Pinna e quindi devo concludere che anche i dati di rianalisi ECMWF mostrano dal 2000 una pausa nella crescita delle temperature, cioè una diminuzione della pendenza del fit lineare, per tutte le 18 stazioni utilizzate qui, tranne Potenza e Salerno, e, forse, L’Aquila.

Come sappiamo, questa pausa che più o meno debolmente si continua a registrare (1018 in figura sta per ottobre 2018) anche nei dataset globali, se si escludono i forti El Niño 1998 e 2016, è una spina nel fianco dei modelli cosiddetti CO2-centrici che non prevedono il rallentamento della crescita delle temperature in corrispondenza della crescita continua dell’anidride carbonica in atmosfera.

La temperatura globale (e quella italiana) sta crescendo indiscutibilmente – anche se si possono introdurre gli errori di misura e discutere sul valore e la veridicità di questa crescita – ma la differenza sostanziale tra le due visioni del clima è nelle cause: da una parte si crede che le cause siano essenzialmente naturali (una piccola influenza antropica viene accettata senza particolari opposizioni); dall’altra si assume che il motore primo del clima sia la densità volumetrica della CO2, anche se questa relazione causa-effetto non è mai stata dimostrata rigorosamente, ma solo ad excludendum (le abbiamo provate tutte e solo l’uso dell’anidride carbonica nei modelli permette la ricostruzione delle temperature – poco e male – e quindi la causa principale è indiscutibilmente lei. Ma non è così che procede la scienza, e soprattutto non si lascia prendere in ostaggio dalla politica avendo a disposizione risultati come minimo incerti).

Un’altra differenza tra le due idee del clima è quella che si annida nel legame tra clima e ambiente che la visione basata sulla CO2 vuole strettamente legati (la CO2 è un veleno e se ne emettiamo troppa avveleniamo l’aria che respiriamo e, in definitiva, l’ambiente in cui viviamo: è questo il mantra che ascoltiamo e leggiamo, in particolare durante le riunioni annuali sul clima, le COP). Ma prima di tutto la CO2 non è un veleno e poi, fino a prova contraria, l’uomo non è in grado di influire sul clima che mette in moto enormi quantità di energia – di cui l’energia totale prodotta dalle attività umane è una piccolissima frazione – mentre è bravissimo a modificare, anche pesantemente, l’ambiente: allora questi due palcoscenici devono essere tenuti distinti e non interagenti. È però usuale confonderli, in modo che uno spinga l’altro nel presunto processo di convincimento della popolazione. È molto comune leggere articoli sul clima in sezioni di giornali denominate “ambiente”.

Ringrazio Luigi Mariani per l’attenta lettura della prima stesura di questo lavoro e per gli utili suggerimenti. Dopo un’assenza di circa due mesi da CM, avevo bisogno del suo amichevole supporto.

Tutti i grafici e i dati, iniziali e derivati, relativi a questo post si trovano nel sito di supporto qui
Facebooktwittergoogle_pluslinkedinmail

COP 24: un accordo moralmente inaccettabile. O no?

Posted by on 20:40 in Ambiente, Attualità, Climatologia, COP24 - Katowice | 3 comments

COP 24: un accordo moralmente inaccettabile. O no?

Un accordo moralmente inaccettabile, questa la bruciante considerazione di J. Morgan, direttore esecutivo di Greenpeace International, come riporta The Independent nel suo commento alla chiusura della COP 24. Le principali ONG sono unanimi nell’esprimere la propria delusione per un accordo che dire minimale è già molto,  ma si tratta di una sola delle due campane che dobbiamo ascoltare in questa sede. L’altra campana è quella del segretario dell’IPCC P. Espinosa che sottolinea come a Katowice siano stati presi molti altri impegni e sono state intraprese azioni concrete e stimolanti. Si impegna, inoltre a rispettare cinque priorità: “ambizione, ambizione, ambizione, ambizione e ambizione. Ambizione nella mitigazione. Ambizione nell’adattamento. Ambizione nella finanza. Ambizione nella cooperazione tecnica e nella creazione di capacità. Ambizione nell’innovazione tecnologica“.  P. Espinosa sottolinea, infine, che a Katowice l’Accordo di Parigi ha dimostrato molta resilienza, in quanto è stato capace di resistere a tutti i tentativi di boicottaggio.

Come al solito la verità sta nel mezzo per cui la dichiarazione finale della COP 24 deve essere considerata per quello che realmente è: una soluzione di compromesso tra le diverse istanze dei delegati. Se io fossi un rappresentante dei Paesi in via di sviluppo, sarei estremamente deluso per i risultati dell’accordo raggiunto: nessun impegno concreto dal punto di vista della finanza, nessuna differenziazione tra i Paesi sviluppati e quelli in via di sviluppo circa la contabilizzazione delle emissioni e gli impegni di riduzione nazionali, nessun riconoscimento delle conclusioni del SR 1,5°C dell’IPCC, una drastica riduzione della rilevanza del meccanismo “loss and damage” e, cosa estremamente importante, nessun accordo sui meccanismi di mercato, ovvero sulle modalità di contabilizzazione di emissioni e di iniziative finanziarie. L’unico contentino lasciato ai Paesi in via di sviluppo, è stata la possibilità di dichiarare l’impossibilità di raggiungere gli obiettivi di riduzione delle emissioni dichiarati e la possibilità di chiedere aiuti, per raggiungere gli obiettivi prefissati.

Se fossi un rappresentante degli Stati Uniti, sarei molto soddisfatto dei risultati del summit. E’ stato impiantato, infatti, un poderoso sistema di dichiarazione e controllo delle emissioni (circa 160 pagine da studiare con grande attenzione) per il raggiungimento degli obiettivi fissati nell’Accordo di Parigi. Tale protocollo noto anche come “libro delle regole” si è potuto approvare solo grazie all’attivismo dei delegati USA che, con la pignoleria che li caratterizza quando si tratta di scrivere regole, non hanno lasciato nulla al caso, individuando in modo minuzioso tutti i meccanismi di dichiarazione e revisione degli obiettivi nazionali. Il capolavoro diplomatico della delegazione USA è stato quello di rendere tale meccanismo uguale per tutte le Parti dei vari accordi e protocolli, primo fra tutti l’Accordo di Parigi. E’ sparita, infatti, la differenziazione tra Paesi storicamente responsabili delle emissioni, obbligati all’assunzione degli obblighi, e Paesi non responsabili storici delle emissioni e, pertanto, esentati dal rispetto degli obblighi validi per gli altri. Ciò significa che Paesi come la Cina non potranno più tirarsi fuori dagli obblighi validi, per esempio, per l’Italia. La cosa buffa di tutto ciò è che il meccanismo non vale per gli USA in quanto essi NON sono Parte dell’Accordo di Parigi. Ad essere precisi lo sono fino al 2020, ma fino a quella data il nuovo meccanismo di trasparenza e revisione non vale. Detto in altri termini gli USA hanno scritto il libro delle regole valido per gli altri, ovvero per i loro competitori internazionali. E la cosa ancora più esilarante in tutto questo, è che i delegati USA, dimostrando un senso dello stato ignoto ai più, hanno congegnato queste regole in modo tale da tutelare gli interessi delle imprese statunitensi anche nell’ipotesi in cui una nuova amministrazione intendesse rientrare nell’Accordo di Parigi. E poi dicono che gli USA di D. Trump si stanno mettendo ai margini della Comunità Internazionale: mi sa che gli osservatori delle vicende internazionali, devono seguire qualche corso di aggiornamento.

Essendo un cittadino di uno dei Paesi che fanno parte del “gruppo degli ambiziosi” mi trovo in una situazione ambigua rispetto a quanto è accaduto a Katowice per diversi motivi. In primo luogo mi sono state dettate delle regole da un Paese che quelle regole non sarà obbligato a rispettare, fino a che ci sarà un’Amministrazione come quella di D. Trump o equivalente. In secondo luogo, oltre ad essere costretto a rispettare gli obiettivi volontari nazionali di riduzione delle emissioni (NDC) dichiarati nel 2015, sono obbligato ad essere “ambizioso” quando tale obbligo non vale per nessuno degli altri Paesi esterni al gruppo. Per il mio Paese e, quindi per me, vale tutto: le conclusioni del SR1,5°C dell’IPCC, l’obbligo del rispetto dei limiti alle emissioni dichiarati nel 2015, l’obbligo del rispetto dei nuovi limiti alle emissioni che verranno stabiliti all’interno del gruppo degli ambiziosi, i vincoli derivanti da eventuali future norme attuative dell’Accordo di Parigi. Per i cittadini italiani e di alcuni Stati Europei “ambiziosi”, la COP 24 è stata un successo, se la guardo dal punto di vista dei sostenitori della responsabilità antropica dei cambiamenti climatici, una sciagura per chi ha opinioni diverse. A meno che uno non voglia essere più realista del re e lamentarsi (come fanno gli ambientalisti duri e puri) che quello di Katowice è un accordo moralmente inaccettabile in quanto non punisce adeguatamente i Paesi sviluppati per le loro responsabilità storiche in fatto di emissioni di gas serra e di disuguaglianze socio-economiche tra il nord ed il sud del mondo. Per i Paesi europei che non fanno parte del gruppo degli “ambiziosi” (e sono la maggioranza) il discorso è leggermente diverso in quanto il vincolo si riduce solo agli NDC del 2015.

L’unica consolazione risiede nel fatto che, grazie agli USA e, in parte, agli altri tre “stati canaglia” (Russia, Arabia Saudita e Kuwait), le regole in fatto di emissioni valide per le imprese italiane, saranno le stesse che varranno per le altre imprese internazionali, comprese quelle cinesi, indiane o vietnamite. A meno che, vittime del masochismo che ci affligge, nei contratti bilaterali non rinunciamo anche a questo. Confesso, a questo punto, che sono particolarmente seccato dal fatto di dovere un minimo di gratitudine all’Amministrazione USA, perché il presidente Trump è uno dei leader mondiali che meno mi piace,  ma di fronte ai fatti non si può girare la faccia da un’altra parte.

Queste considerazioni sono state scritte a caldo dopo la conclusione della COP 24. I documenti elaborati dalla Conferenza delle Parti sono però molto ampi e necessitano di attenta lettura e decodifica che non potevano essere fatte nelle poche ore intercorse tra la chiusura dei lavori e la stesura di queste note, considerando le ore di sonno ed i funerali di un carissimo amico di cui piango la prematura scomparsa. Era però doveroso chiudere la serie di post dedicati alla COP 24 con delle considerazioni finali. Credo però che sull’argomento, torneremo a discutere nelle prossime settimane e nei prossimi mesi.

Facebooktwittergoogle_pluslinkedinmail

COP 24: si va avanti ad oltranza

Posted by on 11:08 in Ambiente, Attualità, Climatologia, COP24 - Katowice | 5 comments

COP 24: si va avanti ad oltranza

Alle 22,30 di sera del 14 dicembre 2018 ancora non sono in grado di dire come sia andata a finire la COP 24. Da Katowice non giungono notizie di sorta o, per essere più precisi non giungono notizie ufficiali. Ad oggi solo due documenti relativi all’attuazione degli articoli più importanti dell’Accordo di Parigi sono stati definiti: quello relativo agli impegni finanziari (art. 9 dell’Accordo di Parigi) e quello relativo alla struttura tecnica che sovrintende all’accordo (art. 10). Per il resto siamo ancora al livello di bozze con numerosi punti da chiarire: 181 erano le questioni ancora aperte oggi pomeriggio. In merito ai documenti già definiti, quello relativo agli impegni finanziari appare piuttosto generico e non sembra fissare termini stringenti: la dizione “as available” è piuttosto diffusa nel testo e questo sembra lasciare tutto alla disponibilità delle Parti e, quindi, siamo ancora a livello di “buona volontà”. Circa il meccanismo “loss and damage” che era assurto al ruolo di protagonista nelle COP precedenti quella odierna, compare in una nota a piè di pagina del documento.

Ieri mattina era già disponibile la bozza di dichiarazione finale riassuntiva della COP 24, ma tale è rimasta fino ad ora. Fonti raccolte da The Independent danno per certo il rinvio a sabato o domenica della chiusura della Conferenza. Di tale parere anche il nostro ministro dell’ambiente in una dichiarazione raccolta dall’ANSA.

Nel frattempo non ci rimane che riportare qualche reazione a margine delle trattative in corso. Secondo molte ONG presenti alla COP i problemi sono nati quando USA, Arabia Saudita, Russia e Kuwait, hanno respinto la proposta di accettare SR 1.5°C quale base scientifica della COP 24, avanzata dai Paesi in via di sviluppo. Questi ultimi, esasperati anche dall’atteggiamento di altri Paesi che tentano di sottrarsi agli impegni finanziari ed a quelli di riduzione delle emissioni assunti in passato o che tentano di rinviarli sempre più in avanti nel tempo, hanno irrigidito la loro posizione, minacciando di bloccare del tutto la trattativa in corso.  Nella bozza di accordo redatta dalla Presidenza della COP 24, un riferimento al rapporto SE 1,5°C è rimasto, ma è piuttosto generico e, in particolare, il rapporto non viene accettato esplicitamente.

Gli osservatori aderenti alle varie organizzazioni ambientaliste paventano che nella concitata fase finale delle trattative vengano fatte concessioni che renderanno vuoto l’accordo finale. Il principale ostacolo al raggiungimento degli obiettivi più ambiziosi che le ONG si augurano, viene visto nel differente atteggiamento delle Parti: quelli che temono di essere maggiormente danneggiati dal cambiamento climatico non riescono a convincere quelli che prevedono danni limitati per le loro strutture sociali, territoriali ed economiche.  Dalle mie parti si dice che colui che è sazio, non crede a chi è digiuno ed in questa circostanza tale detto calza a pennello.

Al momento in cui chiudo queste brevi note, è diventato ufficiale che la Presidenza della prossima Conferenza delle Parti sarà affidata al Cile. Voci di corridoio rendono noto che la dichiarazione finale della COP 24 sarà pronta all’una di questa notte e che la plenaria conclusiva dovrebbe iniziare alle quattro del mattino di sabato 15 dicembre. Nel frattempo il Presidente della Conferenza ha tenuto una conferenza stampa di un paio di minuti, nella quale ha detto ai giornalisti che non c’è nessuna novità da comunicare ed ha assicurato ai presenti che ogni novità sarà resa nota con tempestività.

Facebooktwittergoogle_pluslinkedinmail

Il Pessimum Climatico Medioevale

Posted by on 07:00 in Attualità, Climatologia | 4 comments

Il Pessimum Climatico Medioevale

Con il battage del clima che cambia che fa molto più rumore della COP24, cosa volete che sia un neologismo sul clima? D’ora in poi, quello che abbiamo sempre conosciuto come Optimum Medioevale, il periodo tra gli anni 1000 e 1250, si chiamerà Pessimum Medioevale.

Del resto, come potrebbe essere altrimenti? Se siete sconcertati, perché avete sempre pensato che l’aggettivo Optimo fosse riferito al fatto che il clima fosse mite e favorevole e consentisse a quanti all’epoca non potevano certo contare sulle contromisure di cui disponiamo in tempi moderni di prosperare, vi basterà leggere il documento prodotto dall’OMS per dare il proprio millenaristico contributo alla kermesse in corso a Katovice.

Ecco qua: Health & Climate Change

Clima che va nella direzione di eguagliare il periodo caldo medioevale e salute della popolazione mondiale che va a ramengo. Attesa quindi una sostanziale inversione di tendenza delle aspettative di vita, che crescono sideralmente da quando crescono le temperature (?!?) ma, evidentemente torneranno a scendere.

Alle pagine 20-24 la spiegazione.

Impatti diretti del climate change sulla salute:

  • Tempeste
  • Siccità
  • Allagamenti
  • Onde di calore
  • Variazioni della temperatura
  • Incendi

Incuranti del fatto che:

  • I cicloni extratropicali NON sono aumentati, persino i modelli climatici ne prevedono una diminuzione
  • Non ci sono variazioni significative a livello globale delle arre interessate da siccità
  • L’IPCC non ha registrato alcun aumento negli eventi di allagamento
  • Le onde di calore sono sempre esistite
  • Gli incendi sono in diminuzione a livello globale

Effetti sulla salute (e cause aggiunte da me):

  • Malattie mentali (da stress catastrofismo)
  • Malnutrizione (per soldi spesi a tassare l’aria invece di aggredire la fame nel mondo)
  • Ferite (per le liti durante le COP)
  • Malattie respiratorie (per inquinamento che non ha niente a che vedere con la CO2)
  • Allergie (ai benpensanti del clima)
  • Malattie cardiovascolari (da spavento, vedi primo punto)
  • Infezioni (aboliranno pure gli antibiotici?)
  • Avvelenamento (qualcuno preferirà bere la cicuta piuttosto che starli a sentire)
  • Attacchi di cuore (vedi punti 1 e 6)

Resistete, anche questa COP finirà e torneremo all’Optimum Medioevale.

PS: ringrazio l’amico Sergio Pinna per la simpatica intuizione sul Pessimum Climatico Medioevale.

Facebooktwittergoogle_pluslinkedinmail

COP 24: sull’orlo del baratro.

Posted by on 04:00 in Ambiente, Attualità, COP24 - Katowice | 10 comments

COP 24: sull’orlo del baratro.

In ossequio alla macchinosa procedura ONU, oggi a Katowice sono iniziati i colloqui bilaterali tra i ministri presenti alla COP 24. Gli incontri seguono gli interventi dei singoli ministri nel corso della plenaria di ieri 11 dicembre. Dietro le quinte ed a porte rigorosamente chiuse, le delegazioni trattano alacremente. Man mano che le delegazioni ed i corpi sussidiari completano le loro operazioni, vengono pubblicati i vari documenti e, ad onor del vero, il numero di parentesi quadre tende a diminuire di giorno in giorno. Queste benedette parentesi quadre che contraddistinguono le questioni ancora controverse, consentono di valutare lo stato d’avanzamento dei lavori: quando nella bozza del documento sono sparite tutte le parentesi quadre, essa è pronta per essere inserita nella dichiarazione finale. Il dottor Simon Evans di carbonbrief.org, sfruttando questa curiosa circostanza che è tipica delle kermesse diplomatiche a guida ONU, si è addirittura preso la briga di elaborare un foglio di calcolo con cui segue in tempo reale lo stato dei lavori e, come unità di misura, utilizza, appunto, il numero delle parentesi quadre. In fatto di clima la pensiamo in modo diverso, ma devo riconoscere che il dottor Evans è una fonte inesauribile di notizie e di dati che aiutano moltissimo a capire cosa sta succedendo veramente a Katowice.
Rispetto ad ottobre 2018 il lavoro fatto è stato immenso: da 2809 parentesi quadre siamo arrivati, ad oggi, a 666 parentesi quadre. Questo come totale generale. E’ ovvio che nelle singole tematiche il discorso cambia. Gli argomenti più spinosi della COP 24 sono ancora pieni di parentesi quadre: oltre duecento per la bozza riguardante i meccanismi di mercato, oltre centocinquanta per la bozza relativa alla trasparenza, quasi cento per la bozza riguardante la finanza del clima ed un’ottantina per quella relativa ai meccanismi di adattamento. E possiamo dirci pure fortunati: sabato notte gli argomenti controversi erano quasi mille, in aumento rispetto a sabato mattina di quasi trecento.

Il clima psicologico a Katowice non è, però, dei migliori. I siti ambientalisti più radicali guardano con crescente preoccupazione allo stato dei lavori e lamentano la pachidermica lentezza con cui i negoziati vanno avanti. Greenreport.it ha pubblicato un interessante resoconto circa lo stato dei lavori a Katowice, cui sono debitore del titolo di questo post. Provo a riassumerne brevemente il contenuto, in quanto mi sembra esaustivo per capire il clima in cui si stanno svolgendo i lavori.

Innanzitutto si conferma che ci si trova di fronte ad una situazione di stallo, in quanto le questioni irrisolte risultano tantissime. Grazie al lavoro del dr. S. Evans siamo addirittura in grado di quantificare questo tantissimo: oltre 600 sono i punti controversi. Si sottolineano, inoltre, le problematiche geopolitiche che si stanno incrociando con quelle climatiche. Tralasciando gli aspetti legati al disinteresse per la COP 24 di Capi di Stato e di governo come Macron, May, e Merkel che hanno altre gatte da pelare e di cui ho già scritto nell’ultimo post, spiccano le assenze di rappresentanti ad alto livello di Cina ed India che nelle precedenti edizioni delle Conferenze delle Parti avevano giocato un ruolo importante. Per quel che riguarda la Cina, sembrerebbe che a Pechino non sia andato giù il fatto che alla COP 24 siano stati ammessi, quale Parte, i rappresentanti dei popoli indigeni. Nell’immenso territorio cinese non ci sono indigeni, ma ci sono molte minoranze che potrebbero issare il cartello del clima “che cambia e cambia male”, per vedersi riconosciuti in un consesso mondiale come quello dell’UNFCCC. Già sta succedendo per Taiwan che, pur non essendo riconosciuta dall’ONU, è presente in forze a Katowice e, grazie ad un notevole impegno finanziario, ha acquisito una visibilità che oscura quella cinese. Detto in altri termini, quasi tutti i principali attori dell’Accordo di Parigi sono fuori gioco e, quindi, come già accennato nel post precedente, il compito di condurre il gioco passa nelle mani della presidenza polacca che non ha alcun interesse a forzare la mano a nessuno. Forse proprio per questo motivo è in arrivo a Katowice il segretario generale dell’ONU. Probabilmente sarà proprio lui a guidare le fasi finali delle trattative.

Molto interessanti appaiono, inoltre, le considerazioni circa l’atteggiamento di Nuova Zelanda ed Australia. La Nuova Zelanda si professa uno dei principali sostenitori dell’Accordo di Parigi, ma nei fatti cerca di centrare gli impegni volontari assunti a Parigi, mediante un trucco: cancellare i crediti di carbonio accumulati con il Protocollo di Kyoto. Un volgare trucco contabile in quanto continuerà ad emettere come ora, ma “esigendo” il credito vantato, è come se emettesse secondo gli impegni volontari di Parigi. Un atteggiamento simile ha assunto anche l’Australia che, in sovrappiù, ha tagliato la sua quota del fondo a favore dei Paesi in via di sviluppo (i famigerati 100 miliardi di dollari annui). Poco male: a ripianare il danno provvederà la Germania che aumenterà di 1,5 miliardi di dollari il suo contributo. Forse per farsi perdonare il ritardo nel raggiungimento dei suoi impegni volontari?

In tutto questo marasma di situazioni non meraviglia più di tanto apprendere che le delegazioni contrarie ad imporre limiti stringenti e vincolanti alle emissioni (USA, Arabia Saudita, Russia e Kuwait), lavorino sott’acqua per far naufragare tutto e chiudere la COP 24 senza un nulla di fatto o, al limite, un appiattimento sugli impegni volontari assunti a Parigi.

Personalmente non credo che i delegati andranno via da Katowice senza un accordo che salvi loro la faccia, dopo tutto ciò che si è scritto e detto. Le ONG sono sul piede di guerra, indispettite dallo spettacolo, a loro dire indecoroso, di Katowice e già qualcuna di esse si prefigura un mondo in cui una rivolta di cittadini che hanno a cuore le sorti del pianeta, spazzerà il campo dai pavidi politici incapaci di decidere le giuste misure per salvare il mondo. Una speranza utopica, oserei dire, visto che chi ha cercato di forzare la mano verso una transizione energetica accelerata (vedi Macron in Francia, il governo laburista in Australia e, in senso lato, ma non troppo, i democratici negli Stati Uniti) hanno dovuto fare i conti con il malcontento popolare e dove non sono stati spazzati via, rischiano di esserlo a breve.

Chiudo con una profezia. La COP 24 non chiuderà dopodomani come da previsioni: ci sarà un seguito di durata imprecisata, durante il quale i delegati dovranno necessariamente raggiungere un compromesso e rinviare, ciò su cui non si è riusciti a raggiungere un accordo, alla prossima COP che si terrà in un luogo ancora da definire. Il Brasile che era già stato individuato come Paese ospitante, sembra, infatti, che si sia tirato indietro e che la Germania abbia gentilmente declinato l’invito a sostituirlo. Ora si parla di Cile: staremo a vedere.

Sembra, però, che la COP 26 si svolgerà in Italia, stando a quanto, le agenzie di stampa, attribuiscono al ministro Di Maio.

Facebooktwittergoogle_pluslinkedinmail

COP 24: le cose si ingarbugliano.

Posted by on 04:00 in Ambiente, Attualità, COP24 - Katowice | 8 comments

COP 24: le cose si ingarbugliano.

A Katowice le cose stanno prendendo una brutta piega. L’otto dicembre si è svolta la plenaria del Subsidiary Body for Scientific and Technological Advice (SBSTA 49). SBSTA 49 rappresenta la struttura che fornisce il supporto scientifico alla COP, ovvero la base scientifica su cui si regge tutto l’impalcato normativo degli altri gruppi di lavoro. E’ questa struttura che ha elaborato la bozza che costituirà la base per le trattative politiche della seconda settimana della Conferenza delle Parti. L’unica differenza tra un accordo diplomatico qualsiasi e l’Accordo di Parigi sta proprio nei documenti prodotti da SBSTA 49, in quanto tali documenti sono quelli che consentono di poter dire che il deliberato delle COP è basato su solide basi scientifiche. SBSTA 49 rappresenta pertanto l’interfaccia diplomatica che connette i rapporti dell’IPCC con gli accordi delle Conferenze delle Parti. La plenaria è stata rinviata per ben tre volte, in quanto non era stato raggiunto il consenso tra i delegati circa la deliberazione finale. Alla fine la plenaria si è svolta, ma il deliberato non è stato unanime: i rappresentanti di USA, Russia, Arabia Saudita e Kuwait, non hanno accettato i risultati del Rapporto Speciale dell’IPCC (SR 15) il cui scopo è proprio quello di fornire le basi scientifiche alle decisioni della COP 24 in corso.

Cosa significa una cosa del genere? La complessa macchina diplomatico-scientifico-economica posta alla base della lotta al cambiamento climatico, si basa sul consenso: più è alto e più ci si va giù pesanti. Quando comincia a serpeggiare il dissenso, le cose si complicano e le decisioni diventano sempre meno vincolanti, fino ad essere inutili. Quattro Paesi su quasi 200 non dovrebbero impensierire nessuno, ma in questo caso non si tratta di Paesi qualunque, bensì di Paesi che hanno un peso enorme nell’economia del negoziato in corso. Con questa base di partenza non ci si possono aspettare decisioni ambiziose e risolutive, la COP 24 non credo che fallirà, ma si trasformerà nell’ennesimo inutile incontro interlocutorio in vista di chissà cosa. A meno che nella seconda settimana di trattative le cose non cambino radicalmente e, bypassando una decisione di non trascurabile importanza, non si arrivi ad un documento ambizioso come auspicato dall’ONU e, almeno a parole, dalla stragrande maggioranza dei partecipanti alla Conferenza in corso.

Questo appare però difficile, in quanto la COP 24 è carente di un ingrediente fondamentale per la sua buona riuscita: una forte ed autorevole guida politica. Parigi riuscì, almeno come dichiarazione d’intenti e di principi, perché da un lato il presidente B. Obama, dall’altro l’U.E. trascinata da Gran Bretagna, Germania e, soprattutto, Francia, imposero l’agenda. India, Cina, Brasile e tutte le altre potenze in via di sviluppo, si accodarono di buon grado alle decisioni dei Paesi ricchi in quanto maggiori beneficiari dell’Accordo. I Paesi produttori di combustibili fossili avrebbero pagato il prezzo più pesante, ma fecero buon viso a cattivo gioco, proprio a causa della natura non vincolante dell’Accordo di Parigi. Esso è, infatti,  monco in quanto privo di regole cogenti per i sottoscrittori: è basato su impegni volontari (NDCs) e non prevede sanzioni per chi non rispetti gli impegni assunti.

Ora è tutto nelle mani della presidenza della Conferenza, ma essa è affidata ad un Paese che, per bocca dalla sua massima istanza istituzionale, sostiene che la transizione energetica deve essere “giusta”: nella fattispecie la Polonia non rinuncerà al carbone come sua fonte energetica prioritaria. Resterebbe l’U.E., ma oggi questa entità ha poco peso politico, in quanto i suoi membri di maggior peso hanno grossi problemi interni.

La Gran Bretagna è alle prese con l’uscita dall’Unione Europea e la sua leadership è estremamente debole, in preda ad una crisi politica di grosse dimensioni.

La Francia di E. Macron, che si era fatto paladino della lotta al cambiamento climatico, cercando di occupare lo spazio lasciato libero dagli USA di B. Obama, vede la sua capitale messa a ferro e fuoco da legioni di dimostranti inferociti contro la sua “carbon tax” e che chiedono a gran voce le dimissioni di E. Macron. Non credo che esistano le condizioni politiche per far si che E. Macron possa diventare capofila di una nuova crociata globale contro le emissioni di CO2, visto che in patria è stato ridotto a mal partito proprio a seguito di da una decisione in linea con le ambiziose aspirazioni dell’Accordo di Parigi, tanto da doverla precipitosamente annullare.

Anche la Germania non se la passa meglio. La cancelliera A. Merkel è stata  fortemente ridimensionata da alcune tornate elettorali i cui risultati non sono stati lusinghieri per il suo partito, tanto che ha annunciato di volersi ritirare dalla vita politica del Paese, appena completato il cancellierato in corso.

In quanto all’U.E. nel suo complesso, a Katowice ha chiaramente fatto sapere che non saranno modificati gli NDCs assunti nel 2015: se terrà fede fino in fondo a questo impegno, possiamo dire fin da ora che l’Accordo di Parigi è morto, in quanto esso non potrà essere rispettato.

In questo quadro essere ottimisti è un lusso che non ci si può permettere anche se la speranza è l’ultima a morire.

Prepariamoci pertanto ad una nuova settimana di trattative, il cui unico scopo sarà quello di far sopravvivere l’Accordo di Parigi anche a costo di un’intesa al ribasso. Perché così andrà a finire questa Conferenza delle Parti, snobbata da tutti i politici di primo piano del mondo. A Parigi i rappresentanti politici dei Paesi partecipanti, erano al massimo livello: tutti Capi di Stato e di Governo. A Katowice i Capi di Stato e di Governo latitano e sono presenti quasi esclusivamente le delegazioni. Il che è un ulteriore segnale di fine ingloriosa per la COP 24. Non bisogna però lasciarsi prendere dallo sconforto:  ci sarà sempre una COPXX che rappresenterà l’ultima spiaggia per il pianeta ed a cui rinviare decisioni che nessuno vuole prendere. E come si fa, del resto, a prendere decisioni draconiane per limitare i consumi di combustibili fossili, visto quello che è capitato a Macron in Francia?  Perché, alla fine, è questo il problema: bisogna incidere pesantemente sul portafogli dei cittadini, se si vogliono veramente ridurre le emissioni e quando questo accadrà, scoppieranno rivolte e i politici ci rimetteranno le penne.

Related Posts Plugin for WordPress, Blogger...Facebooktwittergoogle_pluslinkedinmail
Translate »