Climate Lab – Fatti e Dati in Materia di Clima

Tra la fine del 2015 e l’inizio del 2016, poco dopo la fine della COP21 di Parigi, abbiamo messo a punto un documento pubblicato nella sua interezza (e scaricabile qui in vari formati) con il titolo “Nullius in Verba, fatti e dati in materia di clima”. L’idea è nata dall’esigenza di far chiarezza, ove possibile e nei limiti dell’attuale conoscenza e letteratura disponibili, in un settore dove l’informazione sembra si possa fare solo per proclami, quasi sempre catastrofici.

Un post però, per quanto approfondito e per quanto sempre disponibile per la lettura, soffre dei difetti di tutte le cose pubblicate nel flusso del blog, cioè, invecchia in fretta. Per tener vivo un argomento, è invece necessario aggiornarlo di continuo, espanderlo, dibatterle, ove necessario, anche cambiarlo. Così è nato Climate Lab, un insieme di pagine raggiungibile anche da un widget in home page e dal menù principale del blog. Ad ognuna di queste pagine, che potranno e dovranno crescere di volume e di numero, sarà dedicato inizialmente uno dei temi affrontati nel post originario. Il tempo poi, e la disponibilità di quanti animano la nostra piccola comunità, ci diranno dove andare.

Tutto questo, per mettere a disposizione dei lettori un punto di riferimento dove andare a cercare un chiarimento, una spiegazione o l’ultimo aggiornamento sugli argomenti salienti del mondo del clima. Qui sotto, quindi, l’elenco delle pagine di Climate Lab, buona lettura.

  • Effetti Ecosistemici
    • Ghiacciai artici e antartici
    • Ghiacciai montani
    • Mortalità da eventi termici estremi
    • Mortalità da disastri naturali
    • Livello degli oceani
    • Acidificazione degli oceani
    • Produzione di cibo
    • Global greening

____________________________________

Contenuti a cura di Luigi Mariani e revisionati in base ai commenti emersi in sede di discussione e per i quali si ringraziano: Donato Barone, Uberto Crescenti, Alberto Ferrari, Gianluca Fusillo, Gianluca Alimonti, Ernesto Pedrocchi, Guido Guidi, Carlo Lombardi, Enzo Pennetta, Sergio Pinna e Franco Zavatti.

Sorry

Posted by on 07:50 in Ambiente, Attualità | 10 comments

Sorry

Lavori in corso, sul sito della Casa Bianca.

Chi volesse accedere all’area dedicata al Climate Change attraverso il seguente link troverà infatti una pagina di scuse in cui si spiega che purtroppo il contenuto non è più disponibile.

È un vero peccato, perché l’anteprima di Google recita, promettente: “The Obama administration is taking action to combat climate change. … The United States is leading global efforts to address the threat of climate change”.

Immagino l’imminente mobilitazione di un esercito di novelli amanuensi intenti a fare “print-screen” di perle di saggezza ambientale molto liberal da proteggere e custodire per trasmettere ai nostri eredi tutta la gravità e l’emergenza che atterriva il pianeta Terra all’alba del 2017, al cospetto di temperature più alte della media di 0.24 °C , record di produzione agricola, successi di portata storica nella lotta alla fame e global greening fuori controllo.

La pagina di scuse, tuttavia, rimanda a delle “Useful Pages”, tra le quali fa bella mostra di sé un link alla pagina nuova di zecca intitolata, in modo altrettanto suggestivo, “An America First Energy Plan”.

Di cosa si parla? Proviamo a riassumere:

  • L’energia è un pilastro della vita degli americani e dell’economia mondiale. La nuova Amministrazione promuove politiche che abbassino il costo dell’energia per il lavoratore americano, massimizzando l’uso delle risorse interne.
  • L’eccessiva regolamentazione dell’industria energetica è stata un ostacolo per troppo tempo. Si elimineranno politiche inutili e dannose come il Climate Action Plan e il Waters of the US rule, risparmiando fino a 30 miliardi di dollari in 7 anni.
  • Si sfrutteranno le risorse locali di idrocarburi per creare lavoro e si useranno le risorse svincolate per realizzare opere infrastrutturali. Un’energia a buon mercato favorirà anche la produzione agricola.
  • Lo sfruttamento delle fonti energetiche tradizionali, incluso il carbone, permetterà di realizzare una indipendenza energetica completa dall’OPEC e da paesi ostili agli interessi americani.
  • Segue un paragrafo sulla necessità di proteggere l’ambiente, l’aria e le acque.
  • E infine la conclusione: un futuro più luminoso dipende da politiche energetiche che stimolino l’economia, garantiscano la sicurezza e proteggano la ricchezza degli americani.

Bestemmie? Eresie? Libro dei sogni? Qualunquismo becero?

O forse generiche parole di buon senso, assolute ovvietà che in altri tempi scevri di fondamentalismi ambientalisti più o meno interessati sarebbero suonate talmente scontate da non meritare menzione?

Forse è utile ricordare che l’alternativa elettorale, dal punto di vista energetico, era spendere 200 miliardi per tappezzare gli Stati Uniti con mezzo miliardo di pannelli solari con l’inevitabile effetto di pagare una bolletta energetica più salata, in cambio di ulteriori riduzioni di emissioni di CO2. È ovviamente un dettaglio insignificante notare che, solo incidentalmente, questo programma avrebbe beneficiato società come SunEdison, First Solar o Solar City, la prima già fallita, le altre sulla buona strada per farlo (1, 2) sulla falsariga della crisi generalizzata dell’industria mondiale del solare, più che mai affamata di sovvenzioni per garantirsi una stentata sopravvivenza.

E altrettanto incidentalmente, le stesse Solar City e First Solar avevano finanziato il Partito Democratico. E chissà che nel discorso inaugurale The Donald non facesse riferimento anche a questo, quando parlava delle tante belle parole dei politici seguite da pochi fatti che negli anni hanno beneficiato i soliti noti dei soliti circoli ristretti di Washington, a danno di Average Joe e di Mr. Johnes.

Gli americani hanno scelto, e la storia dirà se la loro è stata una scelta saggia, spericolata o semplicemente disperata. E dirà anche se chi è stato scelto sarà stato all’altezza delle tante aspettative di cambiamento manifestate con forza nella cabina elettorale.

Facebooktwittergoogle_pluslinkedinmail

Pausa o non pausa, questo è il problema!

Posted by on 07:00 in Attualità, Climatologia | 7 comments

Pausa o non pausa, questo è il problema!

Lo scorso anno fu pubblicato un articolo, Karl et al., 2015, in cui veniva descritto un procedimento di omogeneizzazione dei dati di temperatura globale che decretò la scomparsa della pausa nell’innalzamento delle temperature superficiali globali. A questo articolo dedicai un post in cui mettevo in evidenza alcune criticità di Karl et al., 2015. Riassumendo le conclusioni del post, criticavo due aspetti di Karl et al., 2015:

  • Le interpolazioni polari che determinavano un raddoppio del trend di innalzamento delle temperature atmosferiche dell’area;
  • Le correzioni dei valori delle serie di temperature della superficie del mare (SST) misurate dalle navi.

Al netto di queste due correzioni delle serie di temperatura globale, la pausa risultava ben evidente. Karl et al., 2015 è stato molto criticato negli ambienti scettici in quanto la sua opera viene considerata l’ennesimo esempio di modifica dei dati per adattarli alle esigenze della linea di pensiero principale e cioè fornire una base quantitativa alla narrazione qualitativa del riscaldamento globale o cambiamento climatico di origine antropica o ancora disordine climatico. Come sovente accade nell’ambito della ricerca scientifica non si può mai esprimere un giudizio definitivo su di una certa conclusione in quanto altri ricercatori, lavorando sullo stesso argomento, possono giungere a conclusioni concordanti con quella oggetto di discussione o possono dimostrarne l’infondatezza. Anche Karl et al., 2015 è passato attraverso questo processo di verifica e sembrerebbe che le conclusioni dell’articolo debbano considerarsi fondate.

In questi giorni la rivista Science ha pubblicato l’articolo che con metodologie diverse sembra avvalorare l’opera di Karl et al., 2015.

Assessing recent warming using instrumentally homogeneous sea surface temperature records di  Zeke Hausfather, Kevin Cowtan, David C. Clarke, Peter Jacobs, Mark Richardson e Robert Rohde (da ora Hausfather et al., 2017)

La superficie del mare risulta essere l’elemento dominante del pianeta Terra in quanto ne rappresenta il 71% della superficie globale. E’ ovvio, quindi, che la temperatura della superficie del mare rappresenta il fattore dominante della temperatura media globale superficiale. Oggi come oggi esistono fondamentalmente tre serie di dati che rappresentano la storia termica della superficie marina: ERSST4 della NOAA, HadSST3 dell’Hadley Centre del Met-Office e COBE-SST della Japanese Meteorological Agency’s. Ad essere sinceri esiste anche qualche altro dataset, ma le modalità di gestione piuttosto oscure e la scarsa diffusione ci consentono di trascurarli. Nel prosieguo ci concentreremo, pertanto, su queste tre serie di dati. Si tratta di tre compositi, cioè tre serie di temperature superficiali del livello del mare generate dalla composizione, previa opportuna omogeneizzazione, di diverse serie di temperature della superficie marina. Come ben sanno i lettori di CM si tratta di prodotti generati utilizzando pesantissimi processi di trattamento dei dati grezzi in quanto per poter comporre serie di dati misurati  con metodologie e strumenti diversi, è necessario omogeneizzare, sottoporre cioè a trattamenti statistici estremamente complessi, i dati grezzi. Karl et al., 2015 è intervenuto sulla serie di dati ERSST3 della NOAA, revisionando le serie di temperature che confluivano nel composito mediante opportuni algoritmi di omogeneizzazione. Allo scopo di rendere globale la copertura dei dati, mediante processi di rianalisi, ha ricostruito i valori della temperatura superficiale del mare anche nelle maglie della griglia in cui è stata suddivisa la superficie terrestre, in cui tali dati mancano per carenza di misurazione. Semplificando molto, Karl et al., 2015 ha messo in evidenza che il trend di variazione della temperatura globale nel periodo 1951-2012, non era affatto diverso da quello nel periodo 1997-2012: non esisteva alcuna pausa nel rateo di aumento delle temperature globali. Appare evidente, pertanto, che il core del lavoro di Karl et al., 2015 è rappresentato dalla tendenza delle temperature globali. Per quanto premesso, appare evidente che tutta la discussione ruota attorno alle temperature della superficie del mare perché se pausa ci deve essere, essa deve emergere dai dataset di tali temperature.

Allo scopo di controllare la bontà del lavoro di Karl et al., 2015, Hausfather et al., 2017 ha confrontato le tendenze dei tre compositi delle temperature superficiali del mare con quelle di alcune serie delle stesse temperature sulla cui omogeneità c’è poco da discutere (in realtà un poco da discutere c’è, ma lo vedremo alla fine, per adesso supponiamo che l’omogeneità delle serie di riferimento sia un dato di fatto).

Il ragionamento di Hausfather e colleghi non fa una grinza: se la tendenza di ERSST4 riesce a replicare quella delle serie di riferimento meglio di quanto non facciano gli altri compositi, bisogna riconoscere che l’omogeneizzazione di ERSST4 è efficace e corretta. Andiamo, ora, a dare un’occhiata alle serie di riferimento che Hausfather et al., 2017 ha preso in considerazione. La prima serie considerata dagli autori è quella della rete delle boe fisse o derivanti della rete ICOADS, la seconda serie di dati è quella generata da radiometro satellitare e curata dall’European Space Agency Climate Change Initiative (da ora in poi CCI), una seconda serie di dati radiometrici curata da Along Track Scanning Radiometer (ATSR) che da ora in poi definiremo ARC ed infine tre serie di temperature basate sulle boe galleggianti del progetto ARGO.

Queste serie di dati hanno sviluppi spaziali e temporali diversi, per cui devono essere trattate in modo piuttosto cauto. Esaminiamole una alla volta mettendone in evidenza pregi e difetti.

Le boe marine ormeggiate e derivanti costituiscono una rete piuttosto estesa che presenta una distribuzione spaziale abbastanza omogenea e che copre in maniera quasi continua un intervallo temporale che va dalla fine degli anni novanta del secolo scorso ai giorni nostri. Esse forniscono le temperature delle acque marine mediante misurazione diretta e non risentono di tutti quei bias riscaldanti o raffreddanti da cui sono affette le misurazioni delle temperature delle acque marine effettuate mediante secchi o mediante spillatura dalle condotte di raffreddamento dei motori delle navi. Oggi come oggi le temperature determinate con l’uso delle boe rappresentano circa l’ottanta per cento delle misure di temperatura delle acque marine. Tali misurazioni sono, però, affette da molteplici problemi legati al fatto che spesso le boe derivanti si arenano e per lungo tempo trasmettono misure di temperatura relative all’aria e non all’acqua. Altra fonte di incertezza in queste misurazioni è costituita dal fatto che quando esse vengono recuperate dalle navi che le incrociano per essere sottoposte a manutenzione, continuano a trasmettere misure della temperatura dell’aria e non dell’acqua marina. Esistono anche altre problematiche, ma è opportuno fermarci qui.

Le temperature misurate dai satelliti sono un tipico esempio di telerilevamento e si basano sulla radiazione emessa dalla superficie del mare e misurata da un radiometro basato su un satellite. Questo tipo di misurazione è il più completo dal punto di vista spaziale in quanto riesce a coprire quasi tutta la superficie terrestre con esclusione delle zone polari. Le misurazioni da remoto soffrono, secondo alcuni, di un bias freddo in quanto, in presenza di nubi, non sono in grado di misurare le temperature dello strato d’acqua sottostante o lo sottostimano in modo molto sensibile. Nel caso delle serie prese in esame da Hausfather et al., 2017, mentre ACR è esclusivamente satellitare, CCI è integrata anche con dati provenienti da boe ormeggiate, per cui è essa stessa un composito.

Infine troviamo le boe del progetto ARGO: si tratta di laboratori robotici galleggianti che sono in grado di misurare diversi parametri marini come salinità, velocità delle correnti, acidità ed ovviamente temperatura delle acque marine, oltre ad altre molteplici grandezze. Il pregio di questa rete di boe derivanti è che riescono ad eseguire queste misurazioni sull’intera colonna liquida compresa tra 0 e -2000 metri di profondità. Diciamo che esse rappresentano il top della misurazione di grandezze caratterizzanti le acque marine ed oceaniche.

Hausfather et al., 2017 ha elaborato sei serie di dati delle tendenze delle temperature superficiali del mare: una basata esclusivamente sulle boe, due basate esclusivamente sulle rilevazioni satellitari, una terza basata su rilevazioni satellitari e sulle boe del progetto ARGO (APDRC), una quarta basata su dati ARGO integrati con dati derivanti da boe normali (H2008) ed, infine, la sesta basata solo ed esclusivamente su dati del progetto ARGO (RG2009).

Da questa breve disamina ci rendiamo conto che in effetti tre sono le serie di misurazioni delle temperature superficiali del mare che possono essere considerate del tutto omogenee: quella derivata dalle boe ormeggiate e derivanti, quella satellitare ACR e, infine, quella delle boe Argo definita RG 2009.

Come già accennato, le serie prese in considerazione non sono perfettamente sovrapponibili né spazialmente, né temporalmente per cui bisogna individuare un periodo comune in cui esse possano essere sovrapponibili. Questo periodo è stato individuato dagli autori, relativamente alle serie che hanno inizio alla fine degli anni ‘90 del secolo scorso, tra il 1997 ed il 2001. Per le temperature desunte dalle boe e per i dati satellitari, ciò è stato possibile in quanto esse raggiunsero una significatività spaziale quasi contemporaneamente intorno al 1997, per le misure ottenute a partire dalle boe ARGO, il periodo di sovrapposizione da prendere in considerazione, è quello successivo al 2005 in quanto prima di tale data la diffusione delle boe ARGO era poco significativa. La scelta del periodo di sovrapposizione delle serie è stata effettuata grazie all’utilizzo di modelli autoregressivi a media mobile (ARMA (1,1)) che hanno consentito di correggere i problemi di autocorrelazione che si presentano in questi casi.

Individuate le serie di confronto ed i periodi di sovrapposizione, Hausfather et al., 2017 hanno confrontato le tendenze dei quattro compositi disponibili (HadSST3, ERSST3, ERSST4 e COBE-SST) con le serie di riferimento. Per il periodo 1997-2015 il confronto è stato effettuato con la serie delle temperature misurate dalle boe e con la serie satellitare CCI. Il risultato globale del confronto tra ERSST3, ERSST4, la serie delle temperature desunte dalle boe e la serie satellitare CCI è quello rappresentato nella figura 1 del loro articolo che qui riproduco.

Come si vede chiaramente dal grafico, fino al 2003 le tendenze delle quattro serie prese in considerazione sono praticamente identiche. Successivamente cominciano ad esserci delle deviazioni che riguardano essenzialmente ERSST3 (linea tratteggiata). ERSST4 è, invece, coerente con le serie omogenee (satellitare e boe) fino alla fine. Assunto che le tendenze delle temperature satellitari e di quelle delle boe siano omogenee, l’unica logica conseguenza è che ERSST4 è coerente con le serie omogenee, mentre ERSST3 è affetto da un bias freddo. Detto in parole molto povere Karl et al., 2015 viene confermato in modo indipendente e tutte le critiche che gli sono state mosse devono essere considerate fuori luogo. La conclusione ovvia è che la pausa non è mai esistita, ma è frutto di un bias insito nella serie di dati.

Personalmente reputo del tutto corretto e sensato il ragionamento di Hausfather et al., 2017: se la misura di una grandezza fisica eseguita con uno strumento, coincide con quella effettuata con metodica e strumentazione diversa, quindi indipendente dalla prima, possiamo essere certi che le due misure sono corrette e che la grandezza fisica ha come valore più probabile, quello misurato. Lo faccio anch’io tutti i giorni e lo accetto senza alcun problema.

Fino ad ora non abbiamo visto, però, alcun confronto tra i compositi HadSST3 e COBE-SST e le serie campione, né dei compositi con le serie desunte dalle boe ARGO. Nell’articolo di Hausfather e soci questi confronti vengono effettuati in modo piuttosto rigoroso e con dovizia di particolari. Cercherò di riassumere brevemente questi confronti ed i test di verifica effettuati, rimandando all’articolo originale ed ai materiali supplementari, liberamente accessibili, ulteriori approfondimenti.

Sottraendo le serie campione dai compositi presi in considerazione, Hausfather et al., 2017 calcola i residui e li confronta statisticamente. Il calcolo evidenzia che rispetto ad ERSST4, tutti gli altri compositi presentano dei residui maggiori quando ad essi vengono sottratti i valori delle serie campione. Tale fatto è evidente per il periodo 1997-2015 mettendo a confronto i quattro compositi con le serie CCI, boe derivanti e ARC (Fig. 2 dell’articolo originale). Anche da questo controllo emerge, quindi, che ERSST4 è più performante degli altri compositi relativamente al periodo preso in considerazione.

Più interessante mi è sembrato il confronto tra i quattro compositi e le serie basate sui dati delle boe ARGO. Anche in questo caso due volte su tre ERSST4 appare migliore degli altri tre compositi. Solo il confronto tra i compositi e la serie RG2009, basata esclusivamente sulle boe ARGO, evidenzia residui che non consentono di discernere tra i quattro compositi presi in considerazione: tra essi non vi sono differenze statisticamente significative, sono tutti accettabili. Il grafico seguente, tratto sempre da Hausfather et al., 2017,  consente di visualizzare quanto ho appena scritto.

E’ appena il caso di sottolineare che gli autori hanno provveduto a effettuare un altro controllo, a mio giudizio estremamente significativo. Affinché il confronto tra due serie di dati sia congruo, è necessario che le due serie siano spazialmente e temporalmente coincidenti. Gli autori hanno, pertanto, individuato le maglie della griglia planetaria in cui erano presenti dati per tutto il periodo preso in considerazione ed hanno effettuato le sottrazioni dianzi descritte. I risultati non sono molto diversi da quelli appena illustrati. Hanno, infine, ricostruito per interpolazione i dati nelle maglie in cui non erano presenti tutte le misurazioni ed il risultato non è stato di molto differente anche se il margine di incertezza è aumentato e ciò non può suscitare meraviglia visto che i dati interpolati così ottenuti possono essere considerati virtuali.

A questo punto è necessario tirare le somme e giungere ad una conclusione. La conclusione non può che essere una: Hausfather et al., 2017 ha confermato e convalidato con metodologia indipendente Karl et al., 2015. Il discoro sembra chiuso fino a che qualcuno non dimostrerà che Karl et al., 2015 e Hausfather et al., 2017 sono sbagliati.

E per finire qualche considerazione personale. Il lavoro di Hausfather e colleghi è apprezzabile in quanto riesce a dimostrare l’assunto in modo estremamente elegante ed efficace. Da questo punto di vista lo considero migliore di Karl et al., 2015 sia dal punto di vista metodologico che da quello analitico. Diciamo che mi ha convinto e che ERSST4 nonostante le perplessità metodologiche che continuo a nutrire, è un prodotto migliore degli altri compositi. Nonostante ciò non posso nascondere che ho qualche perplessità che mi spinge ad aspettare ulteriori sviluppi della vicenda. Detto in altri termini, non credo che i giochi siano ancora chiusi.

La prima perplessità riguarda la lunghezza delle serie di confronto. Sono tutte molto brevi in quanto vanno da un massimo di venti ad un minimo di undici anni. Considerando che una parte della lunghezza deve essere utilizzata per la sovrapposizione, mi sembra che l’intervallo temporale efficace per le considerazioni quantitative sia estremamente ridotto: 15 anni per le serie basate sulle boe e sui radiometri, 6 anni o giù di lì per quelle desunte dalle boe ARGO. Poco, troppo poco per poter considerare definitivi i risultati di Hausfather e colleghi.

Altra perplessità riguarda la natura delle serie di confronto. La serie delle boe derivanti presenta i problemi di cui ho già parlato nel corpo del post. Le serie da radiometro sono esse stesse dei compositi e, quindi, non hanno le caratteristiche di omogeneità che caratterizzano le assunzioni su cui si basa il lavoro di Hausfather et al., 2017. Delle serie basate sulle boe ARGO, due sono dei compositi e solo RG2009 appare omogenea. Neanche a farlo apposta, premessa l’eccessiva brevità della serie, è quella che rende equiprobabili tutti e quattro i compositi. Sarà un caso o è qualcosa di più significativo? Io credo che sia qualcosa di diverso dal semplice caso in quanto RG2009 è, forse, l’unica serie veramente omogenea, ma in ogni caso è troppo breve per poter esprimere un giudizio definitivo.

L’ultima perplessità, forse quella più importante, è di natura logica. Tanto UAH, quanto RSS (i due dataset satellitari delle temperature della bassa troposfera), dimostrano che la pausa c’è stata ed essi sono del tutto indipendenti dagli altri dataset delle temperature superficiali. Secondo i sostenitori dell’AGW questi dati non sono probanti in quanto misurano grandezze diverse, cioè la temperatura della bassa troposfera e non quella superficiale che è quella che a noi interessa. Io non concordo con questo punto di vista e Hausfather e colleghi non dovrebbero vederla molto diversamente da come la vedo io, considerato che la maggioranza delle serie di controllo da essi individuate attinge a dati radiometrici di natura satellitare. Essi se ne rendono conto e mettono le mani avanti: i nostri dati satellitari sono riferiti alla superficie del mare che è ben definita e non ad una difficilmente definibile “bassa troposfera”. Mi sembra una giustificazione piuttosto ingenua, visto che le metodiche di rilievo e le problematiche connesse sono del tutto identiche. Ci troviamo, pertanto, di fronte ad un paradosso: da un lato le temperature globali della bassa troposfera determinate con metodo radiometrico, dimostrano l’esistenza di una pausa nel riscaldamento globale, dall’altro i dati radiometrici, seppur riferiti ad una temperatura diversa (quella della superficie del mare), avvalorano un set di dati che nega la pausa. Davvero un bel dilemma.

In conclusione restiamo con l’amletico dubbio: questa benedetta pausa c’è o non c’è?

Facebooktwittergoogle_pluslinkedinmail

07/01/2017: a Montevergine mai così freddo dal 1963

Posted by on 09:54 in Attualità, Climatologia, Meteorologia | 0 comments

07/01/2017: a Montevergine mai così freddo dal 1963

Non è la prima volta che pubblichiamo dati e analisi relative all’Osservatorio di Montevergine, un sito osservativo molto importante dal punto di vista climatico per la sua particolare posizione geografica. Un sito però che “resiste”, nel senso che continua ad esistere, soltanto grazie all’opera volontaria di un gruppo di giovani appassionati di questa materia e non già, come dovrebbe e potrebbe essere in una situazione normale, perché l’interesse scientifico si traduce in impegno pratico da parte delle istituzioni, quali esse siano.

Ad ogni modo, la passione e l’impegno vincono sempre, per cui la serie storica di Montevergine continua ad essere arricchita giorno dopo giorno. Come per diverse altre località nel nostro Paese, i primi giorni di questo mese sono destinati a risaltare non poco nelle medie storiche.

Ecco quindi una nota sull’evento freddo dei giorni attorno all’Epifania mandatami da Vincenzo Capozzi, che oltre ad onorarmi con la sua amicizia, è nel gruppo che si danna per mantenere l’osservatorio operativo e svolge attività di ricercatore per l’Unipathenope di Napoli.

Dopo la lettura, non mancate di visitare il sito ufficiale dell’Osservatorio: www.mvobsv.org.

gg

______________________

Sui bacini centro-orientali del Mediterraneo ha avuto luogo un’ondata di freddo di notevole rilievo. Lo scorso 7 gennaio presso l’Osservatorio meteorologico di Montevergine è stata una registrata una temperatura minima di -12.7°C. Si tratta del valore di temperatura più basso registrato negli ultimi 54 anni: è necessario, infatti, risalire al lontano 1963 per riscontrare valori termici ancor più rigidi. Come si evince dalla tabella riportata di seguito, la minima del 07/01/2017 si pone al trentanovesimo posto nella speciale classifica delle temperature minime più basse registrate dal 1884 ad oggi.

La temperatura massima registrata lo scorso 7 gennaio, pari a -10.7°C, assume ancora maggior rilievo: si tratta, infatti, della terza temperatura massima più bassa di sempre. Soltanto nel già citato inverno del 1963 (e più precisamente il 23/01/1963) e nel più famigerato inverno del 1929 (in particolare, il 03/02/1929) sono state registrate temperature massime più basse (rispettivamente -11.4°C e -11.0°C).

 

I dati registrati presso l’Osservatorio di Montevergine, dunque, testimoniano l’assoluta rilevanza della “cold wave” giunta sul Mediterraneo centro-orientale. La stessa sarà senz’altro annoverata, perlomeno sotto il profilo squisitamente termico, come una delle più intense degli ultimi decenni.

Precisiamo che dal 24/12/2007 i dati di temperatura sono rilevati attraverso strumentazione meteorologica automatica, posta in schermo solare passivo. Sino al 23/12/2007, invece, le rilevazioni termiche sono state affidate a termometri a massima e a minima, collocati all’interno di una capannina meteorologica e quotidianamente predisposti da un operatore.

Facebooktwittergoogle_pluslinkedinmail

3 Gennaio 2017 – Novecentesimo Anniversario del Grande Terremoto del Nord Italia del 1117

Posted by on 07:00 in Ambiente, Attualità | 8 comments

3 Gennaio 2017 – Novecentesimo Anniversario del Grande Terremoto del Nord Italia del 1117

Riassunto

Un anniversario che non può essere ignorato dai lettori di CM è quello del terremoto che colpì il Nord Italia il 3 gennaio 1117 e che è il maggior terremoto che ha colpito l’area in epoca storica. Resoconti interessanti dell’evento si trovano su Wikipedia alla voce “Terremoto di Verona” e negli articoli scientifici di Galli (2005) e di Guidoboni, Comastri e Boschi (2005) che costituiscono la base per questo sintetico commento. In realtà pare che l’evento sia costituito da tre eventi distinti e indipendenti (uno in Bassa Baviera, uno nel Nord Italia e uno in Toscana) il che spiegherebbe la non perfetta coerenza delle fonti documentali.

Abstract

Some days ago happened an anniversary that cannot be ignored by readers of CM, namely that of the earthquake of January 3, 1117 which is the largest earthquake that struck Northern Italy in historical times. Interesting descriptions of the seismic event can be found on Wikipedia under “Terremoto di Verona” (https://it.wikipedia.org/wiki/Terremoto_di_Verona_del_1117) and in scientific articles written by Galli (2005) and Guidoboni, Comastri and Woods (2005) that are the base for this comment. It seems that the event was made up of three separate events (one in Lower Bavaria, one in northern Italy and one in Tuscany) which could explain the imperfect coherence of documentary sources.

E’ da poco caduta una ricorrenza che ci terrei non fosse ignorata dai lettori di CM e cioè quella del terremoto che colpì la Valpadana il 3 gennaio 1117.

Resoconti interessanti dell’evento si trovano su Wikipedia alla voce “Terremoto di Verona” e negli articoli scientifici di Galli (2005) e di Guidoboni, Comastri e Boschi (2005).

In particolare l’articolo di Galli pone in evidenza la difficoltà insita nella ricostruzione dei contorni geografici dell’evento sulla base delle cronache dell’epoca e della storia dell’arte, augurandosi altresì che in futuro maggiori informazioni ci possano venire da indagini di tipo archeo-sismologico eseguite su edifici medioevali padani. Galli stesso sottolinea che la complessità interpretativa deriva dal fatto che le aree di  principale danneggiamento sono diverse: una presso Augusta nel sudovest della Baviera, una nell’area trentino-veneta, una in quella lombardo-emiliana ed una in quella pisana. Tali aree sono state probabilmente unificate dalle cronache coeve pur afferendo ad eventi indipendenti fra loro ma casualmente molto vicini nel tempo.

Il lavoro di Galli, in base all’analisi delle fonti, ipotizza la presenza di un ulteriore epicentro nel cremonese che sarebbe responsabile del crollo del Duomo di Cremona allora in costruzione, edifico che, dopo un lungo abbandono (attestato dal fatto che solo nel 1129 saranno recuperate dalle macerie le spoglie di Sant’Imerio vescovo, copatrono della città) sarebbe in seguito stato ricostruito secondo un nuovo progetto.

Inoltre segnalo che nel lavoro di Guidoboni, Comastri e Boschi (2005) si fa riferimento a tre eventi distinti e fra loro indipendenti:

  • evento delle ore 2 del mattino del 3 gennaio con epicentro nella bassa Germania e magnitudo 6.4
  • evento delle ore 15 del 3 gennaio con epicentro nella zona di Verona e magnitudo 7.0.
  • evento delle ore 15 del 3 gennaio  nell’alta valle del Serchio nel Nordovest della Toscana, con epicentro e magnitudo non calcolabili.

Si noti che con 7.0 di magnitudo il terremoto del 1117 è da considerare il maggior terremoto nel Nord Italia in epoca storica, l’evento sismico del Friuli del 6 maggio 1976 avendo avuto magnitudo di 6.5.

Segnalo anche che una vasta bibliografia sui terremoti storici in Italia e un elenco delle località colpite è disponibile al sito http://storing.ingv.it/cfti4med/quakes/00035.html.

Il terremoto del 3 gennaio 1117 emerge anche dalla Historia mediolanenis di Landolfo di S. Paolo  in cui si narra che l’Arcivescovo di Milano Giordano da Clivio (fonte) convocò a Milano tra gennaio e febbraio del 1117 una solenne riunione con i rappresentanti del clero metropolitano e diocesano e i rappresentanti delle città lombarde. Nonostante la stagione invernale l’evento si tenne curiosamente all’aperto, nel grande brolo dell’arcivescovo, forse per paura del terremoto.

Insomma, nonostante il terribile evento la storia non si fermò, tant’è vero che ad esempio  nel 1122, a soli 5 anni dal sisma, veniva inaugurato il nuovo Duomo di Piacenza, costruito in luogo della vecchia basilica forse abbattuta dopo essere stata danneggiata dal sisma mentre la chiesa carolingia dell’Assunta in Castell’Arquato (PC) fu riconsacrata nel 1122, il che fa anche in questo caso pensare all’azione del sisma del 1117 (Galli, 2005).

In ogni caso tracce del terremoto persistettero a lungo nella memoria delle popolazioni, tant’è vero che lo stesso Galli sottolinea il sisma del 1117 viene utilizzato come riferimento cronologico in atti notarili redatti fino a 70 anni dopo lo stesso.

Bibliografia

Galli P., 2005. I terremoti del gennaio 1117. Ipotesi di un epicentro nel cremonese, Il Quaternario –  Italian Journal of Quaternary Sciences http://www.aiqua.it/index.php?option=com_joomd&view=joomd&layout=detail&id=230&Itemid=200&lang=it

Guidoboni E., Comastri A. e Boschi E., 2005. The “exceptional” earthquake of 3 January 1117 in the Verona area (northern Italy): a critical time review and detection of two lost earthquakes (lower Germany and Tuscany), in “Journal of Geophysical Research”, vol.110, B12309, doi: 10.1029/2005JB003683 [20 pp.].

Landolfo di S. Paolo, Historia Mediolanensis, a cura di C. Castiglioni, in Rer. Ital. Script., 2ª ed., V, 3, pp. 14, 18-20, 22-24, 26-31, 39;

Facebooktwittergoogle_pluslinkedinmail

Un Mese di Meteo – Dicembre 2016

Posted by on 08:00 in Attualità, Climatologia, Commenti mensili, Meteorologia | 0 comments

Un Mese di Meteo – Dicembre 2016

IL MESE DI DICEMBRE 2016[1]

Mese caratterizzato dal predominio di anticicloni di blocco con condizioni di elevata stabilità, temporaneamente interrotte sul meridione da manifestazioni di instabilità innescate da infiltrazioni di masse d’aria settentrionale che fluiva ai bordi dell’anticiclone.

La carta media mensile del livello di pressione di 850 hPa (figura 5a) mostra come principale centro d’azione un promontorio anticiclonico subtropicale di blocco esteso dal Nord Africa verso il mare del Nord che ha costretto le correnti atlantiche a fluire da latitudini subtropicali verso la Scandinavia, il che peraltro spiega la locale attività temporalesca osservata sull’areale costiero di Svezia e Norvegia, alquanto anomala per la stagione invernale.

Figura 5a – 850 hPa – Topografia media mensile del livello di pressione di 850 hPa (in media 1.5 km di quota). Le frecce inserire danno un’idea orientativa della direzione e del verso del flusso, di cui considerano la sola componente geostrofica. Le eventuali linee rosse sono gli assi di saccature e di promontori anticiclonici.

Si deve rilevare che l’anomalia delle condizioni anticicloniche del dicembre 2016 non sta tanto nella struttura meteorologica in sé, tutt’altro che anomala per l’areale euro-mediterraneo, quanto nella sua elevata persistenza. Si noti peraltro che se il fenomeno avesse avuto luogo in estate avrebbe determinato una grande ondata di caldo, mentre in inverno si è tradotto in una generalizzata assenza di precipitazioni (seppur con alcune significative eccezioni) che sulle pianure e nei fondovalle, specie al centro-nord, è stata accompagnata da nebbie, gelate ed accumulo di inquinanti.

La carta delle isoanomale (figura 5b) mostra che il nucleo principale di anomalia positiva (+10 m per il livello di 850 hPa) si è collocato sui paesi Bassi, il che è da ritenersi frutto dello spostamento verso Nord del flusso perturbato atlantico indotto dall’anticiclone.

Figura 5b – Isoanomale della pressione al suolo – Carta delle isoanomale medie mensili della pressione al suolo. Con N e P sono indicati rispettivamente i nuclei di anomalia negativa e positiva.

In complesso il mese si è contraddistinto per il passaggio di un totale di 3 perturbazioni che hanno per lo più limitato la propria influenza al meridione salvo quella transitata fra 19 e 21 dicembre che ha interessato anche il Nordovest e le regioni centrali tirreniche.

Tabella 1 – Sintesi delle strutture circolatorie del mese a 850 hPa (il termine perturbazione sta ad indicare saccature atlantiche o depressioni mediterranee (minimi di cut-off) o ancora fasi in cui la nostra area è interessata da correnti occidentali con variabilità perturbata).
Giorni del mese Fenomeno
1-2 dicembre Un promontorio anticiclonico subtropicale di blocco si protende dall’Africa del Nordovest verso l’Islanda determinando sula nostra area un regime di correnti da Nordovest a lieve carattere favonico sul settentrione.
3-18 dicembre Sulla nostra area persiste un anticiclone subtropicale di blocco esteso dal Nord Africa verso il mare del Nord e che determina tempo stabile e soleggiato, nebbioso sulle pianure del nord. Instabilità su Sicilia e Calabria dal 3 al 6 dicembre  (perturbazione n. 1).
19-21 dicembre Una depressione africana del nordovest che il giorno 20 viene temporaneamente rialimentata dal flusso perturbato atlantico determina condizioni di instabilità (perturbazione n. 2).
22-26 dicembre L’area italiana è influenzata da un promontorio anticiclonico da ovest con tempo stabile, nebbioso sulle pianure del Nord.
27-31 dicembre Un promontorio anticiclonico subtropicale di blocco si protende dall’Africa del Nordovest verso le isole Britanniche e il centro dell’Europa, determinando sulla nostra area un regime di correnti da settentrione che il giorno 27 assumono carattere favonico sul settentrione con sensibile anomalia termica positiva. L’aria fredda alimenta una depressione su Ionio e Egeo con attività temporalesca su meridione peninsulare e Sicilia dal 27 al 29 dicembre (perturbazione n. 3).

Andamento termo-pluviometrico

Per quanto riguarda le temperature massime mensili (figura 1) dominano le anomalie positive sul settentrione, in particolare su Piemonte, Valle d’Aosta, Liguria e settori prealpini ed alpini delle restanti regioni. Le nebbie giustificano l’assenza di anomalia positiva in gran parte della bassa pianura padana. In debole anomalia positiva anche il versante tirrenico del centro mentre nel meridione le temperature appaiono nella norma salvo locali anomalie negative su Sicilia e Calabria.

Le temperature minime (figura 2) hanno visto invece il prevalere di temperature nella norma salvo anomalie negative a carattere locale e più limitate anomalie positive.

Figura 1 – TX_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle massime del mese

Figura 2 – TN_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle minime del mese

Per quanto riguarda le temperature decadali (tabella 2) il tratto più saliente è la sensibile anomalia positiva nelle massime sul settentrione della terza decade del mese.

Le precipitazioni (figura 3) sono risultate deboli o assenti su gran parte dell’area salvo la  piovosità discreta registrata su Piemonte e Valle d’Aosta e la piovosità localmente abbondante registrata su Sardegna, Sicilia e Calabria. La carta delle anomalie pluviometriche (figura 4) evidenzia una rilevante anomalia negativa su gran parte dell’area. A livello decadale (tabella 2) il prevalere dei rossi e dei gialli è più che mai eloquente circa un mese dominato dalle anomalie pluviometriche negative, più spiccate nella prima e terza decade del mese.

Figura 3 – RR_mese – Carta delle precipitazioni totali del mese (mm)

Figura 4 – RR_anom – Carta dell’anomalia (scostamento percentuale rispetto alla norma) delle precipitazioni totali del mese (es: 100% indica che le precipitazioni sono il doppio rispetto alla norma).

Tabella 2 – Analisi decadale e mensile di sintesi per macroaree – Temperature e precipitazioni al Nord, Centro e Sud Italia con valori medi e anomalie (*)

(*) LEGENDA:

Tx sta per temperatura massima (°C), tn per temperatura minima (°C) e rr per precipitazione (mm). Per anomalia si intende la differenza fra il valore del 2013 ed il valore medio del periodo 1988-2015.

Le medie e le anomalie sono riferite alle 202 stazioni della rete sinottica internazionale (GTS) e provenienti dai dataset NOAA-GSOD. Per Nord si intendono le stazioni a latitudine superiore a 44.00°, per Centro quelle fra 43.59° e 41.00° e per Sud quelle a latitudine inferiore a 41.00°. Le anomalie termiche sono evidenziate con i colori (giallo o rosso per anomalie positive rispettivamente fra 1 e 2°C e oltre 2°C; azzurro o blu per anomalie negative rispettivamente fra 1 e 2°C e oltre 2°C) . Analogamente le anomalie pluviometriche percentuali sono evidenziate con i colori ( azzurro o blu per anomalie positive rispettivamente fra il 25 ed il 75% e oltre il 75%; giallo o rosso per anomalie negative rispettivamente fra il 25 ed il 75% e oltre il 75%) .

[1]              Questo commento è stato condotto con riferimento alla  normale climatica 1988-2015 ottenuta analizzando i dati del dataset internazionale NOAA-GSOD  (http://www1.ncdc.noaa.gov/pub/data/gsod/). Da tale banca dati sono stati attinti anche i dati del periodo in esame. L’analisi circolatoria è riferita a dati NOAA NCEP (http://www.esrl.noaa.gov/psd/data/histdata/). Come carte circolatorie di riferimento si sono utilizzate le topografie del livello barico di 850 hPa in quanto tale livello è molto efficace nell’esprimere l’effetto orografico di Alpi e Appennini sulla circolazione sinottica. L’attività temporalesca sull’areale euro-mediterraneo è seguita con il sistema di Blitzortung.org (http://it.blitzortung.org/live_lightning_maps.php).

Facebooktwittergoogle_pluslinkedinmail

Imperativo, fermare il Global Warming a tutti i costi? Ma quanto mi costi?

Posted by on 07:00 in Ambiente, Attualità | 11 comments

Imperativo, fermare il Global Warming a tutti i costi? Ma quanto mi costi?

L’argomento di oggi, il costo dei cambiamenti climatici, è uno spin off piuttosto “spinoso” della diatriba sul clima che cambia – dovrebbe cambiare – per cause antropiche. Non capita spesso che un argomento derivato diventi più popolare di ciò che lo ha originato, ma qui si parla di soldi, tanti, tantissimi soldi, più di quanto si possa immaginare e più di quanto il mondo intero si possa permettere, per cui non c’è da stupirsi se la questione scientifica sia stata letteralmente surclassata da quella economica. Non a caso, nelle adunate salva-pianeta che si ripetono ogni due per tre, ormai si parla solo di soldi, di risarcimento, di sostegno all’adattamento e, dulcis in fundo, perché lo scopo finale è quello, di redistribuzione del reddito globale, parola di uno dei capi dell’IPCC.

La questione economica, è ormai noto, ha preso la scena del dibattito ormai da un decennio, con la pubblicazione del Rapporto Stern, commissionato al Lord inglese da qualcuno che con i soldi pensava di saperci fare…la Lehman Brothers, che aveva evidentemente fiutato l’affare del secolo. Di lì a pochi mesi il committente fu protagonista del crack finanziario che ha messo in ginocchio il mondo intero ma, evidentemente, l’intuizione era giusta, perché da allora il “costo sociale del carbonio”, riassumibile nell’ammontare del costo economico dei danni che i cambiamenti climatici dovrebbero causare, è stato indagato in ogni sua forma. Come tutto ciò che viene sottoposto a massicce dosi di steroidi, ovviamente, è cresciuto ben oltre le pur catastrofiche previsioni di Stern, diventando una nuova disciplina scientifica. Naturalmente da fine del mondo.

Ora, la cosa più paradossale, ma dato che la fonte di tutto sarebbe una componente dell’aria forse così paradossale non è, è che a ben vedere si tratta veramente di aria fritta, di infinite discussioni sul nulla che, nella migliore tradizione del mondo moderno, muovono enormi preziosissime risorse senza avere un briciolo di fondamento, ove con questo si dovesse intendere – cosa forse ragionevole – che ci fosse un minimo di riscontro reale nelle proiezioni secolari.

Tra quelli che se ne intendono, questo costo si chiama SCC (Social Cost of Carbon), e fuziona così:

  1. Prendi un modello che simuli le emissioni per i prossimi 2 o 3 secoli;
  2. Poi innesta i risultati in un modello climatico di un pianeta che – nel modello – funziona a CO2;
  3. Poi dai una dimensione materiale ai danni che quel clima cambiato potrà infliggere al sistema tra 2 o 3 secoli;
  4. Poi attribuisci un costo a quei danni e riporta la somma all’attualità;
  5. Infine, assumendo che dividere quel costo per la somma delle emissioni sia logico, ovvero che sussista una relazione lineare tra le due grandezze, ecco che si capisce quale costo aggiunge al nostro futuro l’unità di emissioni, cioè la tonnellata di CO2.

Punto 1, il mondo di domani. Simulare le emissioni significa sapere come sarà il mondo tra trecento anni e attraverso quale percorso sarà arrivato a quella condizione. Significa chiedere a un rivoluzionario francese, a un indipendentista americano o, più semplicemente a un qualunque cittadino europeo vissuto prima della rivoluzione industriale, di sapere ad esempio cos’è e come funziona uno smartphone, di guardarsi seduto su un treno che va a 300 kmh le evoluzioni della sonda Rosetta o, magari, di racchiudere tutta la conoscenza del genere umano nello spazio di pochi metri disponendo solo di una carica elettrica accesa o spenta, che allora non si sapeva cosa fosse. Rispetto ad allora ne sappiamo di più? E’ vero, ma questo non ci ha avvicinati di un millimetro alla conoscenza del domani.

Punto 2, simulare il clima. Un sistema complesso, altamente non lineare, composto di tutto quello che c’è su questo pianeta e fuori da esso, terra, acqua, aria, fuoco, biosfera, litosfera e così via. Un sistema ad oggi predicibile in modo approssimativo per distanze temporali di pochi giorni, totalmente ignoto oltre un paio di settimane. Un sistema che senza inventare assunzioni al limite del ragionevole, non riusciamo a riprodurre neanche conoscendo il suo passato.

Punto 3, come cambierà il sistema nelle sue dinamiche. Dove sarà più freddo, caldo, secco, umido, ventoso e come questi cambiamenti influiranno sugli altri fattori?

Punto 4, quanto ci costerà? Consumeremo più energia? Avremo meno cibo? Saremo più organizzati? Saremo più o meno numerosi? Quanto saremo ancora in grado di produrre ciò che è necessario?

Punto 5, risparmiamo da ora. Visto che, notoriamente (ricordate Lehman Brothers?) sappiamo benissimo come funzionerà l’economia globale nei prossimi trecento anni, quel costo finale lo si può intendere direttamente come conseguenza di quello che facciamo ora. Quindi emettere/non emettere una tonnellata di CO2 ora, aggiunge/sottrae una somma al costo futuro ed è oggi un guadagno.

Ha senso tutto questo? No? Beh, sappiate che su questo ragionamento si basano le scelte di oggi. Su questi costi si fanno i conti, per esempio, della madre di tutte le soluzioni, la tassa sulla CO2 (che per molti aspetti già paghiamo sotto forma di aumentato costo dell’energia), le cui stime non a caso sono paragonabili a quelle del costo sociale della tonnellata di carbonio. Decisioni che, neanche a dirlo, sono condizionate dal fatto che il costo sociale del carbonio, in futuro, sarà certamente negativo.

Già perché a questa operazione manca un pezzo. Se volete potete considerarla anche un’innocente omissione. Nessuno pensa, o stima, che il global warming e i suoi derivati possano anche avere dei benefici. Del resto, con tutte le esternalità negative prospettate non c’è competizione… Andate qui se vi interessa una lista.

Ma c’èun altro paradosso: dalla rivoluzione industriale ad oggi, vale a dire da quando si emette CO2 e contemporaneamente è aumentata la temperatura del pianeta, da queste emissioni e da quel riscaldamento abbiamo tratto solo benefici. Il pianeta è più verde e produciamo più cibo, se solo vogliamo stare alla CO2, che di fatto nutre le piante. Ma grazie all’uso dei combustibili fossili, ossia alla disponibilità di grandi quantità di energia a basso costo, abbiamo fatto strade, ponti, ospedali, fabbriche, insomma progresso, ovviamente anche scientifico. Ora, avere tutto questo è o no un beneficio? E perché dovrebbe cessare in un futuro che non conosciamo?

A chi scrive, che ne sa sicuramente molto poco, non è dato capirlo. A qualcuno che calcolava l’impatto del global warming sul PIL globale per conto di una banca quotata tripla A fino al giorno prima di fallire, la questione è molto più chiara. Poi dicono che siamo noi meteorologi a usare la palla di vetro.

Facebooktwittergoogle_pluslinkedinmail

Dal fumetto al fumoso mondo del clima

Posted by on 07:00 in Attualità, Climatologia | 17 comments

Dal fumetto al fumoso mondo del clima

Scott Adams è uno che dice quello che pensa e quando lo fa ti lascia lì a pensare: perché non ci ho pensato? Beh, perché lui è l’autore di Dilibert, cosa non da poco ;-). Ed è anche uno a cui evidentemente capita di ragionare sulle cose e, incredibilmente, questo suo strano approccio alla realtà che ci circonda, lo ha portato a non essere proprio un acceso sostenitore del disastro climatico prossimo venturo.

Questo gli costerà rapidamente la gogna, sarà accusato di essere al soldo dei petrolieri e di aver fatto lobbying per le multinazionali del tabacco disegnando personaggi intenti a fumare. Ma c’è da star certi che la cosa non lo preoccupi più di tanto. E non importa che poi il suo non è scetticismo duro e puro, visto che dice (giustamente) di aver trovato argomenti convincenti da entrambe le parti in causa in materia di clima ma, in quanto non scienziato, di non essere in grado di capire chi abbia torto o ragione. Naturalmente sia scettici che credenti (eh, beh, chi crede è credente no?) sono convinti di aver ragione, però non riescono ad essere convincenti.

Ora, nel mondo della comunicazione globale, Adams non poteva esimersi dall’essere social, così, dal suo account twitter personale, ha lanciato una sfida piuttosto singolare. L’idea penso nasca dalla noiosissima e stucchevole diatriba sullo schiacciante consenso che pare riunisca ben il 97% di quanti si occupano della materia climatica circa il fatto che sì, siamo climaticamente spacciati. Da queste parti, nel nostro villaggio di Asterix, si pensa che le cose stiano in modo molto diverso, ma per una volta non tornerò su questo argomento. Veniamo piuttosto alla sfida di Adams.

Semplice: trovate uno scienziato, soltanto uno, che dica che i modelli di previsione sono credibili. In campo climatico ovviamente, ma se ci si riflette su va bene per tutti i campi in cui si cerca (o si è cercato) di simulare con successo il comportamento di sistemi complessi. Nel presentare la sua sfida, Adams chiede semplicemente un sì, sono credibili, oppure no, non lo sono. Nessuna discussione sulle misure, sui trend, sulle serie storiche, sulla teoria etc etc. Tutto molto più semplice: gli attuali modelli di previsione sono credibili?

La discussione che ne è nata è praticamente infinita, ma non ci sono risposte soddisfacenti. Sono apparse opinioni, grafici, evidenze varie, ma nessuno è andato al punto, almeno sin quando non mi sono stancato di leggere i retweet. Alla fine, non riuscendo ancora a districarsi, Adams dice che è andata così.

[…] sono sotto attacco su Twitter per essere un “negazionista climatico”. Perché sia chiaro, sto dalla parte del consenso degli scienziati climatici per il bene della mia carriera e della mia reputazione.

Geniale.

E lì fuori? C’è qualcuno che, senza tirar fuori argomenti a contorno e, ovviamente, senza ricorrere alla fede o alla speranza, sia convinto e riesca a dimostrare che i modelli di previsione climatica sono credibili?

Facebooktwittergoogle_pluslinkedinmail

Zanzare, malaria e DDT: note storiche su un caso di damnatio memoriae

Posted by on 14:00 in Ambiente, Attualità | 5 comments

Zanzare, malaria e DDT: note storiche su un caso di damnatio memoriae

Questo articolo è uscito in origine su Agrarian Sciences

Riassunto

In Italia alla fine delle seconda guerra mondiale la malaria stava tornado ad essere un problema sanitario rilevante a causa degli eventi bellici che avevano rese vane le misure di contenimento delle malattia attuate negli anni precedenti.In tali condizioni il DDT fu l’ideale complemento alle altre misure di sanità pubblica per ridurre in modo radicale la morbilità e mortalità da malaria, con mortalità che passa dai 35 morti per milione di abitanti del 1944 a zero morti del 1950. Gli ultimi casi di malaria furono registrati in Sicilia negli anni ’60 e nel 1970 l’Organizzazione Mondiale della Sanità dichiarò l’Italia ufficialmente libera dalla malaria.
I difetti (elevata persistenza negli esseri viventi, problemi di resistenza alla molecola insorti nelle zanzare anofele) e i pregi (costo contenuto, lunga persistenza dell’azione insetticida) del DDT sono evidenziati nell’articolo che tuttavia mette in guardia dalla damnatio memoriae di una molecola che ha avuto grandi meriti nell’eradicazione della malaria in Italia e in molti altri paesi del mondo.

Il DDT

Il DDT (para-diclorodifeniltricloroetano) è un clorurato organico la cui attività insetticida fu scoperta nel 1939 dal chimico svizzero Paul Hermann Muller, che per tale scoperta ricevette il premio Nobel per la medicina nel 1948. In quegli anni il DDT, in virtù del basso costo, dell’efficacia elevata, della limitata tossicità per l’uomo e dell’elevata persistenza dell’azione insetticida fu assunto dall’Organizzazione Mondiale della Sanità per i piani di eradicazione dei pidocchi, vettori del tifo petecchiale, e delle zanzare, vettrici di malaria e febbre gialla. Al DDT in primis si deve fra l’altro la sconfitta della malaria in Italia, ove la malattia era endemica da millenni e mieteva vittime a migliaia fra la popolazione.

Il 6 dicembre scorso, mentre lavavo i piatti e seguivo la trasmissione di RAI STORIA “Il tempo e la storia” sul tema “Sfollati italiani della seconda guerra mondiale” ho ascoltato la frase seguente che cito a memoria: “vi fu un’epidemia di tipo petecchiale e si fu costretti ad usare il DDT, un potente insetticida di cui allora si ignorava l’effetto cancerogeno.”Sentendo questa frase mi è tornata in mente una fredda primavera inglese che tardava ad arrivare e Winston Smith, impiegato presso gli uffici del Ministero della Verità con l’incarico di “correggere” i libri di storia e gli articoli di giornale già pubblicati, modificandoli in modo da renderli coerenti rispetto alla linea del Partito Esterno. Il paragone con l’incipit di “1984” di Orwell mi è sorto spontaneo perché in questi anni sui media è a mio avviso in atto una riscrittura della storia ad uso e consumo di una elite che non ha conservato alcuna memoria della miseria, dell’insicurezza alimentare, delle malattie che hanno angustiato le brevi e tavagliate vite dei nostri nonni. Questo atteggiamento culturale porta a creare un passato fittizio ad uso e consumo di tali elite e che con la realtà del nostro passato ha poco o nulla a che spartire. E’ proprio per combattere questa “pseudocultura del mulino bianco” che abbiamo oggi il dovere di conservare la memoria storica del nostro passato, dando il giusto valore ai pregi e ai limiti del progresso che ha avuto per teatro i Paesi europei negli ultimi 100 anni. Questa necessità di conservare memoria è in primo luogo un dovere per le generazioni più anziane, che oggi dovrebbero a mio avviso sentirsi motivate a trasmettere tale memoria a quelle più giovani le quali non hanno nella maggior parte dei casi i mezzi culturali per contrastare la pseudocultura di cui sopra.

La malaria

Malaria è un nome di origine italiana, il che la dice lunga sulla rilevanza storica che la malattia ebbe per il nostro Paese e deriva dal fatto che la malattia era tradizionalmente associata all’aria cattiva, in epoche in cui non si era ancora compreso il meccanismo causale delle malattia, la quale è provocata da protozoi del genere Plasmodium di cui le tre specie presenti nell’area del Mediterraneo sono P. falciparum (terzana maligna), P. vivax (terzana benigna o primaverile) e P. malariae (quartana). Come il protozoo infetta l’uomo grazie a vettori, le femmine ematofaghe di zanzare appartenenti al genere Anopheles[1], che a loro volta si infettano pungendo esseri umani malati, per cui in assenza di esseri umani infetti le zanzare anofele sono fastidiose per le loro punture ma del tutto incapaci di trasmettere la malattia. Circa l’epoca in cui la malaria si insediò nel Mediterraneo il dibattito è tutt’ora aperto e, se vi è concordanza sul fatto che la malattia era sicuramente presente nel primo millennio prima di Cristo e che con essa ebbero a che fare Etruschi, Greci e Romani, vari studiosi sostengono che la malattia si sarebbe insediata nel Mediterraneo addirittura nel neolitico. Su questi aspetti rimando alla trattazione di grande spessore storico svolta da Robert Sallares (1999).

I sintomi della malaria sono picchi intermittenti nella temperatura corporea, brividi, sudorazione violenta e attacchi di cefalea spesso accompagnati da vomito, diarrea e delirio. Nei casi più gravi si ha la morte dell’ammalato a seguito di coma, stress respiratorio acuto o anemia. Le donne in gravidanza sono soggette ad aborti, parti prematuri e a gravi emorragie. Anche nei casi più leggeri poi i malati possono subire menomazioni croniche (ingrossamento della milza, deperimento, anemia e mancanza di resistenza alla fatica (Medde, 2016). La malaria è tutt’ora un flagello in quanto rappresenta la più importante parassitosi e laseconda malattia infettiva al mondo per morbilità e mortalità dopo la tubercolosi, con oltre 2 miliardi di persone esposte al rischio di contrarla, oltre 200 milioni di nuovi casi clinici l’anno e 438.000 decessi all’anno (World Health Organization, 2015; voce Malaria in Wikipedia). Peraltro la maggior parte dei casi è oggi registrata nell’Africa sub-sahariana mentre zone un tempo a forte rischio (Tailandia, Cina, Brasile, Isole Salomone, Filippine, Vietnam) stanno di recente registrando ottimi risultati in termini di controllo (Majori, 2012).           La difesa dalla malaria è affidata da un lato a interventi volti a contenere le zanzare vettrici con mezzi chimici (insetticidi) o fisici (eliminazione delle aree acquitrinose e delle raccolte d’acqua favorevoli alla moltiplicazione delle zanzare) e dall’altro a combattere il protozoo presente nell’ospite umano.

Storia recente della lotta alla malaria in Italia

Per secoli la malaria ha infierito su vaste aree del nostro territorio nazionale condannandole a limitazioni allo sfruttamento agricolo ed a gravissimi ritardi nello sviluppo economico. Per questo la lotta alla malaria in Italia ha una lunghissima tradizione che ha probabilmente origine nelle opere di bonifica condotte da parte degli antichi Greci, Etrusci e Romani, opere che non sempre ebbero però l’effetto voluto, nel senso che la zanzara anofele predilige acque limpide e rifugge le acque putride obiettivo primario delle bonifiche. Inoltre l’anofele in estate riesce a sfarfallare anche quando le riserve idriche in cui le sue larve si sono sviluppate si sono ormai esaurite. Al riguardo non si può trascurare che il problema della malaria non fu mai completamente risolto come ci rammentano i demografi che ci narrano che in epoca augustea le zanzare si moltiplicavano a dismisura nelle pozze lasciate dalle piene del Tevere ed entravano contribuendo significativamente a ridurre la vita media a Roma, la più grande città del mondo antico (Sallares, 1999).

Si tenga conto poi che il caso italiano è tutt’altro che un unicum se si considera che fino al XIX secolo esistevano aree malariche in gran Bretagna (Cambridge) e in Svezia (Goteborg). Peraltro il fatto che nel periodo freddo della piccola era glaciale la malaria prosperasse tanto a Nord la dice lunga sul fatto che non è certo la fase di riscaldamento attuale ad impensierire qualora si manterranno idonee politiche sanitarie (Reiter, 2008).

In epoca postunitaria la malaria si rivelò il più grave problema di sanità pubblica d’Italia (Majori, 2012; Medda, 2016) come attesta la carta di Torelli del 1882 (figura 1) che illustra la vastissima diffusione territoriale del morbo, il quale alla fine del XIX secolo colpiva 2 milioni di persone l’anno causando dai 15 ai 20mila morti (Majori, 2012) ed impedendo la coltivazione di 2 milioni di ettari di fertili terreni di pianura. Si avviarono dunque iniziative di lotta basate in particolare sulla distribuzione gratuita delle pastiglie di chinino ad abitanti e lavoratori delle plaghe malariche; al riguardo si parlava di “Chinino di Stato” in quanto con una legge del 1901 era stato istituto il monopolio statale su produzione e commercio di tale farmaco.

Figura1–Carta della distribuzione della malaria in Italia realizzata dal senatore Torelli nel 1882. Le aree in grigio sono quelle con malaria lieve e grave e quella in rosso sono quelle con malaria gravissima.

Un ruolo chiave lo ebbe inoltre il superamento delle teorie precedenti e cioè della teoria dell’aria cattiva come causa del morbo (la malaria, appunto) e la teoria tellurica secondo cui la malaria era provocata da minutissimi microrganismi emessi dalle paludi. In particolare alla fine del secolo scorso lo zoologo dell’Università di Pavia Giovanni Battista Grassi scoprì il vettore (le zanzare della specie collettiva). Inoltre lo stesso Grassi, coadiuvato da Bignami e Bastianelli, tramite esprimenti condotti all’ospedale Santo Spirito di Roma scoprì le modalità con cui l’agente causale (Plasmodio) infetta l’uomo (Majori, 2012). Giova peraltro ricordare che Grassi non vincerà il premio Nobel perché il riconoscimento per la scoperta del ciclo della malattia sarà attribuito nel 1902 all’inglese Ross che al lavoro di Grassi si era ispirato per descrivere a sua volta il ciclo (Rubin, 2015). Grassi fu solo una delle punte di diamante di unascuola malariologia di assoluta rilevanza mondiale e che vide attivi personaggi comeCamillo Golgi, Angelo Celli, Ettore Marchiafava, Amico Bignami, Giuseppe Bastianelli,Alberto Messea, Alberto Missiroli e Alberto Coluzzi. L’attività di tale scuola è rievocata in modo molto efficace da Giancarlo Majori in un articolo del 2012 apparso sul Mediterranean journal of hematology and infectious diseases.

Alla recrudescenza registratasi con la prima guerra mondiale (allorché la malaria colpì duramente sia le popolazione civile sia i militari al fronte) seguì una nuova riduzione di morbilità e mortalità sia a seguito delle opere di bonifica integrale volute dal regime fascista e normate dalla legge Serpieri sia in virtù delle attività di lotta intraprese e che videro fin dal 1924 il contributo economico e scientifico della fondazione Rockefeller (Majori, 2012). Tali iniziative si basavano da un lato sull’uso di insetticidi larvicidi (in particolare l’acetoarsenito di rame o “verde di Parigi”, stante il fatto che il Piretro si era rivelato scarsamente efficace) e dall’altro sul contenimento del Plasmodio negli ospiti umani tramite l’uso massiccio e continuativo del chinino.

Il morbo ebbe poi una nuova recrudescenza con la seconda guerra mondiale anche perché i tedeschi in ritirata sabotarono le idrovore e allagarono intenzionalmente le zone di bonifica dell’agro pontino per rallentare l’avanzata degli alleati. In tale contesto sia durante la fase bellica che negli anni immediatamente successivi alla stessa, il DDT fu impiegato, su iniziativa degli americani supportata dalle nostre rinate strutture sanitarie, in vaste zone del territorio con un successo davvero entusiasmante, se si pensa che solo 113 casi di malaria furono registrati in Italia nel 1952, 19 nel 1953 e 15 nel 1954.

L’idea del successo della strategia adottata viene resa dal diagramma in figura 2 che illustra la mortalità da malaria dal 1887 (anno delle prime statistiche sul morbo) e il 1950 e dai diagrammi nelle figure 3 e 4 (Majori, 2012) che illustrano l’effetto risolutivo avuto dal DDT, il quale fu irrorato nelle abitazioni e nelle stalle per colpire le zanzare adulte mantenendo il suo effetto insetticida per parecchi mesi. In particolare si osservi che la figura 2 mostra che la mortalità passò dai 35 morti per milione di abitanti del 1944 agli zero morti del 1950. Tali risultati furono comunicati da Missiroli al convegno su medicina tropicale e malaria tenutosi a Washington e suscitarono unanime entusiasmo (Majori, 2012).

Figura 2 – Statistiche sulla mortalità da malaria in Italia dal 1887 al 1950 (diagramma riportato in Capocci, 2016).

Figura 3 – Casi di malaria registrati in provincia di Latina dal 1945 al 1949 (Majori, 2012).

Un caso a parte fu costituito dalla Sardegna ove fu testato un metodo che mirava all’eradicazione totale delle zanzare vettrici della malattia, il che ebbe luogo con un uso assai massiccio di insetticidi che tuttavia non produssero la totale scomparsa di Anopheles labranchia e dettero luogo in sostanza solo alla scomparsa delle malattia che si era del resto registrata nel resto del Paese (Majori, 2012).

Permanevano, comunque, alcuni portatori umani di gametociti, soprattutto in alcune zone della Sicilia e della Sardegna difficilmente raggiungibili dai servizi medici e che costituirono, negli anni ‘55-’60, il serbatoio per piccoli e circoscritti episodi epidemici: gli ultimi focolai epidemici si ebbero infatti nel 1956 in Sicilia, a Palma di Montechiaro con 78 casi (Talone, 2010) e ancora in Sicilia nel 1962 (Majori, 2012). Da allora in avanti gli unici casi registrati furono legati a persone che avevano contratto la malattia all’estero e a coronamento di tale successo l’organizzazione Mondiale della sanità dichiarò l’Italia ufficialmente libera da malaria nel 1970.

Il DDT, la sua tossicità e i fenomeni di resistenza

Vediamo cosa sta scritto nel sito http://www.nobelprize.org al riguardo di Paul Hermann Muller (la traduzione dall’inglese è mia): “Molte malattie gravi sono diffuse dagli insetti. Ad esempio, la malaria è diffusa dalle zanzare e il tifo è diffuso da pidocchi e le epidemie hanno buon gioco quando l’igiene è trascurata il che accade in particolare in occasione di guerre. Nel 1942 Paul Müller scoprì che il DDT era efficace nell’uccidere gli insetti e con l’aiuto di tale insetticida si poterono frenare la diffusione della malaria e le epidemie di tifo. Occorre tuttavia rammentare che il DDT ha conseguenze serie in quanto si concentra nelle catene alimentari producendo danni agli animali e all’uomo.”

Per chi voglia approfondire la tematica segnalo anche l’articolo di Boom “How Poisonous is DDT?” (2016), che oltre descrivere la campagna di demonizzazione fatta ai danni di tale prodotto negli ultimi decenni, evidenzia che:

  • la tossicità acuta dello stesso è paragonabile a quella dell’aspirina e della cafferina che oggi tutti noi consumiamo senza grosse remore
  • la sua cancerogenicità non è mai stata dimostrata nonostante in tale ambito la ricerca sia stata molto approfondita
  • il vero problema, in virtù del quale i clorurati organici come il DDT sono stati da tempo eliminati dal novero dei prodotti insetticidi nella maggior parte dei paesi del mondo, è l’elevata capacità di accumularsi e di persistere molto a lungo nei tessuti adiposi, per cui ad esempio nell’organismo umano la metavita (tempo in cui il quantitativo ingerito si dimezza) e di ben 10 anni, contro i 20 minuti dell’Aspirina. A ciò si aggiunga il fatto che molte specie da anofele, fra cui ad esempio Anopheles gambiae che è oggi vettore della malaria soprattutto nell’Africa sub-sahariana (Gilioli e Mariani, 2011), hanno sovente sviluppato forme di resistenza al DDT, anche a seguito dell’ampio uso di tale molecola come fitofarmaco in agricoltura, il che lo ha reso in molti casi un’arma spuntata (McGinn, 2003; Majori, 2012).

Conclusioni

In sintesi dunque, nonostante oggi esistano insetticidi che superano il problema di bio-accumulo proprio del DDT ed i problemi di resistenza alla molecola insorti nelle zanzare anofele ma che spesso non presentano i vantaggi che decretarono il successo di tale molecola (costo contenuto, lunga persistenza dell’azione insetticida), penso che la damnatio memoriaecui viene sottoposto il DDT  non sia corretta sul piano storico alla luce dei grandi meriti che esso ebbe nella lotta alla malaria, che fino agli anni 50 produceva un numero elevato di vittime anche in Europa e in Italia. In particolare spacciarlo oggi in modo falso per prodotto molto tossico o addirittura cancerogeno è contrario alla verità ed impedisce di valutare anche in via teorica la possibilità di un suo impegno a fronte di epidemie di malaria importanti e non contenibili con altri mezzi.

[1] In Italia la trasmissione è affidata soprattutto ad Anopheles labranchiae e a A. sacharovi mentre nel Nord Europa dominaA. atroparvus. Queste tre specie afferiscono alla specie collettiva Anopheles maculipennis.

Bibliografia

  • Boom J., 2016. How Poisonous is DDT? http://acsh.org/news/2016/02/11/how-poisonous-is-ddt
  • Capocci M., 2016. Storia Della Malaria – slides uniroma1 (https://elearning2.uniroma1.it/pluginfile.php/362579/mod_resource/content/0/STORIA%20DELLA%20MALARIA.pdf)
  • Gilioli G., Mariani L., 2011. Sensitivity of Anopheles gambiae population dynamics to meteo-hydrological variability: a mechanistic approach, Malaria Journal, 2011, 10:294, http://www.malariajournal.com/content/10/1/294
  • Majori G., 2012. Short History of Malaria and Its Eradication Italy. With Short Notes on the Fight Against the Infection in the Mediterranean basin, Mediterranean journal of hematology and infectious diseases, www.mjhid.org ISSN 2035-3006
  • McGinn A.P., 2003. Malaria, mosquitoes and DDT, the toxic war against a global disease, www.worldwatch.org/system/files/EP153A.pdf
  • Medde V., La lotta lunga ottant’anni contro la malaria in Italia, in Iconur, http://www.iconur.it/storia-degli-uomini/24-i-la-lotta-lunga-ottant-anni-contro-la-malaria-in-italia
  • Reiter P., 2008. Review – global warming and malaria: knowing the horse before hitching the cart. Malaria J 2008, 7(Suppl 1):S3, http://www.malariajournal.com/content/7/S1/S3
  • Rubin A., 2015. Le zanzare, la malaria e la storia del Nobel conteso, https://oggiscienza.it/2015/10/16/zanzare-malaria-nobel-contestazione/
  • Sallares R., 1999. Malattie e demografia nel Lazio e in Toscana nell’antichità, Demografia, sistemi agrari, regimi alimentari nel mondo antico, Atti del Convegno Internazionale di Studi (Parma, 17-19 ottobre 1997), a cura di Domenico Vera, EDIPUGLIA, 131-188.
  • Talone C., 2010. Cenni storici sulla campagna di eradicazione della malaria in Italia, in Cesmet – Clinica del viaggiatore, http://www.cesmet.com/it/cenni-storici-sulla-campagna-di-eradicazione-della-malaria-in-italia World Health Organization, World Malaria Day 2015, WHO, 25 aprile 2015.
Facebooktwittergoogle_pluslinkedinmail

Un Mese di Meteo – Novembre 2016

Posted by on 07:00 in Attualità, Climatologia, Meteorologia | 1 comment

Un Mese di Meteo – Novembre 2016

IL MESE DI NOVEMBRE 2016[1]

Mese caratterizzato da condizioni autunnali con piovosità abbondante e massimi raggiunti su Piemonte meridionale, Liguria e Calabria. Temperature nella norma nei minimi e con lievi anomalie positive nei massimi.

La carta media mensile del livello di pressione di 850 hPa (figura 5a) mostra l’anticiclone delle Azzorre molto arretrato in Atlantico (lettera A in basso a sinistra) e l’area italiana interessata da un regime di correnti occidentali a debole curvatura ciclonica, sintomo della variabilità perturbata che ha predominato per la maggior parte del mese.

Figura 5a – 850 hPa – Topografia media mensile del livello di pressione di 850 hPa (in media 1.5 km di quota). Le frecce inserire danno un’idea orientativa della direzione e del verso del flusso, di cui considerano la sola componente geostrofica. Le eventuali linee rosse sono gli assi di saccature e di promontori anticiclonici.

La carta delle isoanomale (figura 5b) mostra un nucleo principale di anomalia negativa sul Mediterraneo Occidentale e la penisola iberica connesso ad un nucleo secondario centrato sulle repubbliche baltiche e la Russia Occidentale.

Figura 5b – Isoanomale della pressione al suolo – Carta delle isoanomale medie mensili della pressione al suolo. Con N e P sono indicati rispettivamente i nuclei di anomalia negativa e positiva.

In complesso il mese si è contraddistinto per il passaggio di un totale di 6 perturbazioni intervallate da brevi fasi di tempo stabile. Le precipitazioni si sono soprattutto concentrate nella terza decade del mese allorché hanno innescato eventi alluvionali su Piemonte meridionale, Liguria e Calabria.

Tabella 1 – Sintesi delle strutture circolatorie del mese a 850 hPa (il termine perturbazione sta ad indicare saccature atlantiche o depressioni mediterranee (minimi di cut-off) o ancora fasi in cui la nostra area è interessata da correnti occidentali con variabilità perturbata).
Giorni del mese Fenomeno
1-4 novembre l’anticlone che il 31 ottobre si è affermato sull’intera area italiana è in via di cedimento sotto la spinta di correnti di aria artica da nordovest che si affermano nei giorni 2 e 3 occidentalizzandosi dal 4 novembre.
5-9 novembre Transito di una saccatura atlantica da ovest (perturbazione n. 1) con tempo perturbato sul centro-nord fra sabato 5 e domenica 6 novembre. La perturbazione influenza poi il meridione peninsulare e la Sicilia con attività temporalesca fra il 7 e il 9 novembre.
10 novembre Regime di correnti da nordovest.
11-12 novembre Una saccatura interessa il settentrione isolando un minimo di cutoff sulla Valpadana che si porta sul settore adriatico il giorno 13 per poi dirigersi versi i Balcani abbandonando la nostra area (perturbazione n. 2).
13 novembre Sull’Italia campo di pressioni livellate con tempo stabile su tutta l’area.
14-20 novembre Una depressione africana si muove lentamente verso levante interessando meridione peninsulare e Sicilia (perturbazione n. 3). Sul settentrione transitano veloci saccature collegate al flusso perturbato atlantico che domina a nord delle Alpi (perturbazione n. 4)
21-25 novembre Un grande saccatura atlantica si approssima da ovest all’area italiana interessando dapprima il settentrione e poi le regioni del centro-sud (perturbazione n. 5)
26-27 novembre Sull’Italia campo di pressioni livellate con instabilità residua sullo Ionio
28-29 novembre Sistema di blocco a S rovesciata con alta pressione sulle isole britanniche e saccatura da est-nordest che interessa l’area italiana (perturbazione n. 6)
30 novembre Un blocco omega esteso dall’Africa del nordovest verso le isole britanniche interessa l’area italiana con generali condizioni di tempo stabile.

Andamento termo-pluviometrico

Le temperature massime mensili (figura 1) si sono mantenute nella norma salvo lievi anomalie positive sulla Sardegna. Lievi anomalie positive hanno invece caratterizzato le temperature minime (figura 2). Per le temperature decadali (tabella 2) il tratto più saliente è la debole o moderata anomalia positiva che ha caratterizzato la terza decade sia nelle minime sia nella massime, sintomo del prevalere di masse d’aria subtropicali in coincidenza con la fase di tempo più intensamente perturbata. Si noti inoltre la debole anomalia negativa delle temperature massime al nord nelle prime due decadi.

Figura 1 – TX_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle massime del mese

Figura 2 – TN_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle minime del mese

Le precipitazioni (figura 3) sono risultate più abbondanti su Piemonte, Liguria e Calabria. La carta delle anomalie pluviometriche (figura 4) evidenzia una rilevante anomalia positiva sul Nordovest e sulla Calabria mentre anomalie positive o negative a carattere locale interessano il resto del territorio.

Figura 3 – RR_mese – Carta delle precipitazioni totali del mese (mm)

Figura 4 – RR_anom – Carta dell’anomalia (scostamento percentuale rispetto alla norma) delle precipitazioni totali del mese (es: 100% indica che le precipitazioni sono il doppio rispetto alla norma).

A livello decadale (tabella 2) spicca la sensibile anomalia positiva al Nord nella terza decade del mese.

Tabella 2 – Analisi decadale e mensile di sintesi per macroaree – Temperature e precipitazioni al Nord, Centro e Sud Italia con valori medi e anomalie (*).

(*) LEGENDA:

Tx sta per temperatura massima (°C), tn per temperatura minima (°C) e rr per precipitazione (mm). Per anomalia si intende la differenza fra il valore del 2013 ed il valore medio del periodo 1988-2015.

Le medie e le anomalie sono riferite alle 202 stazioni della rete sinottica internazionale (GTS) e provenienti dai dataset NOAA-GSOD. Per Nord si intendono le stazioni a latitudine superiore a 44.00°, per Centro quelle fra 43.59° e 41.00° e per Sud quelle a latitudine inferiore a 41.00°. Le anomalie termiche sono evidenziate con i colori (giallo o rosso per anomalie positive rispettivamente fra 1 e 2°C e oltre 2°C; azzurro o blu per anomalie negative rispettivamente fra 1 e 2°C e oltre 2°C) . Analogamente le anomalie pluviometriche percentuali sono evidenziate con i colori ( azzurro o blu per anomalie positive rispettivamente fra il 25 ed il 75% e oltre il 75%; giallo o rosso per anomalie negative rispettivamente fra il 25 ed il 75% e oltre il 75%) .

[1]              Questo commento è stato condotto con riferimento alla  normale climatica 1988-2015 ottenuta analizzando i dati del dataset internazionale NOAA-GSOD  (http://www1.ncdc.noaa.gov/pub/data/gsod/). Da tale banca dati sono stati attinti anche i dati del periodo in esame. L’analisi circolatoria è riferita a dati NOAA NCEP (http://www.esrl.noaa.gov/psd/data/histdata/). Come carte circolatorie di riferimento si sono utilizzate le topografie del livello barico di 850 hPa in quanto tale livello è molto efficace nell’esprimere l’effetto orografico di Alpi e Appennini sulla circolazione sinottica.

 

 

Facebooktwittergoogle_pluslinkedinmail

Se ne ammazza molti più il freddo che il caldo

Posted by on 07:00 in Ambiente, Attualità | 4 comments

Se ne ammazza molti più il freddo che il caldo

Genesi e motivi di uno scoop a scoppio ritardato

È l’inverno la stagione più letale: uccide 20 volte più dei colpi di calore – Le basse temperature favoriscono ictus e infarti e stare in luoghi chiusi avvantaggia la possibilità di trasmissione di virus e batteri che portano a influenza e polmoniti”. Così titolava il 16 dicembre 2016 il Correre della Sera in un articolo a firma Silvia Turin.

Da dove venga la notizia pubblicata dal Corrierone ce lo chiarisce un articolo a firma di Antonella Petris uscito su meteoweb  il 20 dicembre 2016 e in cui si scrive fra l’altro che:  “con l’inverno e l’arrivo del freddo inizia il periodo più pesante, in cui la probabilità di morire è 20 volte maggiore rispetto ai giorni di grande caldo. Lo afferma, ricorda il New York Times, uno studio condotto in 13 paesi del mondo tra cui l’Italia, pubblicato dalla rivista Lancet, secondo cui gli aspetti più pericolosi non sono tanto i giorni di picco negativo della temperatura, quanto i periodi prolungati di temperature un po’ sotto la media”.

La notizia è interessante perché attinge ad un articolo del 2015 a firma di Gasparrini et al. uscito sull’autorevole rivista Lancet e che su CM a fine 2015 commentammo come segue nel documento  “Nullius in verba”:

A livello globale la mortalità nella popolazione da eventi termici estremi è nettamente più spiccata per il freddo che per il caldo. Uno studio a livello globale condotto da Gasparrini et al. (2015) e pubblicato su Lancet giunge alla seguente conclusione: ” La maggior parte del carico di mortalità globale correlato alla temperatura è riconducibile al contributo di freddo. Questo dato di fatto ha importanti implicazioni per la progettazione di interventi di sanità pubblica volti a ridurre al minimo le conseguenze sulla salute di temperature negative, e per le previsioni di effetti futuri degli scenari del cambiamento climatico.”. In sostanza l’aumento delle temperature globali si sta traducendo in una diminuzione della mortalità da eventi termici estremi che è evidenziata per l’Europa (Healy, 2003) e per gli USA. Ciò non toglie che non si debba prestare attenzione ad evitare la mortalità da caldo, soprattutto per quel che riguarda gli areali urbani, il cui disagio termico è tuttavia ascrivibile a fattori di carattere locale quali l’isola di calore urbano.

Quale lezione da questo scoop a scoppio ritardato

Segnalo il curioso “scoop a scoppio ritardato” perché ci aiuta forse a capire qualcosa in più sui meccanismi dell’informazione nel regime in cui oggi abbiamo la ventura di vivere e in relazione ai quali azzardo la seguente ipotesi: pur trattandosi di una notizia ghiottissima anche perché una volta tanto mette in luce un aspetto positivo del global warming (il che, da un pubblico ormai insofferente ai continui annunci di catastrofe, è visto un po’ come il caso del “padrone che morde il cane”) , esce solo oggi in quanto non dà ombra ai COP di Parigi e Marrakech; altrimenti, state tranquilli, oggi saremmo qui a parlare dei pinguini morti di caldo in Antartide ove, scoop degli scoop, pare sia scoppiata l’estate.

Tutto questo mostra a mio avviso l’utilità di un’iniziativa, quella di Nullius in verba , di cui pubblicheremo una versione aggiornata nei primi mesi del 2017 ed il cui spirito è riassunto nella premessa alla prima edizione, che riportiamo qui di seguito:

“Nullius in verba”[1] (o, se si preferisce, “stiamo ai dati e lasciamo da parte gli artifici retorici, alias slogan”) è il motto della celeberrima associazione scientifica britannica Royal Society (https://it.wikipedia.org/wiki/Royal_Society), la quale fin dalla sua fondazione, avvenuta il 28 novembre 1660 per iniziativa di John Evelyn, ha lo scopo di promuovere l’eccellenza scientifica per il benessere della società.

Questo motto è tornato alla mente mentre a margine delle trattative del COP21 di Parigi assistevamo alla messa in onda sui principali mezzi di comunicazione nazionali ed internazionali di una “fine del mondo prossima ventura” fatta di mari che salgono, deserti che avanzano, ghiacci che fondono, ondate di caldo inarrestabili e bombe d’acqua.

Di fronte a tale alluvione retorica non basta limitarsi ad attendere che la stessa si esaurisca. Pertanto noi di Climatemonitor abbiamo ritenuto necessario redigere un “Appello alla ragione” ponendo una serie di paletti basati su letteratura scientifica recente e che ci pare necessario richiamare al fine di ristabilire l’“Est modus in rebus” cui ci richiamava Orazio (Satire 1, 1, 106-107), evitando che sia la spinta emotiva a condizionare decisioni che dovrebbero essere assunte su base razionale e cioè a partire da dati di buona qualità interpretati in modo equilibrato.

Partendo pertanto dall’idea che il cambiamento è una delle caratteristiche strutturali più profonde del sistema climatico terrestre, obiettivo finale del documento è da un lato quello di discutere i cambiamenti climatici degli ultimi due secoli e dall’altro quello di discuterne gli effetti ecosistemici. Per tale ragione il documento è organizzato per aree tematiche costituite da anidride carbonica, temperature globali, eventi estremi, mortalità, agricoltura ed ecosistemi naturali.

[1] La frase “Nullius in verba” è tratta da una delle Epistole di Orazio e più precisamente da un passaggio in cui l’autore si paragona a un gladiatore che, essendosi ritirato dalle arene, è libero dal controllo di qualsiasi padrone. Queste sono le parole nel contesto originale: “Nullius addictus iurare in verba magistri, quo me cumque rapit tempestas, deferor hospes“.

Related Posts Plugin for WordPress, Blogger...Facebooktwittergoogle_pluslinkedinmail