Climate Lab – Fatti e Dati in Materia di Clima

Tra la fine del 2015 e l’inizio del 2016, poco dopo la fine della COP21 di Parigi, abbiamo messo a punto un documento pubblicato nella sua interezza (e scaricabile qui in vari formati) con il titolo “Nullius in Verba, fatti e dati in materia di clima”. L’idea è nata dall’esigenza di far chiarezza, ove possibile e nei limiti dell’attuale conoscenza e letteratura disponibili, in un settore dove l’informazione sembra si possa fare solo per proclami, quasi sempre catastrofici.

Un post però, per quanto approfondito e per quanto sempre disponibile per la lettura, soffre dei difetti di tutte le cose pubblicate nel flusso del blog, cioè, invecchia in fretta. Per tener vivo un argomento, è invece necessario aggiornarlo di continuo, espanderlo, dibatterle, ove necessario, anche cambiarlo. Così è nato Climate Lab, un insieme di pagine raggiungibile anche da un widget in home page e dal menù principale del blog. Ad ognuna di queste pagine, che potranno e dovranno crescere di volume e di numero, sarà dedicato inizialmente uno dei temi affrontati nel post originario. Il tempo poi, e la disponibilità di quanti animano la nostra piccola comunità, ci diranno dove andare.

Tutto questo, per mettere a disposizione dei lettori un punto di riferimento dove andare a cercare un chiarimento, una spiegazione o l’ultimo aggiornamento sugli argomenti salienti del mondo del clima. Qui sotto, quindi, l’elenco delle pagine di Climate Lab, buona lettura.

  • Effetti Ecosistemici
    • Ghiacciai artici e antartici
    • Ghiacciai montani
    • Mortalità da eventi termici estremi
    • Mortalità da disastri naturali
    • Livello degli oceani
    • Acidificazione degli oceani
    • Produzione di cibo
    • Global greening

____________________________________

Contenuti a cura di Luigi Mariani e revisionati in base ai commenti emersi in sede di discussione e per i quali si ringraziano: Donato Barone, Uberto Crescenti, Alberto Ferrari, Gianluca Fusillo, Gianluca Alimonti, Ernesto Pedrocchi, Guido Guidi, Carlo Lombardi, Enzo Pennetta, Sergio Pinna e Franco Zavatti.

Il freddo che viene dal Sole

Posted by on 09:05 in Attualità, Climatologia, Meteorologia, Sole | 0 comments

Il freddo che viene dal Sole

Lo so lo so, il titolo, come spesso mi capita è a metà tra l’essere criptico e non significare un accidente, ma forse con le righe che seguono riuscirò anche a dargli un significato.

Dunque, l’emisfero nord sta uscendo con non poca fatica da un inverno piuttosto serio. Non che ce ne siano stati di comici per la verità, ma è un fatto che sull’America del Nord prima e sull’Eurasia poi, a partire dai primi di gennaio ci siano state notevoli incursioni di aria molto fredda, con tutte le conseguenze del caso.

Ora, su queste pagine abbiamo spesso scherzato sul “freddo che viene dal caldo”, ossia sulle spiegazione piuttosto sbrigativa in chiave climate change che vorrebbe associare queste irruzioni di aria fredda ad una più accentuata ondulazione della corrente a getto polare, a sua volta generata da un rallentamento della corrente stessa, a sua volta attribuibile al riscaldamento globale. Questa spiegazione non sembra essere molto ben supportata dai dati, non certo con riferimento al trend della temperatura globale, quanto piuttosto con riferimento alla posizione e alla velocità del getto. Né d’altronde sono oggi disponibili serie robuste su quelle che vengono definite configurazioni di blocco, ossia appunto ondulazioni del getto talmente accentuate da assumere la caratteristica di onde atmosferiche quasi stazionarie.

Sempre su questo tema, ci sono studi recenti che in effetti individuano un nesso di causalità tra il riscaldamento dell’area artica e la frequenza delle discese di aria fredda verso le medie latitudini dell’emisfero nord. Anche in questo caso tuttavia, la spiegazione fornite regge in alcune situazioni e in altre no, quindi come spesso accade la materia necessita ancora di approfondimento.

Il paper di cui vi propongo la lettura oggi, però, potrebbe potrebbe fornire al contempo una chiave di lettura un po’ diversa e un anello di congiunzione tra l ipotesi appena descritte.

Si tratta di uno studio davvero interessante (tra l’altro liberamente accessibile), che mette in relazione le oscillazioni dell’attività solare, in termini di numero di macchie solari e quindi di ciclo quasi undecennale della nostra stella, con il clima dell’area artica.  Quest’ultimo, piaccia o no, è un osservato speciale del dibattito sul clima, perché si riflette sull’estensione del ghiaccio marino e quindi anche sul bilancio radiativo attraverso il feedback dell’albedo.

Solar cyclic variability can modulate winter Arctic climate

Abstract

This study investigates the role of the eleven-year solar cycle on the Arctic climate during 1979–2016. It reveals that during those years, when the winter solar sunspot number (SSN) falls below 1.35 standard deviations (or mean value), the Arctic warming extends from the lower troposphere to high up in the upper stratosphere and vice versa when SSN is above. The warming in the atmospheric column reflects an easterly zonal wind anomaly consistent with warm air and positive geopotential height anomalies for years with minimum SSN and vice versa for the maximum. Despite the inherent limitations of statistical techniques, three different methods – Compositing, Multiple Linear Regression and Correlation – all point to a similar modulating influence of the sun on winter Arctic climate via the pathway of Arctic Oscillation. Presenting schematics, it discusses the mechanisms of how solar cycle variability influences the Arctic climate involving the stratospheric route. Compositing also detects an opposite solar signature on Eurasian snow-cover, which is a cooling during Minimum years, while warming in maximum. It is hypothesized that the reduction of ice in the Arctic and a growth in Eurasia, in recent winters, may in part, be a result of the current weaker solar cycle.

Oltre a quelli che si intuiscono già dall’abstract, l’articolo offre spunti interessanti anche in materia di propagazione verticale delle anomalie sia termiche che del campo di massa lungo tutta la colonna atmosferica dell’area artica, quindi coinvolgendo ovviamente il vortice polare, altro osservato speciale in materia atmosferica perché direttamente responsabile delle oscillazioni interannuali del carattere della stagione invernale.

Per esempio (neretto aggiunto):

In summary, for solar Min years, the warm air column is associated with positive geopotential height anomalies and an easterly wind, which reverses during Max years. Such NAM feature is clearly evident supporting the hypothesis of communicating a solar signal to Arctic via winter NAM.

Il NAM (Northern Annular Mode), è un’indice riferito a tutta la colonna d’aria  e atutta la circonferenza della zona polare e fornisce informazioni sulla velocità delle correnti zonali, quindi anche sulle ondulazioni del getto, quindi infine sulla distribuzione della massa atmosferica.

Insomma, alla fine probabilmente un senso al titolo l’abbiamo dato. Ora, se volete dare un senso alla giornata (e avete tempo) è ora di leggere il paper.

Enjoy.

Facebooktwittergoogle_pluslinkedinmail

Biomassa e Ciclo del Carbonio, ora arriva anche Science a dare lo stop

Posted by on 12:57 in Attualità, Climatologia, Energia | 25 comments

Biomassa e Ciclo del Carbonio, ora arriva anche Science a dare lo stop

Poco meno di un mese fa, abbiamo ospitato un post di Gianluca Piovesan che ha messo l’accento su come quando non si conosce bene la malattia (ammesso che ce ne sia una) le cure somministrate al paziente fanno più danno che guadagno.

Quando la cura accelera la malattia: le biomasse forestali utilizzate a fini energetici non sono neutrali nel ciclo del carbonio! – CM 27 febbraio 2018

Il malato nella fattispecie sarebbe il clima, e la cura, sposata con grande entusiasmo dalle policy climatiche, è la sostituzione delle fonti fossili con quelle vegetali per la generazione di energia.

Vi invito perciò a leggere un articolo appena uscito su Science dal titolo un po’ interlocutorio ma dai contenuti estremamente chiari: bruciare biomassa produce più CO2 di quanta non ne vorrebbe eliminare e, in aggiunta, reca anche danno alla biodiversità.

Are wood pellets a green fuel?

Sommario

James Watt’s steam engine vaulted coal to its major role as a fuel for the Industrial Revolution. Today, about 40% of the world’s electricity is generated in coal-fired power plants, consuming more than 80% of the coal mined each year. Because combustion of coal produces carbon dioxide (CO2) and other air pollutants, efforts to combat climate change have now turned to seeking alternatives to coal. Natural gas is cleaner and less expensive but, like coal, returns fossil carbon to the atmosphere. Recently, attention has focused on woody biomass—a return to firewood—to generate electricity. Trees remove CO2 from the atmosphere, and burning wood returns it. But recent evidence shows that the use of wood as fuel is likely to result in net CO2 emissions and may endanger forest biodiversity.

Per avere un’idea di come spesso le policy climatiche mascherino inoltre interessi economici da capogiro, vi basti sapere che negli ultimi anni sono la UE, che ha dichiarato invece l’uso delle biomasse neutrale nel ciclo del carbonio ed assegna ad esse un ruolo determinante per il raggiungimento degli obbiettivi di riduzione delle emissioni del 2020, ha importato dall’America ben 7 milioni di metri cubi all’anno di pellets e, per non perdere la partita, gli USA potrebbero a breve dichiarare anch’essi l’uso delle biomasse neutrale nel ciclo del carbonio.

Quale il giudizio espresso in questo articolo di Science?

[…] it makes no sense to have Europeans embracing wood pellets as carbon neutral, thereby overlooking the CO2 emitted during shipment and the losses of carbon stock from forests harvested outside Europe. This is another example of exporting CO2 emissions beyond the border.

Meditate gente, meditate…

Facebooktwittergoogle_pluslinkedinmail

Influenza solare sul Nord Atlantico: alcuni commenti

Posted by on 07:00 in Attualità, Climatologia | 8 comments

Influenza solare sul Nord Atlantico: alcuni commenti

Riassunto: Commento la tendenza ad eliminare l’influenza solare sul clima terreste, considerando le ciclicità derivate dagli spettri dei dataset climatici come frutto di combinazioni inattendibili di fattori “altri” rispetto al Sole. Come sempre, non trovo appropriati gli aspetti più estremi di questo genere di diatribe.

Premessa
Fra il 13 e il 15 marzo 2018 sono apparsi su WUWT due articoli che riflettono la lotta che si è generata su quel sito tra i cosiddetti “ciclisti”, coloro che credono nelle ciclicità derivate dagli spettri di innumerevoli dataset disponibili, e cercano di interpretarle, e coloro che ritengono queste periodicità poco più (o anche poco meno) che artefatti generati dal trattamento dei dati, come ad esempio l’uso di dati detti “stacked”, cioè la media di più serie, o la scelta selettiva di particolari sezioni dei dataset) o dall’uso di questa o quella tecnica di analisi spettrale (di questi tempi vanno molto di moda le tecniche che permettono di osservare l’evoluzione temporale dei picchi spettrali, tipo wavelet o CEEMD che spesso vengono contrapposte a tecniche “statiche” tipo Mem, Lomb-Scargle, MTM).

Personalmente, come i lettori di CM sanno anche troppo bene, ho prodotto e continuo a produrre spettri (Mem e Lomb, ma anche MTM, Redfit, Wavelets) di ogni dataset climatico con cui ho a che fare, proponendo per i massimi spettrali interpretazioni legate alla circolazione atmosferica e marina e ad influenze esterne legate al sistema solare e a fenomeni galattici come i raggi cosmici. In questo seguo con interesse i lavori di Nicola Scafetta (anche lui oggetto della suddetta guerra) con i cui spettri mi sono confrontato all’inizio per verificare la bontà dei miei risultati. Mi considero quindi un “ciclista”, ma con il tempo ho acquisito una specie di riluttanza alla scelta dei massimi “significativi” secondo criteri dettati da livelli di significatività che ritengo in buona parte arbitrari. Infatti gli spettri variano spesso in ampiezza (o potenza) e definire la “realtà” di un massimo spettrale in base all’altezza del picco (in quel momento) mi sembra riduttivo. Preferisco definire la presenza di un massimo in base alla sua frequenza di apparizione in più dataset o in più osservazioni dello stesso dataset. Quindi “ciclista” sì, ma un po’ strano. Poi non gradisco filtrare i dati, normalizzarli, standardizzarli, riempiere i loro “buchi”, ecc. prima di calcolarne lo spettro: e quindi ancora più strano nel panorama attuale.

Tornando al discorso, Javier ha pubblicato un articolo su WUWT in cui deriva e propone varie ciclicità legate al Sole, in particolare il ciclo di Eddy di circa 960 anni, e in generale la relazione tra clima e variabilità solare.
Prontamente, nel giro di due giorni, Javier viene attaccato da Willis Eschenbach (campione anticiclista, insieme a Leif Svaalgard) che si propone di smontare la presunta influenza solare, utilizzando la CEEMD e mostrando come i massimi spettrali siano un artefatto dell’uso dei dati “stacked” (medie su 4 dataset). Mostra che usando i 4 dataset separatamente il massimo di circa 960 anni scompare o almeno si distribuisce su un arco temporale di circa 1000-1500 anni, diventando di fatto inesistente. E poi fa notare che i massimi indicati da Javier (e anche altri) esistono solo in particolari periodi dell’Olocene e non in altri, sottolineando questo aspetto come se avesse qualche particolare significato (che per me è sconosciuto). Il carattere “ruvido” di Eschenbach lo ha poi portato a considerazioni personali nei confronti di Javier (perchè usa uno pseudonimo e non il suo vero nome) francamente poco apprezzabili.

Analisi spettrale delle 4 serie di Bond et al., 2001
Non tutto ciò che scrive Eschenbach mi sembra sbagliato: anche per me l’uso della media dei 4 dataset disponibili genera confusione e andrebbe evitato. Infatti propongo di seguito l’analisi delle 4 serie separatamente.

Ma anche ciò che scrive Javier, in particolare la sua figura 2 e le conseguenze che se ne possono trarre, non mi trova d’accordo. Circa un anno fa avevo analizzato i carotaggi provenienti dalla grotta di Dongge che coprono un periodo di circa 340 mila anni (tra 300 e 640 ka) e che sembrano interessanti per le ciclicità di lungo periodo, meno per quelle attorno a 1000-1500 anni. La figura 2 di Javier mostra uno spettro Lomb molto pulito, che sembra il risultato di processi di smussamento (usa i dati stacked) e/o di selezione di una particolare parte del dataset. Per confronto, la figura 1 (pdf) presenta la parte finale del mio spettro Lomb calcolato su tutta l’estensione temporale e sul dataset più esteso (SB-14).

Fig.1: Spettro Lomb del dataset SB-14 della grotta di Dongge (Cina). Viene mostrata la parte finale, tra i periodi 350 e 2200 anni. La linea rossa è un filtro su 10 punti dello spettro in grigio chiaro.

Non mi sembra che tra 900 e 1500 anni sia possibile identificare qualche massimo spettrale, in particolare quelli indicati da Javier. Non ho graficato gli spettri degli altri dataset disponibili per Dongge ma essendo più brevi di questo si configurano come un possibile cherry picking.

Anche Debret et al., 2007 si rifà ai dati pubblicati da Bond et al., 2001, in particolare nella figura 2 che riproduco sotto.

Fig.2: Figura 2 di Debret et a., 2007, in cui si mostrano nella parte sinistra gli spettri dei dati di Bond et al., 2001 ottenuti da varie tecniche.

Qui Debret mostra l’esistenza dei massimi di circa 950 anni e di, forse, 1500 anni; quest’ultimo appare molto più vago dell’altro considerando anche la presenza di picchi superiori a 2400 anni che poco hanno a che fare con 1500 anni.

Di seguito, l’analisi spettrale di una delle serie di Bond et al., 2001, anche con la correzione della persistenza, preceduta da una tabella che permette di identificare le serie, chiamate qui e in Eschenbach in modi diversi. Per i grafici delle altre serie, rimando al sito di supporto.

Tabella 1. Identificazione delle 4 serie di Bond et al., 2001. FZ-Comp si riferisce alla figura 7.
Nome Ufficiale Eschenbach FZ FZ-Comp
MC52V29191 HSG Hematite bondi bond-1
MC52V29191 glass Glass#1 bondii bond-2
MC21GGC22 glass Glass#2 bondiii bond-3
MC21GGC22 det carb Detrital Carb bondiv bond-4

MC52V29191 HSG (bondi)

In questa serie si vede, per la prima volta, il limite connesso con il mio sistema (http://www.climatemonitor.it/?p=47359 ) di calcolo del coefficiente di Hurst, H, basato sulla funzione di autocorrelazione a lag 1 [acf(1)]. il valore di acf(1) è alto e fornisce un alto valore di H corretto, mentre si vede bene che l’acf per alti lag fornisce un valore limite che tende mediamente a zero, come dovrebbe essere per una buona correzione. Il valore di H riportato in blu in figura 3 (pdf) non è quindi attendibile.

Fig.3: Funzione di autocorrelazione di bondi, sia osservata (nera) che corretta dalla derivata numerica (blu). I valori di H osservato e corretto sono riportati nel grafico.

I valori e lo spettro LOMB della serie osservata e di quella corretta con la derivata numerica può essere confrontato in figura 4 (pdf) e in figura 5 (pdf).

Fig.4: Serie bondi osservata e suo spettro LOMB.

Fig.5: Serie bondi corretta tramite la derivata numerica. Notare le similitudini con la serie osservata, ma anche le diversità nei periodi più lunghi.

Un confronto diretto tra gli spettri può essere fatto anche usando la figura 6 che mostra, per osservato e derivata, nella tabella di sinistra, i massimi spettrali corrispondenti (i dati tra parentesi esistono, in genere sono deboli e non sono stati identificati con un valore numerico del periodo), oppure con l’adiacente Funzione di Cross-Correlazione (CCF, grafico a destra) da cui si vede che le due serie sono esattamente allineate -il massimo di CCF è a lag 0- e che non ci sono, se non molto deboli, altre posizioni reciproche (cioè a lag≠0) in cui la correlazione ha valori poco diversi da zero. Il grafico ci dice anche che la correlazione di Pearson, cioè la ccf a lag 0, è 0.539, valore sufficientemente elevato per due serie che dovrebbero o potrebbero essere diverse e non correlate.

Confronto tra i  
massimi corrispondenti, 
in ka. bondi.txt, 
Bondi et al., 2001
======================
ObsPer  DerPer
8.25    8.25
        4.8     
2.31    2.51
        1.8
1.48    1.38
1.00    1.00
0.90    0.92
0.82    0.84
0.71    0.72
0.57    0.57
(0.50)  0.51
0.44    0.44
(0.29)  0.29
0.072   0.076

Fig.6: a sinistra la tabella per il confronto diretto dei periodi spettrali osservato (obs) e corretto (Der); a destra la funzione di cross-correlazione tra gli spettri osservato e corretto della serie bondi.

Il confronto fra gli spettri mostra ancora una volta come la memoria a lungo termine abbia agito sui periodi più lunghi, rendendoli più potenti nei dati osservati e più deboli nei dati corretti per la persistenza, ma ancora presenti (perchè escluderli, seguendo un’analisi di significatività, dato che non sono semplicemente rumore?).

Come detto sopra, riportare la stessa analisi per tutte le serie sarebbe troppo lungo (tutto è disponibile nel sito di supporto) ma è interessante osservare come si comporta l’insieme dei massimi spettrale delle quattro serie, sia osservate che corrette.
Il confronto viene evidenziato in figura 7 (pdf).

Fig.7: Confronto tra i massimi spettrali dell 4 serie di Bond et al.,2001. Il quadro inferiore è un ingrandimento dei primi 1000 anni del quadro superiore. Le bande gialle hanno un’ampiezze pari a ±5% del valore centrale tranne quelle a 1000 (solo grafico superiore), 1500 e 2500 anni in cui l’ampiezza è ±10%. I periodi posizionati alle ordinate intermedie (1.5, 2.5, …) derivano dai dati corretti per la persistenza. Come da tabella 1, bond-1=bondi=Hematite, ecc.

Dalla figura emergono alcuni aspetti:

  1. Non sono presenti periodi superiori a 5000 anni, se non in maniera sporadica e solo nei dati osservati (non in quelli corretti). Solo la serie bondi, osservata e corretta, mostra un periodo di 8200 anni, ma da sola non può costituire una caratteristica generale.
  2. Il periodo centrato a 4750 anni ha una caratteristica particolare: esiste per tutte le serie, solo nei dati corretti dalla persistenza. Non sono presenti nelle vicinanze periodi dei dati osservati. Mi piacerebbe pensare ad un merito della correzione per la memoria a lungo termine, ma questo richiederà ulteriori approfondimenti. Credo che gli spettri dei dati corretti siano più attendibili di quelli osservati per cui considero reale questo periodo.
  3. Il periodo di 2500 anni è presente in tutti i dati corretti e, in modo più defilato, nei dati osservati tranne bondiii. Per quanto posso dire, il periodo è reale.
  4. Il periodo centrato a 1500 anni (oggetto del lavoro di Debret et al., 2007) è presente solo in bondi e bondiv, osservato e corretto. Ammesso (e per nulla concesso) che qui abbia senso parlare di statistica, il 50% dei casi lascia la aperta la questione dell’esistenza di questo massimo che pure è stato osservato nei dati proxy per il Miocene (23-5 Ma fa, ma non in quelli per l’Olocene) da Kern et al., 2012.
  5. Il periodo di circa 1000 anni è presente in tutte le serie (osservate e corrette). Mi sembra difficile poter affermare (come Eschenbach) che questo periodo sia un artefatto.
  6. La considerazione precedente vale anche per i periodi centrati a 550 e a 450 anni.
  7. I periodi minori di 450 anni si presentano in “ordine sparso” e non so bene come considerarli. A prima vista sembrerebbero “firme” spettrali dovute all’una o all’altra serie e quindi situazioni “locali” nel tempo e nello spazio che non fanno pensare a qualcosa di comune.
  8. il periodo centrato a 72 anni è comune a tutte le serie e conduce a legami con AMO/NAO. Però il passo dei dati è di 70 anni e un periodo di 72 anni, per quanto la sua esistenza sia possibile, autorizza a più di un sospetto: questo è il motivo per cui non è stato evidenziato da una banda gialla.

References

  1. Gerard Bond, Bernd Kromer, Juerg Beer, Raimund Muscheler, Michael N. Evans, William Showers, Sharon Hoffmann, Rusty Lotti-Bond, Irka Hajdas, Georges Bonani: Persistent Solar Influence on North Atlantic Climate During the Holocene , Science, 294, 2130-2136, 2001. doi:10.1126/science.1065680
  2. M. Debret, V. Bout-Roumazeilles, F. Grousset, M. De McManus, N. Massei, D. Sebag, J.-R. Petit, Y. Copard and A. Trentesaux: The origin of the 1500-year climate cycles in H North-Atlantic records , Clim.Past, 3, 569-575, 2007. full text (download PDF)
  3. A.K. Kern, M. Harzhauser, W.E. Piller, O. Mandic, A. Soliman: Strong evidence for the influence of solar cycles on a Late Miocene lake system revealed by biotic and abiotic proxies , Palaeogeography, Palaeoclimatology, Palaeoecology, 329-330, 124-136,2012.
    DOI: 10.1016/j.palaeo.2012.02.023
Tutti i grafici e i dati, iniziali e derivati, relativi a questo post si trovano nel sito di supporto qui

 

Facebooktwittergoogle_pluslinkedinmail

Breve Profilo Storico del Clima Europeo

Posted by on 07:00 in Attualità, Climatologia | 1 comment

Breve Profilo Storico del Clima Europeo

Aggiornata al 2017 la pagina delle anomalie delle temperature europee dal 1655 (versioni in Italiano e Inglese)

di Luigi Mariani e Franco Zavatti

La climatologia storica si occupa di ricostruire i climi del passato e di studiarne le interazioni con le attività umane. A tal fine sfrutta una vasta gamma di fonti, dalle serie strumentali a quelle derivanti da proxy data di diversa origine (fenologia vegetale, carote glaciali, serie polliniche, sedimenti lacustri o marini, speleo temi, cerchie di accrescimento delle piante arboree, ecc.) . Un ruolo molto rilevante è anche assegnato alle serie documentali (cronache, registri di attività agricole o commerciali, prezzi di derrate, ecc.) (Behringer 2013).

Alcune deduzioni tratte dall’analisi delle serie 1655-2017

La serie storica è aggiornata al 2017, anno che con +1.38°C si colloca al sesto posto fra i più caldi dal 1655 ad oggi (tabella 1). Sempre dalla classifica di tabella 1 osserviamo che fra i 30 anni più caldi dal 1655 ad oggi 6 ricadono nel XVIII secolo (1779, 1775, 1773, 1727, 1723, 1722), 11 nel XX (2000, 1999, 1997, 1995, 1994, 1992, 1990, 1989, 1949, 1934) e ben 14 nel XXI secolo. Peraltro la frequenza di anni caldi del XVIII secolo, alternati ad anni molto freddi indusse Emmanuel Leroy Ladurie ad intitolare Canicules et gaciers un testo del 2004 in cui affrontava il tema della Piccola rea glaciale – PEG.

Nella tabella 2 sono stati invece riportati i 30 anni più freddi dal 1655 ad oggi. Di questi, 10 ricadono nel XVII secolo (1674, 1675, 1684, 1688, 1691, 1692, 1694, 1695, 1697, 1698), 9 nel XVIII (1702, 1707, 1708, 1709, 1740, 1784, 1785, 1786, 1799), 11 nel XIX (1805, 1809, 1812, 1814, 1816, 1829, 1838, 1855, 1871, 1879, 1888) mentre nessuno è presente in XX (solo al 34° posto troviamo il 1940 ed al 39° il 1956) e XXI secolo. Anno più freddo in assoluto è stato il 1740 mentre solo al 19° posto si colloca il 1816, il famoso “anno senza estate”.

Uno sguardo complessivo alla serie indica che la variabilità temporale delle temperature europee risponde ad alcune regolarità dalle quali il cittadino europeo non può in alcun caso prescindere quando affronta scelte in campo agricolo, sanitario, dei lavori pubblici, dei trasporti, dell’energia, ecc. Anzitutto si osserva la presenza di una sensibile variabilità interannuale, con anni  più freddi che si alternano ad anni più caldi, il che si traduce nel classico andamento a “dente di sega”. Tale variabilità è presente nell’intera serie e consente di contestare in modo immediato l’affermazione secondo cui il clima europeo prima dell’era dell’AGW fosse un clima assai più stabile. Giova altresì dire che la grande variabilità interannuale è frutto della circolazione generale e delle strutture di blocco responsabili dell’afflusso verso la nostra area di masse d’aria con caratteristiche peculiari (aria polare continentale, polare marittima, artica continentale e marittima, subtropicale continentale e marittima).

L’analisi visuale del diagramma di anomalia delle temperature medie europee mostra che la variabilità interannuale non è sensibilmente aumentata rispetto al passato. Si tratta di una conclusione che è coerente con quanto riscontrato da Anderson e Kotinski (2010 e 2016) che lavorando su 6092 serie storiche globali mensili con almeno 90 anni di dati provenienti dal dataset GHCN e riferite al periodo 1900-2013 mostrano un decremento della variabilità interannuale delle temperature medie.

Analogamente l’analisi visuale del diagramma delle devianze indica che la variabilità spaziale non manifesta sensibili incrementi rispetto al passato ed appare grossomodo stazionaria dalla metà del XIX secolo. Ciò porta a ritenere che distribuzione di frequenza nelle diverse scale spaziali delle strutture circolatorie responsabili di tale variabilità non sia sostanzialmente mutata nel tempo.

Si osserva inoltre la presenza di una ciclicità pluriennale con cicli di durata media di 60-70 anni. Tale ciclicità è effetto della ciclicità delle temperature dell’Oceano Atlantico (illustrata dell’indice AMO) e delle ciclicità nella circolazione atmosferica (messa in luce ad esempio dall’indice NAO invernale – NAOI ). La potenza di tale ciclicità pluriennale è notevolissima. Ad esempio dagli anni 50 agli anni 70 essa ha dato luogo al calo delle temperature europee, riportatesi su valori al di sotto della media dell’intera serie che è di -0.28°C di scostamento rispetto alla media 1961-1990 (figura 1 – linea verde).

Si noti che quando AMO è in fase positiva e l’oceano è caldo anche le temperature europee sono più elevate mentre quando AMO passa in fase negativa e l’oceano diventa freddo le temperature europee si riducono di conseguenza. Si noti che la transizione di AMO da negativo a positivo avvenuta nel 1994 è stata innescata da un periodo a correnti atmosferiche atlantiche (grandi correnti occidentali o westerlies) molto intense, il che è segnalato dai valori molto positivi dell’indice circolatorio atmosferico North Atlantic Oscillation Invernale (NAOI – https://it.wikipedia.org/wiki/Oscillazione_Nord_Atlantica).

Analisi di discontinuità e divisione in sotto periodi omogenei

Sottoponendo la serie a un’analisi di discontinuità (figura 1) si pone in luce l’esistenza di tre sottoperiodi termicamente omogenei e cioè il 1655-1709 (in media -0.55°C rispetto a 1961-90), 1710-1942 (in media -0.40°C) e 1943-2017 (in media +0.39°C).

Dall’analisi visuale della figura 1 emerge anche che la fase di incremento registrata dal 1695 al 1723 appare simile per forma e potenza a quella registrata dal 1956 ad oggi. E’ questa una curiosità che varrebbe la pena in futuro di indagare alla luce delle cause. Peraltro il riscaldamento 1695 – 1723 portò l’Europa in una fase di clima mite che fu bruscamente interrotta dall’anno 1740, il più freddo dell’intera serie, che in Francia secondo Emmanuel Leroy Ladurie provocò 200.000 morti per fame e freddo, non essendo la popolazione più abituata a fare scorte per l’inverno. Mi pare questa una lezione storica su cui val la pena di meditare, specie in un periodo in cui i media diffondono a piene mani l’idea sciagurata secondo cui “farà sempre più caldo”, scordandosi dell’elementare dato di fatto per cui la Siberia, polo del freddo dell’emisfero boreale, è solo a poche migliaia di km a nordest del nostro Paese.

Analisi spettrale

L’analisi spettrale diretta delle temperature europee mostrata in figura 2 evidenzia la  presenza di un massimo con periodo di circa 300 anni che domina l’intera struttura dello spettro. Una più attenta analisi della memoria a lungo termine della serie considerata (www.climatemonitor.it/?p=47359) (figura 3, linea nera) mostra  la presenza di una persistenza medio-alta, espressa dalla funzione di autocorrelazione (acf). L’esponente di Hurst stimato vale H=0.789, e la persistenza viene corretta tramite l’uso della derivata numerica della serie (figura 3, linea blu) portando ad un valore H=0.566. Lo spettro della serie corretta è mostrato in figura 4, nella quale si nota la scomparsa del periodo di 300 anni e il mantenimento di tutti gli altri massimi spettrali, in alcuni casi con differenze non significative. Lo spettro della serie europea deve essere pertanto considerato quello di figura 4 e il massimo a 300 anni un probabile artefatto della memoria a lungo termine. Un confronto diretto tra i massimi spettrali della serie corretta e non corretta può essere fatto tramite la tabella 3.

Per quanto riguarda i massimi spettrali individuati nella serie corretta:

  • il massimo a 69,4 anni è compatibile con massimi spettrali di AMO (67 anni circa), NAO (76 anni circa) e sole (64 anni)
  • il massimo a 34,7 anni è compatibile con massimi spettrali di AMO (35 anni circa) e NAO (38 anni circa)
  • il massimo a 23,7 anni è compatibile con massimi spettrali di AMO (22 anni circa), NAO (27 anni circa) e sole (22 anni circa)
  • i massimi a 11,1 e a 7,8 anni sono compatibili con massimi spettrali di AMO (10 anni circa), NAO (8 anni circa) e sole (11 anni circa)
  • il massimo a 4,7 anni è compatibile con i massimi di periodo inferiore a 5 anni caratteristici di ENSO.

Conclusioni

Quanto descritto in precedenza mostra quanti aspetti peculiari del nostro clima possono essere evidenziati dall’analisi di questa serie, effetti che in gran parte sono frutto di variabilità naturale, tant’è che li ritroviamo anche su serie termiche  assai più lunghe che arrivano a coprire anche l’intero olocene e che sono basate su proxy data.

Segnalo infine che la serie delle temperature europee 1655-2016 è stata in seguito utilizzata per un lavoro di analisi delle ciclicità climatiche a livello europeo pubblicato sulla rivista Science of Total Environment (Mariani e Zavatti, 2017).

Figura 1 – Change analysis eseguita con il metodo di Bai e Perron. In tal modo si individuano tre fasi climatiche omogenee separate da 2 breakpoints, il primo dei quali ha come anno più probabile il 1709 e il secondo il 1942. Si osservi inoltre che Il breakpoint più antico ricade con un 99% di probabilità negli anni compresi fra 1666 e 1755 mentre il secondo ricade con un 99% di probabilità negli anni compresi fra 1926 e 1956. In blu è la media dei tre sottoperiodi omogenei e in verde la media dell’intera serie.

Figura 2 – Spettro della serie europea. Il massimo a circa 300 anni domina l’intera struttura.

Figura 3 – Funzione di autocorrelazione (ACF) della serie osservata (linea nera) e di quella corretta con l’uso della derivata prima (linea blu). Si osservi il miglioramento, cioè la diminuzione, della persistenza.

Figura 4 – Serie delle derivate numeriche delle temperature medie europee e suo spettro. Da notare la differenza di scala tra i quadri centrale e inferiore. Come si vede è presente un massimo di circa 225 anni, quasi insignificante, ed è scomparso il massimo di 300 anni. I periodi di tutti gli altri massimi sono gli stessi dello spettro “osservato”.

 

Tabella 1 – I 30 anni più caldi in Europa dal 1655 ad oggi.
anno anomalia su 1961-1990 Posto in classifica
2014 1.93 1
2015 1.67 2
2011 1.62 3
1723 1.46 4
2007 1.39 5
2017 1.38 6
1994 1.32 7
2006 1.29 8
2003 1.28 9
2016 1.26 10
1990 1.22 11
2002 1.22 12
2000 1.21 13
1989 1.18 14
2009 1.16 15
2008 1.12 16
2012 1.09 17
1999 1.09 18
1779 1.08 19
1997 0.98 20
2001 0.95 21
1934 0.92 22
1775 0.90 23
1992 0.89 24
1949 0.88 25
1995 0.87 26
1773 0.83 27
1727 0.79 28
1722 0.79 29
2004 0.79 30
Tabella 2 – I 30 anni più freddi dal 1655 ad oggi.
anno anomalia su 1961-1990 Posto in classifica
1740 -2.47 1
1695 -2.22 2
1709 -2.13 3
1799 -1.85 4
1829 -1.85 5
1694 -1.84 6
1698 -1.84 7
1692 -1.78 8
1812 -1.77 9
1784 -1.76 10
1838 -1.75 11
1786 -1.70 12
1785 -1.68 13
1814 -1.66 14
1688 -1.65 15
1675 -1.63 16
1888 -1.59 17
1684 -1.56 18
1816 -1.54 19
1879 -1.52 20
1708 -1.51 21
1871 -1.47 22
1697 -1.46 23
1855 -1.43 24
1702 -1.40 25
1674 -1.39 26
1805 -1.38 27
1691 -1.34 28
1809 -1.32 29
1707 -1.30 30
Tabella 3 – Confronto diretto tra i periodi dei massimi spettrali della serie osservata, in anni, e di quella corretta con la derivata prima.
Massimo spettrale (anni)
Su serie di base Su serie corretta
301
226
120 129
90 90
69.4 69.4
54.7 56.4
47.5 46.3
34.7 34.7
26.9 27.3
23.4 23.7
15.3 15.2
13.2 13.2
11.1 11.1
7.8 7.8
5 5
4.7 4.7
4 4

Bibliografia

Behringer W., 2013. Storia culturale del clima, Boringhieri, 349 pp.

Camuffo D. and Bartolin C., 2012. The earliest temperature observations in the world: The Medici Network (1654-1670), Climatic Change 111(2):335-363 · July 2012.

  • Le Roy Ladurie E., 2004. Histoire humaine et comparée du climat. I. Canicules et glaciers (XIIIe-XVIIIe siècles), Flammarion, Paris.
  • Mariani L., Zavatti F., 2017. Multi-scale approach to Euro-Atlantic climatic cycles based on phenological time series air temperatures and circulation indexes, Science of the Total Environment 593–594 (2017) 253–262
  • Metoffice – Hadley Centre, 2018. Hadley Centre Central England Temperature (HadCET) dataset, http://www.metoffice.gov.uk/hadobs/hadcet/ (sito visitato l’11 marzo 2018).
Facebooktwittergoogle_pluslinkedinmail

Un Mese di Meteo – Febbraio 2018

Posted by on 07:00 in Attualità, Climatologia, Commenti mensili, Meteorologia | 0 comments

Un Mese di Meteo – Febbraio 2018

IL MESE DI FEBBRAIO 2018[1]

Colpo di coda dell’inverno per l’affermarsi di un regime circolatorio da Nordest che a partire dalla seconda decade del mese ha trascinato le temperature al di sotto della norma. Precipitazioni in prevalenza superiori alla norma con l’eccezione di Liguria, Lombardia, Emilia occidentale e triveneto centro-settentrionale.

La topografia media mensile del livello di pressione di 850 hPa per l’area euro-atlantica (figura 1a) mostra l’anticiclone delle Azzorre (lettera A) e il ciclone d’Islanda (lettera B), in posizione molto arretrata in Atlantico. Fra di essi corrono veloci le correnti occidentali che tuttavia non influenzano in modo diretto il nostro areale sul quale viceversa domina una circolazione depressionaria alimentata da aria fredda in arrivo da Nordest e alla cui avvezione contribuisce l’area depressionaria presente sulla Russia occidentale. La rilevanza dell’area depressionaria presente sull’Italia è bene evidenziata dalla carta delle isoanomale (figura 1b) che indica il sussistere di un consistente nucleo di anomalia negativa con minimo di – 6 m centrato sulla Sardegna e sul Tirreno.

Figura 1a – 850 hPa – Topografia media mensile del livello di pressione di 850 hPa (in media 1.5 km di quota). Le frecce inserire danno un’idea orientativa della direzione e del verso del flusso, di cui considerano la sola componente geostrofica. Le eventuali linee rosse sono gli assi di saccature e di promontori anticiclonici.

Figura 1b – 850 hPa – carta delle isoanomale del livello di pressione di 850 hPa.

Nel corso del mese di febbraio abbiamo assistito al passaggio sulla nostra area di un totale di 6 perturbazioni come si nota dalla tabella 1, da cui si evidenzia altresì la crucialità del pattern circolatorio affermatosi a  dal 18 al 27 del mese e caratterizzato dalla presenza di una struttura anticiclonica a latitudini medio-alte (centro Europa, Scandinavia, mare del Nord) con “inversione delle circolazione” (regime antizonale) e il conseguente afflusso sul Mediterraneo di masse d’aria fredda da est-nordest.

Tabella 1 – Sintesi delle strutture circolatorie del mese a 850 hPa (il termine perturbazione sta ad indicare saccature atlantiche o depressioni mediterranee (minimi di cut-off) o ancora fasi in cui la nostra area è interessata da regimi che determinano  variabilità perturbata (es. flusso ondulato occidentale).
Giorni del mese Fenomeno
1-3 febbraio Transito di una saccatura atlantica da ovest associata a un minimo depressionario sul mare del Nord (perturbazione n. 1). Dal giorno 2 la perturbazione si presenta come saccatura da Nordest che influenza  le regioni centro-meridionali mentre un promontorio da ovest si afferma sull’areale padano-alpino.
4-7 febbraio La saccatura da Nordest si espande a dominare l’intero areale mediterraneo e scava sulla penisola iberica un robusto minimo di cutoff  che influenza l’Italia dal pomeriggio del 5 (perturbazione n. 2).
8 febbraio Campo di pressioni livellate.
9-10 febbraio Transito di una saccatura che il giorno 10 scava un minimo depressionario sullo Ionio. Tale minimo influenza le regioni del centro-sud  (perturbazione n. 3) mentre l’areale padano-alpino è dominato da un promontorio da ovest.
11-14 febbraio Masse d’aria fredda da nordest alimentano una circolazione depressionaria (perturbazione n. 4)
15febbraio Minimo depressionario centrato sullo Ionio influenza le regioni meridionali (perturbazione n. 5)
16 febbraio Un promontorio anticiclonico da sudovest determina temporanea stabilizzazione.
17 febbraio Flusso ondulato occidentale con variabilità
18-27 febbraio Il 18 si registra la presenza di un promontorio espanso dal Vicino Atlantico subtropicale verso il mar Baltico. Da esso si sviluppa poi una vasta area anticiclonica che insiste su Isole Britanniche – Mare del Nord – Scandinavia. Ne consegue l’inversione della circolazione con l’afflusso di masse d’aria da Nordest che alimentano una circolazione depressionaria sull’area italiana con condizioni di variabilità perturbata (perturbazione n. 6).
28 febbraio Sull’Italia campo livellato (sella) che si colloca fra due aree depressionarie centrate rispettivamente su penisola iberica e penisola balcanica.

Rammentiamo infine che un tema certamente importante anche se troppo complesso per essere affrontato in questo commento è senza dubbio quello di stabilire il livello di anomalia del pattern circolatorio che ha determinato le basse temperature del febbraio 2018. Unica cosa che vale qui al pena di notare è che i “grandi inverni mediterranei” si manifestano con una certa frequenza  nel mese di febbraio e a tale proposito si rammentano gli storici inverni del 1929, del 1956 e del 2012.

Andamento termo-pluviometrico

Le temperature massime mensili (figure 1 e 2) sono in anomalia negativa su gran parte della nostra area mentre le minime mensili appaiono in prevalenza nella norma, salvo locali anomalie negative. La tabella 2 mostra che le anomalie negative si concentrano nella seconda e terza decade per le massime e nella terza decade per le minime, il che è la conseguenza del regine antizonale affermatosi non corso del mese.

Figura 2 – TX_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle massime del mese

Figura 3 – TN_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle minime del mese

A livello mensile le precipitazioni (figura 4) sono risultate al di sopra della norma sul centro sud e al di sotto della norma al nord con l’eccezione di Piemonte occidentale, Valle d’Aosta ed Emilia orientale – Romagna. Si noti la spiccata anomalia positiva di quest’ultima oltreché delle Marche e del Salento.

Figura 4 – RR_mese – Carta delle precipitazioni totali del mese (mm)

Figura 5 – RR_anom – Carta dell’anomalia (scostamento percentuale rispetto alla norma) delle precipitazioni totali del mese (es: 100% indica che le precipitazioni sono il doppio rispetto alla norma).

Le precipitazioni decadali delle tre macroaree (tabella 2) sono in anomalia positiva salvo che nella seconda decade ove risultano nella norma al centro e al nord. Si noti che le precipitazioni mensili di tabella 2 sono in anomalia positiva su tutte le 3 macroaree, nord incluso in quanto l’anomalia positiva di Emilia orientale – Romagna, Piemonte e Valle d’Aosta ha compensato le anomalie negative del resto della macroarea.

Tabella 2 – Analisi decadale e mensile di sintesi per macroaree – Temperature e precipitazioni al Nord, Centro e Sud Italia con valori medi e anomalie (*).

Si segnala infine che la carta di anomalia termica globale prodotta dall’Università dell’Alabama – Huntsville http://nsstc.uah.edu/climate/ e che ci consente di valutare la rilevanza sinottica delle anomalie termiche registrate in Italia non è stata commentata in quanto non disponibile al momento in cui questo bollettino è stato redatto.

(*) LEGENDA:

Tx sta per temperatura massima (°C), tn per temperatura minima (°C) e rr per precipitazione (mm). Per anomalia si intende la differenza fra il valore del 2013 ed il valore medio del periodo 1988-2015.

Le medie e le anomalie sono riferite alle 202 stazioni della rete sinottica internazionale (GTS) e provenienti dai dataset NOAA-GSOD. Per Nord si intendono le stazioni a latitudine superiore a 44.00°, per Centro quelle fra 43.59° e 41.00° e per Sud quelle a latitudine inferiore a 41.00°. Le anomalie termiche positive sono evidenziate in giallo(anomalie deboli, inferiori a 2°C), arancio (anomalie moderate, fra 2 e 4°C) o rosso (anomalie forti,di  oltre 4°C), analogamente per le anomalie negative deboli (minori di 2°C), moderata (fra 2 e 4°C) e forti (oltre 4°C) si adottano rispettivamente  l’azzurro, il blu e il violetto). Le anomalie pluviometriche percentuali sono evidenziate in  azzurro o blu per anomalie positive rispettivamente fra il 25 ed il 75% e oltre il 75% e  giallo o rosso per anomalie negative rispettivamente fra il 25 ed il 75% e oltre il 75% .

[1]              Questo commento è stato condotto con riferimento alla  normale climatica 1988-2015 ottenuta analizzando i dati del dataset internazionale NOAA-GSOD  (http://www1.ncdc.noaa.gov/pub/data/gsod/). Da tale banca dati sono stati attinti anche i dati del periodo in esame. L’analisi circolatoria è riferita a dati NOAA NCEP (http://www.esrl.noaa.gov/psd/data/histdata/). Come carte circolatorie di riferimento si sono utilizzate le topografie del livello barico di 850 hPa in quanto tale livello è molto efficace nell’esprimere l’effetto orografico di Alpi e Appennini sulla circolazione sinottica. L’attività temporalesca sull’areale euro-mediterraneo è seguita con il sistema di Blitzortung.org (http://it.blitzortung.org/live_lightning_maps.php).

Facebooktwittergoogle_pluslinkedinmail

Il Vortice Polare e le sue Derivate

Posted by on 07:00 in Attualità, Climatologia, Meteorologia | 3 comments

Il Vortice Polare e le sue Derivate

Due interessanti segnalazioni, entrambe provenienti dalla rassegna scientifica settimanale che fa Judith Curry sul suo blog. Si tratta di argomenti molto attuali perché affrontano il tema delle dinamiche di circolazione a monte ed a valle degli eventi di Stratospheric Sudden Warming. Quel che ne risulta, semmai ci fosse bisogno di confermarlo, è un sistema ad elevatissima complessità in cui le relazioni di causa-effetto non sono mai chiare e tanto meno lineari, quanto piuttosto saldamente intrecciate e in grado di proporre soluzioni sempre diverse.

La prima è una breve presentazione che discute l’influenza delle oscillazioni dell’ENSO (El Niño Southern Oscillation) sulla frequenza di occorrenza degli eventi di SSW e, con riferimento a questi ultimi, come variano gli effetti o teleconnessioni delle fasi di ENSO positiva (El Niño) o negativa (La Niña) nelle stagioni invernali in cui si verificano importanti eventi di SSW. Mentre il segnale di variazione della frequenza di occorrenza di eventi di rapido riscaldamento della stratosfera non è molto chiaro al variare dell’indice ENSO nelle rianalisi, cioè in quello che abbiamo a disposizione che più si avvicina alle osservazioni, nelle simulazioni modellistiche la fase positiva di ENSO sembra essere associata ad aumento del 30% delle probabilità che ci siano eventi di SSW nell’inverno boreale. Tra tutti, il segnale più evidente tuttavia e quello che assegna alle dinamiche del Vortice Polare Stratosferico il ruolo più importante per il destino degli inverni sull’Eurasia. Ecco il video della lezione, che comunque trovate a questo link:

Per chi volesse, l’autrice ha pubblicato anche un post sull’ENSO blog della NOAA in cui spiega ancora meglio i concetti espressi nel video.

La seconda affronta il tema del VPS in modo molto meno diretto e, soprattutto, ad una scala temporale non annuale ma multidecadale, quindi più squisitamente afferente al clima. La teleconnessione analizzata è quella delle oscillazioni dell’indice AMO, che varia alla scala dei decenni ed è riferito alle temperature di superficie dell’Oceano Atlantico.

Atlantic Multidecadal Oscillation modulates the impacts of Arctic sea ice decline

In questo studio, purtroppo a pagamento, si investigano le variazioni dell’indice AMO al fin di identificare un segnale riconducibile alle dinamiche del ghiaccio artico. A mio parere ci sono due aspetti particolarmente interessanti:

  • Il primo è la dipendenza dell’estensione dei ghiacci artici dalla fase positiva o negativa di AMO, cioè dalla distribuzione della massa atmosferica – quindi ventilazione – in relazione alle temperature di superficie dell’oceano;
  • La seconda tira in ballo il VPS, ovvero collega l’estensione dei ghiacci all’innevamento sull’area Euro-Asiatica nei primi mesi invernali ed alle dinamiche di circolaizone che ne conseguono e che implicano maggiore debolezza o solidità del VPS nel mese di febbraio.

Spero che le segnalazioni vi siano gradite. Buona giornata 😉

Facebooktwittergoogle_pluslinkedinmail

Il ghiaccio artico e il suo spettro

Posted by on 07:00 in Attualità, Climatologia | 3 comments

Il ghiaccio artico e il suo spettro

L’articolo di Luigi Mariani apparso su CM a commento del lavoro di Stein et al., 2017, è esaustivo e chiaro nel sottolineare che l’attuale situazione di scioglimento dei ghiacci artici non è affatto unica nella storia climatica della Terra. Vorrei solo aggiungere qualche breve nota per così dire “spettrale” e per questo mi riferisco ai dati resi disponibili da Stein et al., 2017 nella tabella S2 del materiale supplementare allegato all’articolo, in particolare a PIP_B_25, l’indice di copertura glaciale basato sul brassicasterolo, e al suo spettro LOMB. Per questo mostro la figura 1 (pdf). in cui il quadro in alto fornisce la situazione dell’estesione del ghiaccio (in questo caso artico) nel corso dell’Olocene e sottolinea, tramite le righe verticali rosse e le bande di diverso colore, i periodi con copertura estesa e ridotta.

Fig.1: Serie PIP_B_25, indice dell’estensione del ghiaccio e suo spettro. Nel quadro superiore le due bande colorate definiscono due situazioni del ghiaccio: in basso (giallo oro) copertura ridotta; in alto (celeste) ghiaccio stagionale. Sopra 0.7 il ghiaccio è perenne. Simile alla figura 6 di Stein et al.,2017, parte destra. Nel quadro centrale, la potenza dello spettro delle derivate è stata moltiplicata per 2.

Due aspetti attirano l’attenzione:

  1. da 4000 a 2000 anni fa siamo stati, fra alti e bassi, con una copertura media costante ma estesa; poi da circa 1700-1600 anni fa la copertura è schizzata verso l’alto (ancora, le oscillazioni non mancano) fino a raggiungere il massimo (nella zona del ghiaccio perenne) in corrispondenza della LIA (piccola età glaciale). Dalla LIA è iniziata una fase di diminuzione (sempre in una situazione di copertura glaciale estesa) con la quale ci confrontiamo attualmente.
    Dal grafico risulta chiaro che stiamo scrivendo intere biblioteche e ingaggiando “guerre” scientifiche all’ultimo sangue per quel tratto discendente dopo la LIA, in alto a sinistra, del tutto insignificante (attività umane o no) rispetto alle fluttuazioni che hanno caratterizzato la copertura glaciale nell’intero Olocene.
  2. I periodi in cui la copertura glaciale è stata bassa sono stati tra 10000 e 7500 e, soprattutto, fra 6000 e 4500 anni fa, quando essa è diminuita in modo davvero notevole rispetto alla situazione attuale. Ci sono stati episodi di riduzione attorno a 7000 e a 3000 anni fa, all’interno di periodi di copertura estesa, come pure episodi di aumento della copertura in periodi di ghiaccio ridotto, tutti da considerare normale fluttuazione naturale.

I quadri inferiori della figura mostrano lo spettro LOMB dei dati PIP25 e della loro derivata numerica, sistema che qui viene usato per diminuire o annullare la persistenza (o memoria a lungo termine o, ancora, autocorrelazione) che si osserva nei dati originali. Infatti la figura 2 (pdf) mostra la funzione di autocorrelazione dei dati originali e della loro derivata e il sensibile miglioramento (diminuzione) della persistenza. Come già notato in altri post sulla memoria a lungo termine (ad esempio qui) i periodi più lunghi tendono ad essere modificati dalla memoria a lungo termine e in qualche caso, come in figura 1, a scomparire, mentre i periodi più brevi si mantengono dopo la trasformazione ma cambiano la potenza. Il periodo di circa 8000 anni può essere trascurato e, almeno parzialmente, considerato un artefatto della persistenza; il periodo attorno a 3000-3200 anni deve essere considerato reale, anche se debole, mentre la coppia di periodi a 1000 e 1200 anni fa parte del periodo a circa 1000 anni (ciclo di Eddy) già osservato da Scafetta, 2012, da Kern et al., 2012 e qui su CM. Anche i periodi attorno a 208, 225, 352, 561 anni trovati da Kern et al, 2012 in spettri sia delle macchie solari che dei sedimenti lacustri in Austria-Slovacchia sono presenti in questo spettro. L’analisi spettrale dei dati di Jiang et al, 2015 (carotaggi tra Islanda e Groenlandia, qui su CM) mostra anch’essa periodi di 500, 1000 e 3100 anni. Il massimo di 1500 anni, che Kern definisce “non solare” non appare nello spettro di PIP25 ma si vede bene nello spettro dei dati di Jiang et al, 2015.

Fig.2: Funzione di autocorrelazione (acf) dell’indice di copertura glaciale PIP25_B_ (linea nera) e della sua derivata numerica (linea blu). Osservare come migliora la acf dopo l’applicazione della derivata. Gli esponenti di Hurst (H) nei due casi sono riportati all’interno del grafico.

Conclusioni
La conferma che anche nell’indice di copertura glaciale PIP25 compaiono ciclicità comuni a dataset diversi (solari e non) e che l’analisi della persistenza permetta di non considerare i cicli di periodo più lungo è senza dubbio interessante per capire meglio i meccanismi climatici, ma a mio parere l’aspetto “politico” più essenziale del lavoro di Stein et al, 2017 è quanto sintetizzato nella parte superiore di figura 1. Siamo in un periodo di estesa copertura glaciale e dobbiamo considerare le piccole fluttuazioni per quello che sono: normale evoluzione delle grandezze climatiche.

Se la politica decide di fare scelte, legittime, riferite all’uso delle risorse e dunque con ricadute rilevanti sulla distribuzione globale e locale della ricchezza, ha l’obbligo morale nei confronti dei cittadini di chiamarle con il loro nome, senza inesistenti foglie di fico scientifiche.

Tutti i grafici e i dati, iniziali e derivati, relativi a questo post si trovano nel sito di supporto qui

Bibliografia

  1. H. Jiang, R. Muscheler, S. Björck, M.-S. Seidenkrantz, Jesper Olsen, Longbin Sha, J. Sjolte, J. Eiríksson, L. Ran, K.-L. Knudsen, and M.F. Knudsen: Solar forcing of Holocene summer sea-surface temperatures in the northern North Atlantic Geology43,(3), 203-206, 2015.doi:10.1130/G36377.1;
  2. A.K. Kern, M. Harzhauser, W.E. Piller, O. Mandic, A. Soliman: Strong evidence for the influence of solar cycles on a Late Miocene lake system revealed by biotic and abiotic proxies Palaeogeography, Palaeoclimatology, Palaeoecology329-330, 124-136,2012. doi: 10.1016/j.palaeo.2012.02.023
  3. Scafetta, N.: Multi-scale harmonic model for solar and climate cyclical variation throughout the Holocene based on Jupiter-Saturn tidal frequencies plus the 11-year solar dynamo cycleJ. Atm. & Sol-Terr. Phys., 2012. doi:10.1016/j.jastp.2012.02.016
  4. Steinhilber, F., J. Beer, and C. Fröhlich. Total solar irradiance during the HoloceneGeophys. Res. Lett.36, L19704, 2009. doi:10.1029/2009GL040142
Facebooktwittergoogle_pluslinkedinmail

Una Verità Scomoda e… Raggelante!

Posted by on 07:00 in Attualità, Climatologia | 9 comments

Una Verità Scomoda e… Raggelante!

Da 10.000 a 4500 anni fa le copertura glaciali marine artiche si sarebbero mantenute su livelli sensibilmente inferiori a quelli attuali. Lo evidenzia l’indagine paleoclimatica di Stein et al. uscita nel 2017 su Journal of Quaternary Science in cui si riportano stime di copertura glaciale marina olocenica per mare di Chukchi, mar della Siberia orientale, mare di Laptev e stretto di Fram. A quando i titoloni su Corriere della Sera, Tg5 e c. ?

Innumerevoli testimonianze documentali ci parlano della Piccola Era Glaciale (PEG) e degli enormi problemi per le popolazioni europee che la stessa determinò. Su tale fase hanno ad esempio scritto Lamb (1966), Le Roy Ladurie (1967, 2004) e Le Roy Ladurie e Rousseau (2009). Relativamente bene documentati son altresì l’optimum climatico medioevale, romano e miceneo e le fasi di deterioramento che li separano (Monterin, 1937; Behringer, 2013). Assai meno documentata è invece la fase nota come grande optimum postglaciale, che fu di grandissima rilevanza per la nostra civiltà poiché nel corso di essa si ebbe ad esempio l’espansone dell’agricoltura dal medio Oriente all’intero continente europeo.

Ed è proprio da alcuni proxy riferiti all’Oceano glaciale artico che prende le mosse un lavoro scientifico che porta un contributo di conoscenza importante per chiarire gli effetti del grande Optimum Postglaciale nell’areale artico. Mi riferisco allo scritto di Stein et al. (2017) che si basa su un proxy biologico costituito da un isoprenoide molto ramificato a 25 atomi di carbonio noto come C25 – HBI monoene (alias IP25), il quale viene sintetizzato unicamente da alcune diatomee che vivono nell’Oceano Glaciale Artico. Per interpretare i livelli di tale molecola nei sedimenti marini si deve considerare che nei mari artici le fasi calde sono caratterizzate dal proliferare di diatomee (e dunque da più elevate concentrazioni di IP25) a causa delle temperature più elevate, della maggiore disponibilità di radiazione solare e del maggiore afflusso di masse d’acqua ricche di nutrienti dall’Oceano pacifico. Da ciò il fatto che i ricercatori si sono trovati improvvisamente per le mani un proxy che descrive le coperture glaciali marine con una accuratezza prima impensabile.

Occorre tuttavia considerare che IP25 è assente sia in totale assenza di ghiacci marini sia in presenza di una copertura glaciale permanente che impedisce alla radiazione solare di raggiungere le diatomee. Le due situazioni estreme possono essere tuttavia discriminate in modo efficace lavorando con altri proxy anch’essi legati al fitoplankton.

PIP 25 offre una stima di copertura glaciale marina che gli autori definiscono “semi-quantitativa” (che credo stia per “stima quantitativa affetta da un certo livello di incertezza”). Dall’analisi di tale indice emerge che gran parte dell’Olocene è trascorso con coperture glaciali marine inferiori a quella attuale. Coperture paragonabili a quelle odierne si sono avute solo negli ultimi 4500 anni toccando il proprio apice nella PEG (Piccola Era Glaciale).

In particolare si vedano i diagrammi delle figure 3 e 4 in cui si descrivono gli andamenti delle coperture glaciali marine nel mare di Chukci e nel mar della Siberia Orientale. Indicazioni analoghe sono inoltre emerse analizzando i digrammi PIP25 riferiti ai cores estratti nello stretto di Fram, che divide le Isole Spitzbergen dalla Groenlandia, e nel mare di Laptev, il che lascia intendere che il fenomeno evidenziato non è qualcosa di locale e limitato ai mari di Chukci e della Siberia Orientale indagati ma si estende a parti rilevanti dell’Oceano Glaciale Artico.

Conclusioni

In sintesi dal lavoro di Stein et al. mostra che le copertura glaciali marine nell’oceano glaciale artico sono state a lungo su livelli inferiori a quelli attuali. Ciò ha avuto luogo in particolare in un periodo che si estende da 10.000 a 4500 anni orsono ed al cui cuore sta il grande optimum postglaciale.

I dati oggi disponibili ci mostrano dunque un “verità provvisoria” (come tutte le verità scientifiche, del resto) e che tuttavia ha il grande difetto di rivelarsi “scomoda” per tutti coloro che per anni hanno operato per accreditare la fase di arretramento glaciale odierna come un “unicum”. Da ciò deduco che sarà arduo vedere tale verità presentata dai grandi media.

Per comodità del lettore riassumo l’affresco generale che a mio avviso va oggi delineandosi:

  1. Nell’interglaciale Riss-Wurm, 125.000 anni orsono, la calotta glaciale groenlandese, a differenza di oggi, era quasi totalmente fusa e gli oceani erano più alti di 5-8 metri rispetto ad oggi. Tale evidenza emerge fra l’altro dalle scansioni del ghiaccio del plateau groenlandese da cui si è appreso che il ghiaccio della calotta groenlandese deriva per il 50% dalla glaciazione di Wurm e per il 50% restante si è formato in olocene; inoltre al di sotto di tale ghiaccio sopravvivono solo pochi brandelli di ghiaccio dell’era glaciale precedente (Riss) (Mc Gregor et al., 2015).
  2. Al termine della glaciazione di Wurm ha avuto luogo una fase particolarmente calda (grande optimum postglaciale) in coincidenza con la quale i ghiacci artici sono arretrati in modo rilevantissimo.
  3. Al termine del grande optimum postglaciale ha avuto inizio un processo di “neoglaciazione” che ha visto il proprio apice con la Piccola Era Glaciale, sfociata circa 150 anni orsono nell’optimum oggi in corso.

Un andamento analogo l’hanno probabilmente avuto i ghiacciai alpini ed appenninici, anche se non si deve mai scordare che il comportamento dei ghiaccia non dipende solo dalle temperature ma anche dalle precipitazioni.

Tutto ciò porta per l’ennesima volta a porre in evidenza le forzature operate sui dati provenienti dall’area artica e che mirano ad accreditare l’idea di eventi di scioglimento senza precedenti. In proposito ricordo la rara sintesi offertaci da “An inconvenient truth” di Al Gore, un film a dir poco “visionario” e che ha creato una immensa pletora di emulatori. A Gore oggi manca solo l’Oscar alla carriera e penso che qualcuno prima o poi glielo darà.

Figura 1 – l’area geografica di riferimento dello studio

Figura 2 – Modifiche al territorio in esame dovute alle variazioni di livello del mare indotte dalle ciclicità glaciali. I punti rossi indicano i siti di campionamento considerati nello studio di Stein et al (2017)..

Figura 3 – trend delle coperture glaciali marine nel mare di Chukchi (core ARA2B-1A). La linea continua è basata sul Brassicasterolo mentre quella tratteggiata sul Dinosterolo.

Figura 4 – trend delle coperture glaciali marine nel mar della Siberia Orientale (core PS72/350).

Bibliografia

  • Behringer W., 2013. Storia culturale del clima, Boringhieri, 349 pp.
  • Lamb H.H., 1966. The changing climate, Methuen, London, 236 pp.
  • Le Roy Ladurie E., 1969. Tempo di festa, tempo di carestia, Storia del clima dall’anno 1000. Einaudi, 1969, 449 pp.
  • Le Roy ladurie E., 2004. Histoire humaine et comparée du climat. I. Canicules et glaciers (XIIIe-XVIIIe siècles), Flammarion, Paris.
  • Le Roy Ladurie E., Rousseau D., 2009. Impact du climat sur la mortalité en France, de 1680 à l’époque actuelle, La meteorologie, n. 64, Febrier 2009, 43-53.
  • McGregor etal 2015 Radiostratigraphy and age structure of the Greenland Ice Sheet, Journal of geophysical research, Earth surface, Volume 120, Issue 2, pages 212–241, February 2015
  • Monterin U., 1937. Il clima della Alpi ha mutato in epoca storica?, CNR, Roma.
  • Stein R,, Fahl K., Schade I., Manerung A., Wassmuth S., Niessen F., Seung-Il Nam, 2017. Holocene variability in sea ice cover, primary production, and Pacifc-Water infow and climate change in the Chukchi and East Siberian Seas (Arctic Ocean), Journal of Quaternary Science (2017) 32(3) 362–379 ISSN 0267-8179. DOI: 10.1002/jqs.2929.
Facebooktwittergoogle_pluslinkedinmail

Quando la cura accelera la malattia: le biomasse forestali utilizzate a fini energetici non sono neutrali nel ciclo del carbonio!

Posted by on 07:00 in Ambiente, Attualità, Climatologia | 11 comments

Quando la cura accelera la malattia: le biomasse forestali utilizzate a fini energetici non sono neutrali nel ciclo del carbonio!

di Gianluca Piovesan

Dobbiamo agire e urgentemente per contrastare i cambiamenti climatici, da Kyoto a Parigi la musica è sempre la stessa ma, intanto, mentre anno dopo anno rilasciamo sempre più CO2 nell’atmosfera, crescono anche i ricercatori eretici, ossia coloro che cantano fuori dal coro.

Il 2018 sembra promettere bene. Nel giro di pochi giorni abbiamo assistito a due interessanti “novità” sul ciclo del carbonio. In realtà niente di realmente nuovo, solo ulteriori prove degli annosi problemi irrisolti legati al bilancio del carbonio e alla mitigazione dei cambiamenti climatici a causa della complessità dei processi ecosistemici (in questo caso il ruolo delle attività agrosilvopastorali) affrontati con  modelli che a tutt’oggi presentano importanti lacune (Global Warming, più dei SUV poté la zappa).

Quando il dibattito sull’articolo di Nature Unexpectedly large impact of forest management and grazing on global vegetation biomass stava ancora richiamando l’attenzione sulla perdita di carbon stocks dovuta alla gestione attiva nei terreni rurali (agricoltura, pastorizia, selvicoltura) – processi ben noti agli ecologi da decenni (vedi Uncertainties in the role of land vegetation in the carbon cycle) – ecco che Davide (Mary S Booth, autrice di un lavoro a singolo nome) assesta un colpo mortale a Golia, i grandi network che da decenni lavorano sul ciclo del carbonio e che hanno elaborato una strategia di mitigazione dove l’uso a fini energetici delle biomasse forestali è un punto di forza.

Il titolo del lavoro appena pubblicato su Environmental Research Letters parla da solo Not carbon neutral: Assessing the net emissions impact of residues burned for bioenergy e il filmato, che riassume i risultati della ricerca, descrive in modo chiaro perché la soluzione di valorizzare  energeticamente la ramaglia,  generalmente lasciata in foresta dopo le utilizzazioni del bosco, non funziona per ridurre le emissioni di CO2 in atmosfera. Infatti, il nuovo bilancio proposto nello studio evidenzia come l’uso delle biomasse forestali, in relazione ai target di Parigi, contribuisca all’aumento del famigerato gas serra, impatto che diviene molto più significativo se si utilizza tutta la biomassa prelevata dal bosco per produrre energia, processo sempre più diffuso grazie a politiche finanziarie a supporto di tali scelte colturali. A nessun ecologo, e neppure ad un selvicoltore, sarebbe mai venuto in mente di proporre in un mondo tecnologicamente avanzato queste soluzioni energetiche “verdi” a scala industriale basate sull’uso delle biomasse forestali. E’, infatti, ben noto nell’ecologia forestale che questa nuova prassi colturale, asportando praticamente tutta la biomassa epigea, determina rilevanti problemi nella conservazione della funzionalità ecosistemica delle foreste, per non parlare poi dell’impatto ambientale.

Purtroppo la nutrita comunità di ricercatori e di politici che gravita ormai da decenni intorno al ciclo del carbonio ha deciso da tempo che l’uso delle biomasse forestali a fini energetici avrebbe funzionato, e quindi avanti tutta. Questo fino a poco fa, perché va rilevato che recentemente sta montando sempre più il disaccordo della comunità scientifica sulla efficacia di utilizzare le biomasse forestali per la mitigazione dei cambiamenti climatici (EU must not burn the world’s forests for ‘renewable’ energy). Si tratta di un tema estremamente caldo, a rapida evoluzione, che seguiremo con molto interesse.

Questa settimana si potrebbe chiudere l’iter di approvazione del Testo Unico sulle Foreste, proposta di legge che nella forma attuale desta non poche preoccupazioni per la conservazione del nostro patrimonio forestale. La gestione attiva della foresta è il cardine di questa nuova legge che individua nel ritorno diffuso dei tagli, nonché in altre attività impattanti il naturale funzionamento del bosco, una risposta necessaria ed efficace per rilanciare l’economia montana e allo stesso tempo perseguire  la mitigazione dei cambiamenti climatici  e la lotta al dissesto idrogeologico. Sussistono seri dubbi sul fatto che questa possa essere la via di uno sviluppo sostenibile!

Facebooktwittergoogle_pluslinkedinmail

Il Tempo sarà sempre il Tempo… ma il clima no!

Posted by on 12:10 in Attualità, Climatologia, Meteorologia | 5 comments

Il Tempo sarà sempre il Tempo… ma il clima no!

C’è una cosa tra tutte quelle che si possono immaginare che differenzia le previsioni del tempo da quelle del clima, specie se queste ultime sono a lungo, lunghissimo termine, ed è estremamente semplice ed intuibile: le prime si possono (e si devono!) facilmente verificare, le seconde no. Ergo, visto che i limiti previsionali del sistema che le accoglie entrambe, identificabile semplicemente con l’interazione terra-aria-acqua che distingue il pianeta, sono evidenti, perché qualcuno possa credere che prevedere il clima da qui a qualche decennio sia un esercizio utile, è necessario che le die cose siano scisse nel sentire comune. Già, perché altrimenti anche i non addetti ai lavori si renderebbero conto che avendo difficoltà a prevedere con efficacia, per esempio, se cadrà la neve anche a Roma appena tra 48 ore, pretendere di sapere cosa succederà tra decine di anni è assurdo, quindi assolutamente inutile.

In qualche modo questo argomento lo abbiamo sfiorato già qualche giorno fa, proponendo la lettura di un bell’articolo in cui si parlava del limite della predicibilità del tempo atmosferico imposto dalla natura caotica del sistema, ove per caotica non si intende affatto confusa o casuale, quanto piuttosto indissolubilmente legata all’esatta conoscenza delle condizioni iniziali, una conoscenza che, pur con tutti i progressi tecnologici degli ultimi anni, siamo decisamente lontani dall’avere.

Questo mi è venuto in mente leggendo un articolo rilanciato di recente da Eurekalert: Weather should remain predictable despite climate change e uscito sulla pagina delle news dell’università del Missouri, negli USA, corredato di un video in cui gli autori dello studio cui si riferisce la notizia ne spiegano i contenuti.

In sostanza, scrivono e spiegano, nonostante la tendenza del clima a cambiare, l’attendibilità delle previsioni del tempo non dovrebbe subire modifiche, quindi, pazzo o meno che possa essere il clima, saremo comunque nella possibilità di sapere se farà bello o pioverà.

Gli autori dello studio sono giunti a questa conclusione studiando l’andamento di un parametro che dovrebbe dare informazioni sulla periodicità con cui varia nel breve termine il comportamento della corrente a getto, nella fattispecie quella polare, ovvero il flusso d’aria che scorre in quota al limite superiore della Tropopausa nella zona di separazione tra le masse d’aria che caratterizzano la circolazione generale dell’atmosfera. L’andamento del parametro di controllo, pare restituisca una modalità di cambiamento della corrente a getto con periodo di 12-15 giorni, una frequenza che avrebbero ritrovato anche nelle dinamiche atmosferiche previste dai modelli climatici spinti fino alla metà di questo secolo. Ergo, dal momento che la previsione del tempo è fortemente dipendente dalla capacità di prevedere il comportamento della corrente a getto e se questa non cambierà sostanzialmente il suo ritmo nei prossimi 20-30 anni, dovremmo comunque essere in grado di prevedere il tempo come lo facciamo ora.

Il discorso è interessante, ma a mio parere omette di affrontare il tema nella giusta prospettiva. Innanzi tutto, data la nota incapacità dei modelli climatici di riprodurre fedelmente il sistema, analizzare il comportamento di una qualsiasi delle variabili che lo compongono, compresa la corrente a getto che tra le altre cose scaturisce dalla somma di molte di esse, ha davvero poco senso. Per fare un esempio, i modelli climatici stagionali prevedevano per questa stagione invernale delle consistenti anomalie positive della temperatura e della pressione atmosferica sull’Eurasia e sul Nord America; a fine stagione, dopo un gennaio gelido negli USA, mite in Europa e gelido sull’Asia, e dopo un febbraio-marzo glaciale sull’Asia, freddo in Europa e temperato sugli USA, il bilancio sarà probabilmente neutro o negativo. Ergo, le previsioni climatiche avranno clamorosamente fallito anche a soli 2-3 mesi di distanza. Scrutarne i contenuti a un anno, 5, 10 o 20 è una perdita di tempo.

Tuttavia, il problema è ben diverso. Per capirlo occorre un altro esempio. L’affidabilità dei modelli atmosferici per le previsioni del tempo, è cresciuta al ritmo di un giorno considerato utile ogni dieci anni di lavoro, ossia, se agli albori della modellistica, soli 30 anni fa, si potevano guardare con una certa confidenza le previsioni a 3 giorni, ora siamo nella possibilità di fidarci allo stesso modo di quelle a 6 giorni, laddove seppur disponibili le previsioni a 10-15 giorni sono notoriamente inutilizzabili. Questo progresso è stato frutto del miglioramento enorme della capacità di calcolo, della conoscenza della fisica del sistema e, soprattutto della capacità di osservazione, ovvero della composizione della situazione iniziale, da cui l’evoluzione del sistema è indissolubile.

Ed eccoci tornati al punto di partenza di questo commento. Nel futuro a breve, medio e lungo termine, saranno ancora il progresso tecnologico nel calcolo, il miglioramento della conoscenza della fisica del sistema (pensiamo ai processi fisici e chimici delle nubi per esempio) e la possibilità di disporre di osservazioni di buona qualità che coprano l’intera superficie terrestre a fare la differenza nell’attendibilità delle previsioni. Una capacità che potrà venire soltanto da un sistema di osservazioni satellitari completo e affidabile supportato da una solida rete a terra che ne consenta la taratura senza soluzione di continuità. Cose queste che ancora non abbiamo.

Ecco, più che cercare di capire se in un clima la cui tendenza ad essere diverso da quello che è sempre stato è tutta da dimostrare saremo ancora in grado di fare previsioni, è a quello che abbiamo descritto sopra che si deve lavorare oggi per avere delle buone previsioni domani, perché la Luna, nonostante tutto, sarà sempre dopo il dito ;-).

Related Posts Plugin for WordPress, Blogger...Facebooktwittergoogle_pluslinkedinmail
Translate »