Climate Lab – Fatti e Dati in Materia di Clima

Tra la fine del 2015 e l’inizio del 2016, poco dopo la fine della COP21 di Parigi, abbiamo messo a punto un documento pubblicato nella sua interezza (e scaricabile qui in vari formati) con il titolo “Nullius in Verba, fatti e dati in materia di clima”. L’idea è nata dall’esigenza di far chiarezza, ove possibile e nei limiti dell’attuale conoscenza e letteratura disponibili, in un settore dove l’informazione sembra si possa fare solo per proclami, quasi sempre catastrofici.

Un post però, per quanto approfondito e per quanto sempre disponibile per la lettura, soffre dei difetti di tutte le cose pubblicate nel flusso del blog, cioè, invecchia in fretta. Per tener vivo un argomento, è invece necessario aggiornarlo di continuo, espanderlo, dibatterle, ove necessario, anche cambiarlo. Così è nato Climate Lab, un insieme di pagine raggiungibile anche da un widget in home page e dal menù principale del blog. Ad ognuna di queste pagine, che potranno e dovranno crescere di volume e di numero, sarà dedicato inizialmente uno dei temi affrontati nel post originario. Il tempo poi, e la disponibilità di quanti animano la nostra piccola comunità, ci diranno dove andare.

Tutto questo, per mettere a disposizione dei lettori un punto di riferimento dove andare a cercare un chiarimento, una spiegazione o l’ultimo aggiornamento sugli argomenti salienti del mondo del clima. Qui sotto, quindi, l’elenco delle pagine di Climate Lab, buona lettura.

  • Effetti Ecosistemici
    • Ghiacciai artici e antartici
    • Ghiacciai montani
    • Mortalità da eventi termici estremi
    • Mortalità da disastri naturali
    • Livello degli oceani
    • Acidificazione degli oceani
    • Produzione di cibo
    • Global greening

____________________________________

Contenuti a cura di Luigi Mariani e revisionati in base ai commenti emersi in sede di discussione e per i quali si ringraziano: Donato Barone, Uberto Crescenti, Alberto Ferrari, Gianluca Fusillo, Gianluca Alimonti, Ernesto Pedrocchi, Guido Guidi, Carlo Lombardi, Enzo Pennetta, Sergio Pinna e Franco Zavatti.

Analisi multi-scala dei cicli climatici basata su serie temporali climatiche e fenologiche

Posted by on 06:00 in Attualità, Climatologia | 0 comments

Analisi multi-scala dei cicli climatici basata su serie temporali climatiche e fenologiche

Lo sviluppo delle piante è fortemente influenzato dalle condizioni meteorologiche. Questo è un dato di fatto e la maniacale attenzione con cui il mondo dell’agricoltura segue la meteorologia, costituisce una conferma dello stretto legame tra evoluzione delle piante e tempo meteorologico. Chi si occupa della coltivazione dei campi ha un’idea diversa di “bel tempo” e “cattivo tempo” rispetto a chi vive in città: se una o più giornate di pioggia vengono considerate per esempio una iattura da chi vive in città per i disagi che possono provocare, per chi si dedica all’agricoltura possono rappresentare la salvezza del raccolto ed il degno coronamento di un’intera stagione di lavoro.

L’interazione tra lo sviluppo delle piante ed il tempo meteorologico costituisce il campo di studio della fenologia, ossia di quella parte della biologia che studia lo sviluppo delle piante in funzione di fattori meteorologici come la piovosità, l’insolazione, le temperature etc. Come ben sanno tutti i lettori di CM, il clima è diverso dal tempo meteorologico, ma, su distanze temporali trentennali, l’evoluzione della temperatura acquista valore climatologico e non più meteorologico. Lo stesso si può dire per tutte le altre grandezze fisiche che caratterizzano il sistema. A questo punto appare evidente che i dati fenologici relativi ad una certa coltura, se coprono un intervallo temporale piuttosto esteso, potrebbero rappresentare degli ottimi dati di prossimità per studiare l’evoluzione del clima in aree più o meno estese. Io ho parlato di evidenza, ma questa evidenza è anche evidenza scientifica o si tratta di una semplice ipotesi, frutto di un ragionamento più o meno sensato? Per poter parlare di evidenza scientifica occorre verificare con dei dati l’ipotesi e questo è ciò che hanno fatto L. Mariani e F. Zavatti con uno studio estremamente interessante, i cui risultati sono stati pubblicati on-line dalla rivista Science of the Total Environment nell’articolo il cui titolo è qui sotto (da ora in avanti Mariani et al., 2017).

Multi-scale approach to Euro-Atlantic climatic cycles based on phenological time series, air temperatures and circulation indexes

In Mariani et al., 2017 si analizzano tredici serie di dati climatici e fenologici allo scopo di individuare ciclicità caratteristiche del clima europeo ed atlantico a diverse scale temporali. Di esse sei sono costituite da dati climatici: indice AMO, indice NAO, anomalie europee di temperatura o ETA, una serie di temperature misurate in Francia, una serie di temperature misurate in Svizzera ed una serie di misure di precipitazioni rilevate in Germania. Le restanti sette serie di dati sono riferite a fattori fenologici: la data di fioritura dei ciliegi in Svizzera e le date di vendemmia in diverse aree della Francia e dell’Italia (la Valtellina per la precisione).

L’indice AMO è determinato sulla base delle temperature superficiali dell’Atlantico settentrionale e la serie temporale presa in esame copre l’intervallo che va dal 1857 al 2015. L’indice NAO che è derivato dalla differenza di pressione tra l’Atlantico del nord e quello all’altezza delle isole Azzorre, viene misurato fin dal 1827. Entrambi gli indici sono estremamente importanti in quanto si influenzano a vicenda e sono in grado di determinare le correnti occidentali che condizionano la circolazione a macro scala nell’area atlantica.

Le anomalie delle temperature europee (ETA) coprono un intervallo temporale ancora più lungo: partono, infatti, dal 1660 e giungono fino al 2010. La serie è quella che compare in alto a destra nella home page di CM. Le altre due serie termometriche hanno lunghezza plurisecolare. La serie di precipitazioni presa in esame da Mariani et al., 2017 è quella della bassa Bavaria ed è stata ricostruita sulla base di analisi dendrologiche condotte su abeti rossi. Essa copre l’intervallo temporale compreso tra il 1480 ed il 1978. Le serie fenologiche riguardano periodi temporali variabili che vanno dal 1354 ai giorni nostri.

Nel corso della storia umana alcune tipologie di coltura hanno rivestito grande importanza. Un esempio è costituito dalla coltivazione della vite. Negli annali delle aree ove la vite ha rappresentato una delle principali fonti di sostentamento per intere popolazioni, è possibile risalire alle date di inizio e fine della vendemmia. In alcuni casi le date sono registrate in modo diretto, in altri tale data si può desumere dai registri di acquisto delle derrate destinate ai vendemmiatori e dalle date di assunzione dei lavoratori. La data di inizio della vendemmia dipende da diversi fattori. Il principale è costituito dal contenuto zuccherino degli acini. Questo dipende, a sua volta, dalle temperature primaverili ed estive, dal quantitativo di pioggia e, ovviamente, dalle caratteristiche del suolo. Per secoli i viticoltori europei hanno coltivato le stesse varietà di vite per cui le date di inizio della vendemmia rappresentano un potenziale dato di prossimità per stimare l’evoluzione del clima europeo. Mariani et al., 2017 ha analizzato questi dati tenendo conto anche di singolarità che ne hanno alterato l’omogeneità. Uno di questi eventi è rappresentato dalla comparsa in Europa della fillossera e di alcune fitopatologie fungine che hanno alterato il comportamento dei vitigni.

Mariani et al., 2017 indaga due “catene causali”:

  • MCTP (Macroscale Circulation => Temperature => Phenology)
  • MCPP (Macroscale Circulation => Precipitation => Phenology)

Lo scopo è quello di verificare se la circolazione a macro scala determinata dagli indici AMO, NAO ed ENSO sia in grado di influenzare la temperatura e le precipitazioni e queste ultime, a loro volta, la fenologia dei vegetali. Per poter verificare l’esistenza delle catene causali anzidette, Mariani et al., 2017 ha cercato di individuare nelle serie termometriche ed in quelle delle precipitazioni alcuni caratteri distintivi tipici degli indici circolatori. La stessa cosa è stata fatta, infine, per i dati fenologici.

Le serie di dati come quelle prese in esame dagli autori, non possono essere confrontate in modo diretto in quanto sono molto rumorose: le oscillazioni ad alta frequenza mascherano ogni forma di regolarità con frequenza più bassa. Si rende necessario pertanto sottoporle a trattamenti statistici che eliminino il rumore ad alta frequenza e consentano di isolare segnali a frequenza inferiore. Si tratta di metodiche di analisi spettrale piuttosto complesse che consentono, però, di ottenere dei risultati rilevanti.

Mariani et al., 2017 ha applicato alle serie di dati studiate che presentano una sostanziale continuità temporale, il metodo della massima entropia (MEM), mentre per le serie che presentano delle lacune e/o delle discontinuità, si è stato utilizzato il metodo Lomb-Spargle Periodogram (LOMB).

Sulla scorta delle elaborazioni numeriche eseguite, opportunamente verificate mediante test statistici atti ad escludere eventuali ipotesi nulle, si è potuto accertare che tanto nelle serie fenologiche che in quelle climatiche, possono essere individuati alcuni periodi particolari.

Mariani et al., 2017 ha potuto verificare che

  • il periodo di 65 anni è presente nel 58% delle serie prese in considerazione;
  • il periodo di 24 anni è presente nel 58% delle serie prese in considerazione;
  • il periodo di 20,5 anni è presente nel 58% delle serie prese in considerazione;
  • il periodo di 13,5 anni è presente nel 50% delle serie prese in considerazione;
  • il periodo di 11,5 anni è presente nel 58% delle serie prese in considerazione;
  • il periodo di 7,7 anni è presente nel 75% delle serie prese in considerazione;
  • il periodo di 5,5 anni è presente nel 58% delle serie prese in considerazione;
  • il periodo di 4,1 anni è presente nel 58% delle serie prese in considerazione;
  • il periodo di 3 anni è presente nel 50% delle serie prese in considerazione;
  • il periodo di 2,4 anni è presente nel 67% delle serie prese in considerazione.

Messa così la cosa si riduce ad un semplice esercizio statistico, ma i dati ottenuti consentono di sviluppare delle considerazioni piuttosto interessanti da un punto di vista climatico.

L’aspetto a mio giudizio più importante di Mariani et al., 2017 è che i dati fenologici contengono al loro interno importanti informazioni relative all’evoluzione del clima nel corso del tempo. Detto in altri termini le serie fenologiche possono essere considerate efficaci dati di prossimità delle grandezze che caratterizzano il clima. Le implicazioni dello studio di L. Mariani e F. Zavatti sono, però, molto più profonde.

Prendiamo in considerazione, per esempio, il periodo di 65 anni. Esso è presente nella serie dell’indice AMO, ma non in quella dell’indice NAO, nella serie termometrica di Parigi e nel giorno di inizio della vendemmia in Borgogna. Possiamo dire che il periodo di 65 anni verifica la catena causale MCTP. Analogo discorso vale per gli altri periodi indagati. Il periodo di 7,7 anni è presente in quasi tutte le serie di dati prese in esame per cui è un forte indicatore dell’influenza della circolazione a macroscala sulle temperature e sulla fenologia vegetale. Tale periodo è guidato, secondo gli autori, da una combinazione di AMO e NAO e rappresenta, quindi, un forte indizio dei legami tra la circolazione a macroscala e gli aspetti termici e fenologici delle aree considerate.

Altro aspetto estremamente significativo di Mariani et al., 2017 è rappresentato dall’assenza di particolari legami tra la serie delle precipitazioni e gli indici di circolazione a macroscala. Le precipitazioni non mostrano, inoltre, periodi comuni con le serie fenologiche per cui dobbiamo dedurre che la catena causale MCPP non appare giustificata dai dati. Le motivazioni di questa mancanza di legami tra le serie devono essere ricercati, a giudizio dei ricercatori, nella peculiarità delle precipitazioni in area europea che sono fortemente condizionate dalla circolazione a mesoscala più che da quella a macroscala e dal fatto che le caratteristiche del terreno sono in grado di “tamponare” gli effetti delle precipitazioni alterando i periodi propri delle precipitazioni.

E per finire è opportuno considerare che l’esistenza dei periodi più brevi (2,4, 3 e 4,1) evidenza un legame con i periodi propri delle aree tipiche dell’ENSO. Dall’analisi dei dati sembrerebbe, quindi, che esistano delle chiare teleconnessioni anche tra ENSO e le condizioni meteo-climatiche europee.

In questo commento mi sono limitato a riassumere quelli che possono essere considerati a mio giudizio gli aspetti salienti di Mariani et al., 2017, ma l’articolo presenta molti altri aspetti meritevoli di approfondimento e che lo spazio di un post non consente di porre opportunamente in evidenza. A titolo puramente esemplificativo e non esaustivo vorrei citare l’analisi comparata delle cause giustificative dell’assenza di alcuni periodi da alcune serie e della loro presenza in altre che io, per esigenze di sintesi, ho completamente trascurato, ma che nell’articolo sono molto ben argomentate.

Facebooktwittergoogle_pluslinkedinmail

Le cause della pausa nel riscaldamento globale

Posted by on 06:41 in Attualità, Climatologia | 8 comments

Le cause della pausa nel riscaldamento globale

In un recente post G. Guidi ha segnalato un interessante articolo, pubblicato su Nature Climate Change. in cui C. Hedemann, T. Mauritsen, J. Jungclaus e J. Marotzke (da ora in avanti Hedemann et al., 2017) analizzano una possibile spiegazione della pausa nel riscaldamento del clima terrestre, verificatasi nel corso della prima decade del 21° secolo.

The subtle origins of surface-warming hiatuses

Giusto per ricordarlo a me stesso, la pausa o iato è stato un fenomeno piuttosto controverso che ha agitato le acque della climatologia nel corso degli ultimi anni: il trend di aumento delle temperature superficiali terrestri è diminuito rispetto agli anni precedenti per cui sembrava scricchiolare il principale assunto dell’AGW: maggiore concentrazione di diossido di carbonio atmosferico => maggiore aumento delle temperature superficiali terrestri.

La pausa è stata riconosciuta come un fatto reale da molti ricercatori e, in modo alquanto sfumato, anche da IPCC che ha rivisto al ribasso i valori della Sensibilità Climatica all’Equilibrio; mentre molti altri ricercatori non hanno mai riconosciuto l’esistenza della pausa anzi ne hanno negato l’esistenza come nel caso di Karl et al., 2015. Le spiegazioni del fenomeno sono state molte, ma nessuna soddisfacente per cui, ad un certo punto, i ricercatori sembrava che avessero deciso di dedicarsi ad altro. Ciò anche in considerazione del fatto che con il forte El-Nino 2015 la pausa poteva considerarsi un fatto superato. Mi è parso strano, quindi, che un nuovo lavoro scientifico sull’argomento venisse pubblicato in questi giorni, per cui ho cercato di approfondire l’argomento, scoprendo molte cose interessanti (almeno per me, ovviamente).

Hedemann et al., 2017 non è liberamente accessibile, per cui ho potuto leggere solo l’abstract, i materiali supplementari, studiare i grafici di cui alle figure 1, 2 e 3 dell’articolo ed il commento sul sito del Max Plank Institut fur Meteorologie cui l’autore principale è associato. Molto interessante mi è parso il grafico di fig. 1 in quanto riassume in modo estremamente efficace l’andamento del trend di variazione della temperatura terrestre calcolato su un intervallo temporale standard di 15 anni. In altri termini il grafico rappresenta “l’accelerazione” delle anomalie termiche. Nel seguito riporto il grafico tratto dalla figura 1 di Hedemann et al., 2017 (qui la fonte).

E’ un grafico piuttosto complesso che richiede più di qualche parola per essere descritto in modo comprensibile. Il grafico rappresenta il trend delle Temperature Medie Superficiali Terrestri (GMST) espresso in gradi centigradi per decade nel corso degli anni. Esso è stato ottenuto come ensemble di 100 termini del modello matematico accoppiato oceano-atmosfera MPI-ESM1.1. La parte fino al 2000 è stata forzata in base all’andamento delle temperature reali, quella successiva ipotizzando le condizioni previste dallo scenario di emissioni RCP 4.5 (lo scenario prevede una riduzione delle emissioni rispetto a quelle attuali). Le zone colorate del grafico sono rappresentative del numero di membri dell’ensemble (più scuro maggior numero di membri, più chiaro, minor numero di membri). La curva in grigio rappresenta il membro minimo dell’ensemble, mentre quella blu rappresenta la media dell’ensemble e, quindi, la temperatura attesa nel corso degli anni compresi tra il 1850 ed il 2015.

La curva rossa rappresenta la “definizione di iato” o di pausa che dir si voglia ed è stata costruita mediante una traslazione della curva blu verso il basso di un vettore, con direzione verticale, il cui modulo è pari alla differenza tra il valore del trend misurato nel periodo 1998-2012 (croce gialla) e quello previsto dai modelli (croce nera) sempre nello stesso periodo. In tal modo si è definita una curva formata dai punti che, potenzialmente, individuano uno iato uguale a quello verificatosi nella prima decade del 21° secolo. Il valore della differenza tra il trend rappresentato dalla croce nera e quello rappresentato dalla croce gialla, è pari a 0,17°C per decade. Conoscere questo dato non è importante per capire il ragionamento degli autori, ma rappresenta un utile completamento del discorso, in quanto consente di avere un’idea della differenza tra quello che prevedono i modelli e quello che accade in realtà. E’ solo un inciso, ma credo che esso sia importante in un discorso più generale sulle performance dei modelli matematici e della climatologia in genere.

Gli autori definiscono pausa o iato un periodo durante il quale il membro minimo dell’ensemble si posiziona al di sotto della curva rossa. Questo significa che il trend delle temperature decadali è inferiore di 0,17°C per decade rispetto a quanto atteso e, quindi, ci troviamo di fronte ad uno iato maggiore o uguale a quello sperimentato dopo il 2000. Sulla base di quanto sono riuscito a capire dai documenti, tra il 1850 ed i giorni nostri sono stati sperimentati ben 364 periodi in cui la tendenza delle variazioni delle temperature medie superficiali è stata uguale o inferiore a quella dell’ultima pausa cioè -0,17°C per decade.

Hedemann et al., 2017 considera due possibili spiegazioni  per la pausa: un maggior riscaldamento degli oceani o un maggior flusso di calore che esca dall’atmosfera. Del resto se consideriamo il sistema climatico come una macchina termica e la temperatura superficiale una variabile che ne quantifica lo stato, la variazione della temperatura media superficiale può essere dovuta, stante la costanza del flusso di energia in entrata, o ad una variazione del contenuto di calore oceanico, oppure ad una variazione dell’energia emessa dal sistema attraverso la sua frontiera atmosferica che poi altro non è che il TOA. Ovviamente la causa potrebbe benissimo essere una combinazione di entrambe.

La fig.3 dell’articolo è fortemente esplicativa di quanto ho fin qui esposto e di quanto scriverò in seguito. Se consideriamo i flussi di calore da e verso l’oceano e quelli in uscita dal TOA, possiamo valutare l’anomalia tra quanto ci aspettiamo sulla base dei modelli e quanto misuriamo. Hedemann et al., 2017 hanno calcolato tanto le anomalie del contenuto di calore oceanico che quelle radiative al TOA ed hanno costruito un diagramma in cui hanno rappresentato il contributo allo iato della variazione del contenuto di calore oceanico e quello dello sbilanciamento radiativo al TOA. Il calcolo delle anomalie è esemplificato a pagina 2 (fig. 1) dei materiali supplementari e nelle pagine successive viene illustrato il complesso processo statistico con cui vengono quantificati i contributi dello squilibrio radiativo al TOA e delle variazioni del contenuto di calore degli oceani ai vari periodi di pausa individuati dagli autori dello studio.

Analizziamo la figura 3 di Hedemann et al., 2017. Notiamo che per tutti i periodi di pausa confrontabili con quello del 21° secolo, abbiamo avuto sia un contributo radiativo che di variazione del contenuto di calore oceanico. Gli autori hanno potuto calcolare che oltre il 70% dei periodi di pausa è stato determinato esclusivamente o con un sostanziale contributo dallo squilibrio radiativo al TOA. Altro aspetto degno di rilievo è che le pause sono determinate, contrariamente a quanto si pensava, da piccolissime variazioni nel flusso di calore dall’oceano all’atmosfera o dall’atmosfera allo spazio. La cosa è di fondamentale importanza in quanto le tecniche di misura dello squilibrio radiativo al TOA e del flusso di calore dall’oceano all’atmosfera NON consentono di misurare tali flussi di energia con sufficiente precisione, quindi, allo stato attuale dell’arte, siamo del tutto incapaci di stabilire la causa delle pause nel trend delle variazioni delle temperature superficiali medie globali. L’entità delle divergenze di flusso in grado di determinare le pause, sono, infine, talmente piccole da rientrare nella variabilità naturale del sistema. E con questo Hedemann et al., 2015 hanno assestato un bel colpo a chi crede che gli esseri umani abbiano completamente capito come funziona il sistema climatico terrestre e che restano da definire solo i dettagli.

Voglio, ora, svolgere alcune considerazioni che esulano un poco dal focus della ricerca di Hedemann e colleghi.

Credo che si sia capito che il lavoro commentato è basato quasi esclusivamente su elaborazioni di dati desunti da modelli matematici e di rianalisi, per cui ci troviamo di fronte a quelli che si chiamano “dati sisntetici”. Se ipotizziamo, però, che i modelli sono in grado di simulare il clima che cambia (come del resto fanno da decenni i ricercatori ed i decisori politici), possiamo fare alcune considerazioni circa le tendenze delle variazioni decadali delle temperature terrestri medie globali.

Tutte le considerazioni che seguono sono fatte con riferimento alla curva rossa che rappresenta “la definizione di iato”, ma valgono anche per la curva blu a meno di una semplice traslazione di 0,17°C per decade.

Guardando il grafico si nota come, a partire dal 1850, la tendenza della variazione delle temperature medie superficiali (da ora in poi deltaT per semplicità) vari in modo piuttosto bizzarro nel tempo.

  • Dal 1850 al 1860 (circa) deltaT  è cresciuto in maniera costante. Nel ventennio successivo deltaT è diminuito in modo non costante: ad una prima riduzione graduale ha fatto seguito una variazione repentina del trend che da -0,05°C per decade è passato a -0,35°C per decade.
  • Dalla metà degli anni settanta del 1800 il deltaT è cresciuto costantemente passando da -0,35°C per decade a +0,05°C per decade: un riscaldamento globale ruggente con i fiocchi.
  • In una decina d’anni il deltaT è tornato a diminuire oscillando tra circa -0,15° C per decade e -0,05°C per decade. Questo fino agli anni ’50 del secolo scorso, quando il deltaT ha cominciato a registrare un’altra serie di brusche oscillazioni. In un decennio (1945-1955) il deltaT è passato da -0,15° C per decade a -0,20°C per decade. Nel decennio successivo il deltaT è cresciuto fino ad arrivare allo zero e, tra alti e bassi, esso ha oscillato intorno a -0,05°C per decade fino alla fine degli anni ottanta del 20° secolo.
  • In quegli anni il trend ha iniziato a salire raggiungendo il picco di 0,20°C per decade intorno al 1990. Dopo il 1990 il deltaT è diminuito fino ad azzerarsi intorno al 2000. Detto in altri termini le temperature globali sono sempre cambiate e con tassi di variazione sempre diversi l’uno dall’altro.

Di fronte ad un grafico del genere si fa molta fatica ad imputare le variazioni del trend decadale di variazione delle temperature alla sola CO2, in quanto la sua concentrazione atmosferica è aumentata in modo monotono durante tutta l’era industriale, per cui appare logico tener conto di una variabilità interna al sistema che genera queste oscillazioni.

Questo grafico, per quel che mi riguarda, è una pietra tombale sull’ipotesi che il sistema sia guidato solo ed esclusivamente dalla CO2 in quanto DEVE esistere una variabilità interna al sistema di cui, oggi come oggi, non si tiene conto o la si considera del tutto secondaria rispetto al ruolo delle cause antropiche. Detto in altri termini resta grande come un macigno il quesito: quanta parte dell’ultimo riscaldamento è imputabile all’uomo e quanta parte alla variabilità interna al sistema? Evitare di rispondere a questo quesito, sulla scorta di posizioni ideologiche è negare la scienza. La scienza non pensa, infatti, fa ipotesi da sottoporre a verifica sperimentale. Ed il lavoro di Hedemann et al., 2017 va in questa direzione.

Facebooktwittergoogle_pluslinkedinmail

Il Riscaldamento dell’Artico e gli eventi estremi, il verdetto non c’è

Posted by on 06:00 in Attualità, Climatologia, Meteorologia | 3 comments

Il Riscaldamento dell’Artico e gli eventi estremi, il verdetto non c’è

No, per dirla come gli autori di un interessante articolo che fa il punto sullo stato dell’arte della conoscenza sulla relazione causale tra il riscaldamento dell’Artico, la giuria è ancora fuori dall’aula.

Nella trasposizione nel mondo reale del riscaldamento globale e suoi derivati, primo tra tutti il disfacimento climatico, gli effetti reali, presunti o previsti sul tempo di tutti i giorni sono un argomento topico. Nessuno, tranne chi fa ricerca sul clima, sarebbe in grado di accorgersi del clima che cambia se questo fosse riferito – come in effetti è – al solo aumento di 0,8 decimi di grado della temperatura media globale. Perché tutto questo diventi tangibile devono essere più forti le piogge, più insopportabile il caldo, più rigido il freddo etc etc. Ma quanto di tutto ciò è realmente attribuibile al cambiamento piuttosto che alla intrinseca variabilità naturale del sistema? E, questa attribuzione, può trovare la sua origine nei cambiamenti che avvengono nell’Artico?

Può effettivamente l’amplificazione artica – il fatto cioè che le alte latitudini settentrionali si scaldano di più del resto dell’emisfero – avere effetti sul motore del tempo atmosferico, la corrente a getto, e quindi averne sul tempo osservato?

Il riscaldamento dell’Artico e la conseguente perdita di massa glaciale, hanno già avuto effetti sulle condizioni atmosferiche delle medie latitudini?

Queste dinamiche, se possono essere distinguibili dalla variabilità naturale, a prescindere dal fatto che possano già avere avuto un effetto tangibile, potranno giocare un ruolo significativo in futuro?

Queste le tre domande che si sono posti gli autori di questo articolo:

The impact of Artic warming on the midlatitude Jet Stream: Can it? Has it? Will it?

Con riferimento alla prima domanda, l’unica indagine possibile deve essere condotta con approcci di tipo modellistico, tentando di modulare le variabili in gioco per valutarne l’effetto. In letteratura, il risultato di questo approccio è molto incerto. Due gli elementi di incertezza fondamentali: l’ampiezza degli effetti del riscaldamento, pur confermandone il ruolo, è minimale rispetto alla potenza del segnale della variabilità naturale. I risultati delle simulazioni, inoltre, sono largamente discordanti.

La seconda domanda. La posizione media del getto può variare anche di 10° di latitudine tra una stagione e l’altra. Ancora una volta, l’analisi della letteratura disponibile non consente di identificare un segnale chiaro con riferimento al passato. La conclusione cui giungono gli autori è che quello che abbiamo visto negli ultimi anni è semplicemente il risultato di quello che il sistema, con o senza il riscaldamento dell’Artico e la perdita di massa glaciale, ha in serbo per noi.

E infine il futuro, scuro per definizione. Ma non in quanto cupo, quanto piuttosto perché imperscrutabile. Facendo correre i modelli climatici ritenuti più validi, si scopre che nella maggior parte dei casi questi prevedono uno spostamento verso nord della corrente a getto in tutte le stagioni tranne che in inverno, mentre i modelli forzati con l’evoluzione reale delle temperature e della massa glaciale nell’Artico individuano uno shift verso sud della corrente a getto. Bene, un getto più a nord è tipicamente associato con meno frequenti situaizoni di blocco e meno frequenti eventi intensi, ossia il contrario di quanto prospettato come relazione causale tra il riscaldamento dell’Artico e gli eventi estremi. Infine, le dinamiche dell’Artico sono uno degli elementi da considerare e la loro influenza sul tempo atmosferico delle media latitudini non è lineare, quanto piuttosto condizionata da altri numerosi fattori.

Torniamo quindi dove abbiamo iniziato con qualche ragione in più per giustificare l’assenza di un verdetto. Interessante, occorrerà ricordarsene laprossima volta che qualcuno emetterà una sentenza senza appello.

Facebooktwittergoogle_pluslinkedinmail

Un Mese di Meteo – Marzo 2017

Posted by on 06:00 in Attualità, Climatologia, Commenti mensili, Meteorologia | 0 comments

Un Mese di Meteo – Marzo 2017

IL MESE DI MARZO 2017[1]

Mese caratterizzato dal predominio di promontori anticiclonici atlantici con piovosità ridotta accompagnata da anomalie termiche positive su gran parte dell’area.

La carta media mensile del livello di pressione di 850 hPa (figura 5) mostra l’area italiana  interessata da un promontorio da Ovest dall’anticiclone delle Azzorre. In tali condizioni hanno prevalso condizioni di stabilità, temporaneamente interrotte dal transito di 6 perturbazioni per lo più di debole entità.

Trattandosi di un mese di norma caratterizzato dal prevalere di condizioni di variabilità perturbata tipiche della primavera si tratta di una situazione anomala come attesta il quadro delle precipitazioni, risultate anomalmente ridotte su gran parte dell’area. A ciò si è accompagnata una diffusa anomalia termica positiva, da debole a moderata.

Figura 5 – 850 hPa – Topografia media mensile del livello di pressione di 850 hPa (in media 1.5 km di quota). Le frecce inserire danno un’idea orientativa della direzione e del verso del flusso, di cui considerano la sola componente geostrofica. Le eventuali linee rosse sono gli assi di saccature e di promontori anticiclonici.

Tabella 1 – Sintesi delle strutture circolatorie del mese a 850 hPa (il termine perturbazione sta ad indicare saccature atlantiche o depressioni mediterranee (minimi di cut-off) o ancora fasi in cui la nostra area è interessata da correnti occidentali con variabilità perturbata).
Giorni del mese Fenomeno
1-2 marzo Regime di correnti occidentali con attività temporalesca sull’Italia peninsulare il giorno 1 (perturbazione n. 1).
3-4 marzo Sul centro-nord transita una saccatura atlantica (perturbazione n. 2).
5-6 marzo Flusso ondulato occidentale con variabilità a tratti perturbata.
7-8 marzo Sul settentrione regime favonico. Sull’Adriatico sviluppo di una depressione mediterranea (perturbazione n. 3) che nel successivo moto verso sudest raggiunge lo Ionio il giorno 8.
9-11 marzo Sul settentrione si afferma un promontorio anticiclonico da sudovest. La depressione ionica si porta sull’Egeo e influenza il settore ionico.
12-16 marzo Un promontorio anticiclonico da ovest interessa l’area italiana.
17-19 marzo L’arretramento dell’anticiclone espone le nostre regioni a un debole regime di correnti da nordovest.
20-22 marzo Campo di pressioni livellate. La Sicilia è marginalmente influenzata da una depressione africana centrata sulla Tunisia e in lento moto verso est (perturbazione n. 4).
23-26 marzo Una depressione inizialmente sul Golfo di Biscaglia e in lento moto retrogrado verso ovest interessa marginalmente la nostra area (perturbazione n. 5).
27-28 marzo Campo di pressioni livellate con tempo stabile salvo variabilità residua sul meridione peninsulare e la Sicilia ove si assiste ad isolata attività temporalesca nei giorni 27 e 28 associata ad un debole saccatura da est (perturbazione n. 6).
29-31 marzo Il centro-nord è interessato da un promontorio da sudovest mentre una depressione dell’Egeo influenza marginalmente le regioni del versante ionico.

Andamento termo-pluviometrico

Per quanto concerne le temperature minime e massime mensili (figure 1 e 2) domina una anomalia positiva da debole a moderata su gran parte dell’area. La tabella delle temperature decadali (tabella 2) evidenzia che le anomalie delle minime sono state più rilevanti nella prima e terza decade al centro-nord e quelle delle massime sono state più sensibili al centro-nord.

Figura 1 – TX_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle massime del mese

Figura 2 – TN_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle minime del mese

(*) LEGENDA: Tx sta per temperatura massima (°C), tn per temperatura minima (°C) e rr per precipitazione (mm). Per anomalia si intende la differenza fra il valore del 2013 ed il valore medio del periodo 1988-2015. Le medie e le anomalie sono riferite alle 202 stazioni della rete sinottica internazionale (GTS) e provenienti dai dataset NOAA-GSOD. Per Nord si intendono le stazioni a latitudine superiore a 44.00°, per Centro quelle fra 43.59° e 41.00° e per Sud quelle a latitudine inferiore a 41.00°. Le anomalie termiche sono evidenziate con i colori (giallo o rosso per anomalie positive rispettivamente fra 1 e 2°C e oltre 2°C; azzurro o blu per anomalie negative rispettivamente fra 1 e 2°C e oltre 2°C) . Analogamente le anomalie pluviometriche percentuali sono evidenziate con i colori ( azzurro o blu per anomalie positive rispettivamente fra il 25 ed il 75% e oltre il 75%; giallo o rosso per anomalie negative rispettivamente fra il 25 ed il 75% e oltre il 75%) .

La carta delle anomalie pluviometriche (figura 4) evidenzia anomalie negative su quasi tutta l’area con la sola eccezione del nordovest, del Trentino e di parte della Toscana. L’anomalia decadale delle precipitazioni (tabella 2) è stata più sensibile nella seconda e terza decade.

Figura 3 – RR_mese – Carta delle precipitazioni totali del mese (mm)

Figura 4 – RR_anom – Carta dell’anomalia (scostamento percentuale rispetto alla norma) delle precipitazioni totali del mese (es: 100% indica che le precipitazioni sono il doppio rispetto alla norma).

___________________________________

[1]              Questo commento è stato condotto con riferimento alla  normale climatica 1988-2015 ottenuta analizzando i dati del dataset internazionale NOAA-GSOD  (http://www1.ncdc.noaa.gov/pub/data/gsod/). Da tale banca dati sono stati attinti anche i dati del periodo in esame. L’analisi circolatoria è riferita a dati NOAA NCEP (http://www.esrl.noaa.gov/psd/data/histdata/). Come carte circolatorie di riferimento si sono utilizzate le topografie del livello barico di 850 hPa in quanto tale livello è molto efficace nell’esprimere l’effetto orografico di Alpi e Appennini sulla circolazione sinottica. L’attività temporalesca sull’areale euro-mediterraneo è seguita con il sistema di Blitzortung.org (http://it.blitzortung.org/live_lightning_maps.php).

Facebooktwittergoogle_pluslinkedinmail

Se lo dice la NOAA…

Posted by on 06:00 in Attualità, Climatologia | 17 comments

Se lo dice la NOAA…

Beh, lo dice e basta. E ve lo riporto pari pari:

In conclusione, né le nostre proiezioni modellistiche per i 21° secolo, né le nostre analisi dei trend del numero degli uragani e delle tempeste tropicali in Atlantico negli ultimi 120 e più anni, supportano l’idea che il riscaldamento indotto dai gas serra possa portare ad un significativo aumento nel numero totale delle tempeste tropicali o degli uragani in Atlantico. I nostri studi modellistici prevedono un importante (circa 100%) aumento degli uragani atlantici di categoria 4-5 nel 21° secolo, ma stimiamo che questo aumento possa non essere distinguibile fino alla seconda metà del secolo.

Un interessante presa di posizione questa della NOAA. Lo spauracchio del clima (e del tempo ad esso correlato) già impazzito può, evidentemente attendere. E dovrà farlo almeno per qualche altra decade, se non per buona parte di questo secolo.

In particolare, c’è da sottolineare il fatto che in quanto osservato sin qui, negli anni del global warming ruggente, non è possibile distinguere alcun segnale di cambiamento che abbia un’ampiezza tale da non essere compreso nella normale variabilità di origine naturale di questi eventi, sia per numero che per intensità.

Ma, oltre al testo completo del documento, che comunque contiene alcuni irrinunciabili aspetti ansiogeni in termini futuristici a compensazione dello scarso tasso di catastrofismo di questa notizia, ci sono anche delle immagini piuttosto interessanti. In particolare quella qui sotto, alla quale pregherei di fare attenzione per intero, vale a dire andando a rintracciare quei piccoli segni verdi in basso a destra.

Fatto? Bene. Il verde, recita la legenda, rappresenta la proiezione elaborata con un modello ad alta risoluzione, idealmente più performante dei modelli climatici usati per i dati che riempiono il grafico. Nella proiezione ad alta risoluzione, l’intensità degli uragani in Atlantico, espressa dal Power Dissipation Index, è consistentemente più bassa di quanto prevedano invece tutti gli altri modelli, dei quali è assai nota l’incapacità di riprodurre con efficacia la dinamica di lungo periodo di questo genere di eventi.

Se poi, in alternativa all’indice PDI, volete saper com’è andata l’intensità degli uragani nelle ultime decadi, qui sotto c’è anche il grafico dell’ACE (Accumulated Cyclone Energy) che mostra chiaramente come non ci sia proprio nulla da mostrare, se non il fatto che mentre il clima idealmente impazziva, gli uragani inspiegabilmente rinsavivano.

Il documento della NOAA è qui.

Enjoy.

Facebooktwittergoogle_pluslinkedinmail

La moltitudine dei numeri scemi

Posted by on 06:00 in Attualità, Climatologia | 7 comments

La moltitudine dei numeri scemi

A volte ritornano, specie se non se ne sono mai andati, come l’exex futuro presidente degli Stati Uniti d’America, Al Gore, riscopertosi consulente finanziario del clima che cambia. Naturalmente con un unico cliente: se stesso.

E’ nelle sale (da Tè, non d’essay) il sequel della madre di tutte le Science Fiction, bollata già a suo tempo come a-scientifica dall’Alta Corte britannica. Non pago, l’uomo da molti milioni di verdissimi dollari, ha partorito un seguito che vorrebbe la “verità al potere”. Come non essere d’accordo, basta che il potere lo lasci lui e il risultato sarà acquisito.

Nell’attesa, godiamoci il teorema di questo rinnovato anatema globale:

La Brexit sarebbe la conseguenza delle tensioni in Europa causate dai conflitti mediorientali, a loro volta provocati dalla guerra in Siria, la cui origine starebbe in una forte migrazione interna causata dalla siccità che avrebbe colpito la Siria negli anni scorsi. Siccità che senza i cambiamenti climatici, non ci sarebbe mai stata.

Quindi al diavolo la bolla finanziaria immobiliare nel Paese che la sua parte politica governava, al diavolo i titoli derivati che hanno innescato la crisi, al diavolo la dittatura siriana e il Risiko che sempre la stessa parte politica ha giocato in Medio Oriente negli ultimi anni. La colpa è tutta dell’aria (per l’occasione fritta come quella del sequel in questione), che si ostina a cambiare come mai avrebbe fatto se non ci fossimo permessi il lusso di progredire… secondo lui.

Si accettano scommesse su primo media-vestale-del-clima Italiano che recensirà genuflesso quest’ultima raccolta di bufale scientifiche.

E la Siccità in Siria? Beh, se volete capire qualcosa sull’infondatezza delle affermazioni di Al Gore tornate a leggere il post che Luigi Mariani ha firmato su CM nel settembre del 2015, o la successiva analisi di Donato Barone, sempre per CM, nell’ottobre 2016. Tutto il resto è fuffa.

Facebooktwittergoogle_pluslinkedinmail

Gli Interglaciali tra 0 e 2.7 milioni di anni fa

Posted by on 06:00 in Attualità, Climatologia | 5 comments

Gli Interglaciali tra 0 e 2.7 milioni di anni fa

Riassunto: Si usano i dati tra 0 e 2.7 milioni di anni (Ma) fa riportati nell’importante articolo di Tzedakis et al. (2017) per vedere se andando indietro nel tempo si osserva la separazione tra i periodi di interglaciali da 41 e 100 ka (transizione del medio Pleistocene), separazione che non era stata osservata nei dati dei due precedenti post della serie. Si mette in evidenza che lo spettro del δ18O tra 1.5 e 2.7 Ma mostra il massimo principale a 41 ka, mentre i massimi a ~100, 72, 51 ka, pur essendo significativi al 99% (rumore bianco) sono di potenza molto bassa, in pratica lasciando a 41 ka il ruolo di periodo dominante. Lo spettro tra 0 e 2.7 Ma mostra invece che il periodi principali sono 41 e 100 ka. Lo spettro intermedio, tra 0.6 e 1.5 Ma evidenzia strutture a metà strada rispetto agli altri due. Si può pensare che il massimo a 100 ka sia frutto di una combinazione di altri massimi e non dell’influenza diretta dell’eccentricità orbitale.
Abstract: Data in the range 0-2.7 million years (Ma) BP, as reported in the Tzedakis et al. (2017) paper, have been used in order to verify if, going back in time, the separation among interglacial periods from 41 to 100 ka (also known as the Mid-Pleistocene Transition) can be put in evidence. Such separation could not be observed with the 0-800 ka data used in the two earlier post of the series. It is observed that the spectrum of the δ18O within the range 1.5-2.7 Ma, shows the main spectral peak at 41 ka, while the ones at ~100, 72, 51 ka have a very low spectral power, also if with a high 99% significance level (white noise). The spectrum computed over the entire range of 0-2.7 Ma shows the main periods are both 41 and 100 ka. The spectrum of the intermediate period 0.6-1.5 Ma outlines a half-way structure. The fact that the 100 ka spectral maximum can be some kind of mix of other peaks and not the direct influence of the orbital eccentricity should be also considered.

Introduzione e analisi
Dopo l’uscita su CM di due post precedenti (qui e qui) ho visto che a fine febbraio 2017 era uscito un lavoro di Tzedakis et al., 2017 (d’ora in poi T2017) sullo stesso argomento ma con l’analisi estesa fino a 2.7 Ma fa.

T2017 è a pagamento, ma ho scoperto una possibilità che descrivo in 02readme.html e che vorrei condividere con i lettori di CM che ancora non la conoscessero.

Il lavoro fatto da Tzedakis e colleghi è davvero notevole: in modo semplice sono in grado di distinguere gli interglaciali (IG) di tutto il Pleistocene dagli interstadiali (IS) e dagli interglaciali continui (CIG, IG che sembrano finire ma che poi riprendono vigore in una specie di continuità con il massimo che li precede. Quasi per definizione si trovano al confine tra IG e IS).

Intanto, in fig.1 (pdf) mostro la serie δ18O tra 0.6 e 2.7 Ma con l’indicazione degli interglaciali.

Fig.1: grafico degli interglaciali tra 0.6 e 2.7 Ma da δ18O bentonico. Questi dati, tratti da T2017, hanno il passo variabile di 2, 2.4, 2.5 ka lungo la serie). Le label in rosso nella parte superiore di ognuno dei grafici sono la codifica MIS degli interglaciali. Questa figura è simile alla figura 2 di T2017 nella quale però non compare l’IG che ho indicato con (105). Notare come l’escursione di δ18O appaia mediamente inferiore prima di (a destra di) 1.5 Ma fa. Questa è anche la data da cui T2017 ha ritenuto di dover calcolare la serie “detrended”.

Mostro solo parzialmente la serie 0-800 ka, già utilizzata nei due post precedenti e noto la presenza di un IG, che ho indicato tra parentesi come (105), a circa 2.63 Ma, che non risulta nella quasi equivalente figura 2 di T2017.
Dalla figura si nota che, da 2.7 a 1.5 Ma l’ampiezza complessiva delle successioni glaciale-interglaciale sembra inferiore rispetto a quella del periodo 0-1.5 Ma. Nello stesso periodo T2017 ha ritenuto di dover applicare un “detrending” dei dati.

Il modello utilizzato dagli autori si basa sull’energia efficace (effective, in inglese), derivata dal picco di insolazione estiva (in GJ/m2), definita come

E(Ipicco, Δt)=Ipicco+bΔt       (1)

con Ipicco picco di insolazione estiva a 65°N, Δt distanza (in ka) dalla deglaciazione precedente e b pendenza della

retta -in GJ/m2• ka- riportata nella loro figura 4.

Tutti i dati di T2017 sono disponibili nel sito di uno degli autori, Michel Crucifix, che si è occupato in modo specifico dell’analisi dati, del software e della graficazione. Ho scaricato tutti i dati e li uso per riprodurre i loro risultati. Il riferimento “dati di Crucifix” usato nel sito di supporto è quindi da intendere come “dati di T2017”. Con questi dati ho ricostruito la figura 5 di T2017 nella fig.2 (pdf), che mostra in modo inequivocabile la capacità del modello (1) di distinguere le successioni glaciale-interglaciale degli ultimi 2.7 milioni di anni, cioè di tutto il Pleistocene. I rari casi (3) “fuori dal coro” sono indicati con il loro codice MIS (Marine Isotope Stage) mentre il MIS 1 eil MIS 5e, l’Olocene e l’Eemiano, sono identificati solo come riferimento.

Fig.2: Riproduzione della fig.5 di T2017. Capacità del modello (1) di separare i vari tipi di “ambiente caldo”. La riga tratteggiata è stata calcolata dalla massima probabilità a posteriori del modello. Il tratto diagonale (rampa) corrisponde alla transizione del medio Pleistocene. I due interglaciali (IG, rosso. 59 e 63) e l’interglaciale continuo (CIG, nero, 7a) sono indicati con le rispettive sigle MIS. Nessun interstadiale (IS, azzurro) si trova al di là della riga di separazione. MIS 1 e 5e (in alto a sinistra) sono l’Olocene e l’Eemiano, indicati solo come riferimento.

La serie completa del δ18O è mostrata in fig.3 (pdf), insieme alla serie detrended da 1.5 a 2.7 Ma.

Fig.3: Andamento del δ18O tra 0 e 2.7 Ma. (nero) Originale, qui indicato come “smoothed” perché campionato su tre passi, da 2 a 2.5 ka rispetto all’1 ka usato nei post precedenti. (rosso) Detrended che inizia da 1.5 Ma fa. Rispetto alla fig.1, qui si nota meglio la diversa ampiezza delle oscillazioni dopo 1.5 Ma fa.

Si nota un lento ma costante declino del rapporto isotopico dall’inizio del Pleistocene a circa 0.6-0.7 Ma, poi una risalita debole -fino ai nostri giorni- o forse una fase quasi costante preceduta da un break-point (un cambiamento rapido) localizzabile sempre a 0.6-0.7 Ma.

Lo spettro di entrambi i dati di fig.3 e dei dati dei due post precedenti è in fig.4 (pdf) dalla quale è del tutto evidente la presenza di due massimi principali a ~100 ka e a ~41 ka.

Fig.4: Lo spettro di δ18O tra 0 e 2.7 Ma, confrontato con quelli (LOMB e MEM) della stessa serie tra 0 e 800 ka. I valori Lomb (linea azzurra) sono divisi per 2. Sapendo che i dati 0-2.7 Ma sono interpolati a passo ≥ 2 ka mentre quelli tra 0 e 800 ka sono a passo 1 ka, non si capisce da dove venga l’apparente maggiore risoluzione dei dati di T2017.

Un paio di considerazioni sui dati della figura:

  1. L’uso dei dati detrended, richiesto dal metodo di Lomb, e dei dati originali non mostra differenze importanti nei due spettri.
  2. I dati 0-2.7 Ma sono a passo 2, 2.4, 2.5 ka mentre quelli 0-800 ka, usati per il confronto, sono a passo 1 ka. Non mi è chiaro perché i dati di T2017 mostrino negli spettri tanti particolari in più rispetto ai dati a maggiore risoluzione, addirittura un doppio picco a cavallo di 100 ka che non compare negli altri spettri.

Visto che anche in questo caso (come nei due post precedenti) lo spettro su tutto l’intervallo non permette di verificare un cambio di regime climatico all’interno del Pleistocene, ho calcolato (fig.5, pdf) lo spettro tra 1.5 e 2.7 Ma.

Fig.5: Spettro di δ18O tra 1.5 e 2.7 Ma. (nero) Dati originali. (rosso) Dati detrended da 1.5 a 2.7 Ma. Appare evidente solo il picco a 41 ka il che conferma l’ipotesi di un cambiamento attorno a 1.5 Ma fa. I massimi a circa 50, 70, 90 ka sono deboli ma significativi al 99% (rumore bianco). Notare come lo spettro dei dati detrended (richiesto dal metodo di Lomb) sia praticamente uguale allo spettro dei dati osservati. Il massimo all’estrema sinistra (periodo di circa 2.5 ka) è forte e presente anche in fig.4. La sua natura non viene discussa in questo post.

La scelta di 1.5 Ma come inizio della serie non credo possa essere considerata un cherry-picking: è il punto in cui le ampiezze delle oscillazioni cambiano rispetto a quelle più vicine a noi ed è anche il punto di inizio della “rampa” di fig.2, cioè della transizione del medio Pleistocene.
La fig.5 mostra che nella prima parte del Pleistocene l’effetto astronomico dominante è l’obliquità dell’orbita (periodo 41 ka), forse con qualche debole contributo da parte di altri (uno o più) parametri orbitali.

Una conferma è data da
fig.6 (pdf) che mostra lo spettro di δ18O tra 0.6 e 1.5 Ma (la “rampa” di fig.2).

Fig.6: Spettro di δ18O tra 0.6 e 1.5 Ma. Il picco a 41 ka è ancora la principale caratteristica dello spettro, ma si affacciano massimi spettrali (~80 e ~122 ka) che in periodi più vicini a noi potrebbero fondersi per dare origine al picco a 100 ka. In complesso, lo spettro appare meno definito rispetto a quelli dei periodi adiacenti.

Qui lo spettro è meno definito rispetto a quanto si osserva nelle figg. 4 e 5: il massimo a 41 ka è ancora dominante ma meno potente che nel periodo precedente; non c’è ancora il massimo a 100 ka ma sono presenti massimi importanti a 80 e 122 ka che forse “promettono” di trasformarsi nel picco a 100 ka in periodi più recenti.

Conclusioni
Il lavoro di Tzedakis e colleghi non solo mostra come sia possibile distinguere le varie fasi climatiche del Pleistocene ma è anche in grado di ricostruire il posizionamento, con un passo di 41 ka, di tutti gli oltre 100 interglaciali.
Le figg. 5 e 6 mostrano che il massimo dominante è sempre 41 ka (obliquità dell’orbita terrestre) e fanno supporre che il massimo a 100 ka sia solo il risultato della combinazione tra massimi diversi e non un effetto diretto dei cambiamenti dell’eccentricità orbitale.

Tutti i grafici e i dati, iniziali e derivati, relativi a questo post si trovano nel sito di supporto qui, in particolare nell’ultima sezione in basso definita Crucifix’s data

Bibliografia

  • P. C. Tzedakis, M. Crucifix, T. Mitsui & E. W. Wolff: A simple rule to determine which insolation cycles lead to interglacials, Nature, 542, 527-544, 2017. doi:10.1038/nature21364
Facebooktwittergoogle_pluslinkedinmail

L’Energetica delle Filiere Agro-Alimentari

Posted by on 07:00 in Ambiente, Attualità, Energia | 2 comments

L’Energetica delle Filiere Agro-Alimentari

Energia e vita

Tutti gli esseri viventi del pianeta, dai batteri alle balene, hanno in comune una molecola fosfatica, l’ATP, che funge da vettore energetico per i diversi processi metabolici. Grandi differenze si hanno invece nella fonte dell’energia per i processi metabolici, in base alla quale distinguiamo gli esseri viventi nelle tre grandi categorie degli autotrofi fotosintetici, degli autotrofi chemiosintetici e degli eterotrofi. In sintesi dunque l’energia che attiva le catene metaboliche è alla base della vita sul pianeta. Al riguardo mi fa piacere segnalare questo brano di Vaclav Smil, tratto da un suo testo introduttivo alla bioenergetica disponibile in rete nel sito della Treccani:

Il giorno in cui iniziai a scrivere questo testo la temperatura esterna nella maggior parte delle praterie canadesi era inferiore a −30 °C con punte di −40 °C, se si considerava il fattore raffreddamento dovuto al vento. Guardando però fuori dalla finestra della cucina mi accorsi che intorno alla mangiatoia appesa a una vecchia pianta rampicante si era radunato il consueto gruppo di piccoli uccelli: cince, picchi muratore pettobianco, fringuelli e gli ubiquitari passeri che cercavano di farsi largo per raggiungere i semi neri dei girasole. Questa scena così familiare è in realtà una delle più sorprendenti lezioni di bioenergetica, lo studio della fissazione, della conversione e dell’utilizzazione dell’energia da parte dei sistemi viventi. Quei piccoli volatili, la maggior parte dei quali pesa meno di 15 g, mantengono la temperatura corporea interna a 40 °C, tre gradi in più rispetto a quella dei grandi mammiferi. Ciò significa che durante i freddi inverni canadesi si stabilisce un gradiente di temperatura dell’ordine di 80 °C attraverso i tre cm circa di spessore del loro minuscolo corpo, ossia tra i loro cuori dal battito veloce e la punta delle loro piume arruffate. Tutto ciò è straordinario, e tutto quello che gli uccelli devono fare è continuare a consumare i semi neri ricchi di olio e perciò di energia (i semi dei girasole rispetto a quelli dei cereali contengono circa 23 kJ/g, cioè il 50% in più di materiale digeribile ricco di energia) a una velocità che libera dal loro efficiente metabolismo enzimatico una quantità di calore superiore a quella persa per irraggiamento e convezione dai loro piccoli corpi. Per giungere a questa verità, all’apparenza tanto semplice, è stato necessario però molto tempo. La comprensione dell’equivalenza delle energie e del modo in cui funzionano il metabolismo animale o la fotosintesi vegetale e batterica è diventata possibile molto tempo dopo il calcolo dei tempi e dei luoghi delle eclissi solari.

Ho riprodotto per intero queste considerazioni di Smil perché rimandano in modo molto efficace all’importanza dell’energetica nel mondo biologico, le cui catene alimentari sono in larghissima misura basate sulla fotosintesi che si fonda sull’energia del sole, mentre un ruolo più circoscritto (ma comunque essenziale in termini ecosistemici) lo riveste la chemiosintesi che si fonda sull’energia di legame chimico.

Energia e filiere agro-alimentari

Nelle filiere agro-alimentari l’efficienza energetica può essere indagata per mezzo del rapporto G fra gli input energetici da parte dell’uomo ed il contenuto energetico del prodotto finale. Il termine G  è stato indagato dall’amico Gianluca Alimonti il quale ha recentemente pubblicato sulla rivista scientifica EPJ plus un articolo scritto a più mani con gli studenti del suo corso di energetica dal titolo

Edible Energy: balancing inputs and waste in food supply chain and biofuels from algae

il quale conclude un’iniziativa svolta nell’ambito di Expo 2015 per valutare gli input e gli output energetici delle catene agro-alimentari.

Debbo dire che in passato mi sono sempre e solo occupato di consumi energetici a livello di campo senza indagare quanto accade lungo le intere filiere a monte (produzione e commercio dei mezzi tecnici quali macchinari, concimi, carburanti, fitofarmaci) e a valle (stoccaggio , trasformazione e commercializzazione all’ingrosso e al dettaglio dei prodotti agricoli).  Limitandomi al campo sapevo che rispetto agli input, gli output erano in certi casi maggiori e in altri minori, pur non scostandosi mai moltissimo dall’equilibrio (G=1).

Considerando però le intere filiere agricolo-alimentari, i dati peggiorano sensibilmente come Alimonti et al. mostrano descrivendo l’energia impiegata per la trasformazione, il packaging e i trasporti (figura 1). Un’idea complessiva al riguardo ci viene da un vecchio lavoro di Hendrikson dal titolo “Energy Use in the U.S. Food System: a summary of existing research and analysis” che è reperibile a questo link e dalla cui figura A si evince che il sistema agricolo alimentare USA nel 1975 consumava 2400*10^12 kcal per produrre circa 280 * 10^12 kcal. I rapporti fra input e output sono grossomodo di 10 a 1. Occorre al riguardo rammentare che il sistema agricolo-alimentare  USA era probabilmente molto meno efficiente nel 1975 di quanto non lo sia oggi e ciò ci rimanda alla necessità di effettuare conteggi complessivi aggiornati all’attualità.

Figura 1 – Consumi di energia per kg di prodotto [MJ/kg] riferiti ad alcuni prodotti alimentari, con gli input energetici suddivisi fra le diverse parti della catena produttiva (Alimonti et al., 2017).

Ma l’aumento degli input energetici è da considerare come positivo o negativo? Al riguardo l’articolo di Alimonti et al. inizia affermando che all’epoca della rivoluzione neolitica, circa 10.000 anni fa, per ogni caloria di lavoro muscolare compiuto, l’agricoltore otteneva da 15 a 40 calorie di nutrimento, ma per nutrire un essere umano occorrevano alcuni ettari di arativo mentre oggi occorrono 0,2 ettari. Tale dato ci riporta al fatto che l’aumento dell’intensità energetica ha consentito di ridurre in modo sostanziale la superficie agricola necessaria per nutrire un essere umano, consentendo così al genere umano di superare i 7 miliardi di individui che per oltre il 50% sono inurbati.  Per fare un esempio, il frumento in Italia è passato da una resa  media ettariale di 10 quintali del 1910 a una di 60 quintali del decennio più recente. Ciò per effetto di un’industria sementiera che fornisce varietà più produttive, una meccanizzazione che permette una migliore preparazione del letto di semina, più efficaci operazioni colturali e minori perdite di raccolta, una nutrizione molto più efficace garantita dai concimi di sintesi, fitofarmaci che evitano perdite produttive dovute agli attacchi fungini, ecc. A ciò si aggiunga un sistema a valle del campo che conserva la produzione e la commercializzazione del prodotto finale orientandolo verso la produzione di pane, pasta, biscotti, ecc.

L’elevata intensità energetica delle filiere è anche funzionale alla sicurezza alimentare. In proposito Alimonti t al. mettono ad esempio in evidenza i consumi energetici legati al packaging, che tanta importanza ha per la qualità degli alimenti.

D’altro canto l’elevata intensità energetica delle filiere agro-alimentari moderne pone inevitabilmente il problema di cosa potrebbe accadere se le fonti di energia fossile si riducessero e qui personalmente penso che in un simile caso sarebbe possibile approdare con relativa rapidità a soluzioni energetiche alternative. In ogni caso Gianluca si pone il problema della razionalizzazione delle filiere agro-alimentari quando parla ad esempio della necessità di:

  • Sfruttare per scopi energetici una parte dei residui colturali evitando tuttavia di eccedere onde evitare effetti negativi sulla fertilità dei suoli
  • Razionalizzare l’utilizzo dei concimi organici di origine animale
  • Sfruttare più a fondo le opportunità offerte dalle colture di alghe che presentano un’efficienza davvero interessante
  • Evitare gli sprechi di cibo

Temi cui aggiungerei da parte mia le opportunità in termini di contenimento dei consumi energetici oggi offerte dalle tecniche di agricoltura conservativa e di precisione.

In complesso dunque un articolo quello di Gianluca Alimonti e dei coautori che porta a riflettere su un aspetto, quello dell’energia, tanto fondamentale per la sicurezza alimentare globale.

Facebooktwittergoogle_pluslinkedinmail

Interglaciali tra 0 e 800 mila anni – Parte seconda

Posted by on 07:00 in Attualità, Climatologia | 6 comments

Interglaciali tra 0 e 800 mila anni – Parte seconda

Nota dell’editore: questo post era programmato per la settimana prossima, ma avendo notato che la discussione sulla prima parte ne ha chiamato in causa alcune risultanze, ho pensato di anticiparne la pubblicazione.

Riassunto: l’analisi spettrale wavelet applicata a 7 dataset di PAGES (2016) non conferma l’ipotesi, precedentemente avanzata anche da Berger (2013), di una evoluzione climatica attraverso gli 800 ka dei dataset. Appare chiaramente che i massimi spettrali principali (41 e 100 ka) sono stati presenti contemporaneamente su tutto l’intervallo temporale analizzato.
Abstract: wavelet spectral analysis applied to 7 PAGES (2016) datasets does not confirm the hypothesis, also discussed in Berger (2013), of a climatic evolution along the datasets’ 800 ka temporal extension. Main spectral maxima (41 and 100 ka) have been clearly present all over the analysed time range.

Introduzione
Nel post precedente ho iniziato a trattare i dati del gruppo di lavoro sugli interglaciali (IG) di PAGES (2016), in particolare il δ18O bentonico tra 0 e 800 ka fa (1ka=1000 anni). Dal post era emersa abbastanza chiaramente la possibilità che nell’intervallo di tempo considerato fosse avvenuta un’evoluzione nella temporizzazione degli IG, un passaggio dalla ciclicità di circa 41 ka a quella di circa 100 ka, attorno a 450 ka fa. Implicitamente, il post faceva pensare che un’analisi spettrale in grado di valutare la successione temporale dei massimi, tipo wavelet, potesse mettere in evidenza la presenza di ciclicità a ~41 ka nelle parti più antiche del dataset e a ~100 ka nelle parti più recenti, tra 0 e 450 ka fa.

Questo secondo post ha lo scopo di verificare l’ipotesi “evolutiva”, verifica che è preceduta dall’analisi di altre 8 serie (oltre quella del δ18O) e dalla raccolta in forma di tabella dei massimi spettrali comuni alle 9 serie.

Si accenna qui brevemente anche al “problema dei 100 ka”, dovuto al fatto che il massimo spettrale più significativo di quella che comunemente viene chiamata “cronologia di Milankovitch” (Milankovitch chron, fino a 650 ka fa), cioè 100 ka, non ha, a questa ciclicità, una spiegazione semplice e diretta (ad esempio un fenomeno astronomico) di come un evento non noto potrebbe influenzare le variazioni climatiche. Forse, e con molte incertezze, sarebbe necessario invocare molte cause, astronomiche (dalla precessione all’obliquità e all’eccentricità dell’orbita terrestre) ma anche casuali e imprevedibili, di tipo geologico o circolatorio, come descritto in Berger (2013). Berger accenna anche al fatto che sarebbero presenti negli spettri (ma lui usa le derivate del dataset) fluttuazioni sulla scala di 10 ka, preferite (dal sistema climatico?) rispetto ai cambiamenti sui 100 ka.

Analisi dati
L’analisi spettrale dei 9 dataset utilizzati è riassunta in tabella 1, nella quale sono raccolti i massimi (più o meno) comuni degli spettri MEM e LOMB. Le ultime tre righe della tabella (fondo azzurro) riportano la massima variazione percentuale [(max-min)/max]x100, la media e la deviazione standard dei vari campioni.

Tabella 1: massimi spettrali (ka) delle 9 serie di PAGES
Eccentricity 123 97 54.3 37.7 34.5 30.8 23.2 19.7 11.4 10.4
Obliquity 160 100 71 53.4 41 29.4 23.4 20.2 11.2 10.7
Precession 246 140 114.4 97 53.4 39 36 29 23.7 19 10.9 10.6
Insolation 458 169 123 94 53 41 35.2 28.9 23.4 19 11.2 10.5
Benthic δ18O 296 218 150 126 100 70.4 57 41 36.8 28.8 23.5 19 11 10.4
Baikal Biosil. 296 148 99 56.4 41 35.5 28.9 23.5 19 11.5 9.9
Pollen arb. 320 200 123 100 71 57 41 35.5 29.9 23.5 19 11 10.6
CH4 Epica 457 200 152 97 72.6 55 40.5 36.3 28.8 23.5 18.9 11.2 10.3
CO2 Epica 639 228 152 118 97 72.6 56 40.4 36.7 30.1 23.5 18 11.5 10.5
Δ/max % 19 17 9 6 3 7 8 6 7 2 11 4 7
Average 218.4 153 121.2 97.9 71.5 55.1 40.3 35.8 29.4 23.5 19.1 11.2 10.4
σ(n-1) 19.6 9.2 4.2 2 1 1.6 1.2 0.8 0.7 0.1 0.6 0.2 0.2

Come esempi grafici dell’analisi, vengono mostrati, in fig.1 (pdf) il confronto tra CH4 e CO2 (dalla carota antartica di EPICA Dome) e in fig.2 (pdf) la percentuale di biosilicati dai carotaggi del lago Baikal.

Fig.1: immagine composita del confronto tra CH4 e CO2 da EPICA. (alto) spettro dei due gas serra tra 0 e 40 ka. (centro) Valori misurati e (sotto) spettri completi. Da notare la complessiva somiglianza tra i due (dati e spettri) ma anche le notevoli differenze locali, sia recenti che antiche.

Fig.2: biosilicati del lago Baikal. Nello spettro si notano i massimi a 23.4, 41, 72, 100, 150, 200 e (debole) a 300 ka.

Dalle figure, ma soprattutto dalla tabella 1, si vede che i massimi a 100 e 41 ka sono presenti insieme negli spettri e che, quindi, si pone ancora il problema della possibile evoluzione temporale e della separazione dei due.
Oltre a questi due massimi principali sono presenti picchi comuni a tutti o quasi i dataset:10, 11.5, 23.5, 72, 123, 200ka. In questo caso la significatività dei picchi non è un problema: infatti hanno lo stesso periodo, entro margini molto stretti, in 9 dataset di origine diversa per cui senz’altro le fluttuazioni numeriche possono interessare l’ampiezza (o la potenza) dei massimi ma non il loro periodo. La significatività dei periodi viene data, come già in altre occasioni, da una sorta di probabilità frequentista.

Analisi spettrale wavelet
Per capire se, nel tempo, si sia verificata un’evoluzione del periodo principale (ad esempio da 41 a 100 ka) ho calcolato, per 7 delle 9 serie di dati, lo spettro wavelet che mostro, con brevi commenti, nelle figure successive.

  1. fig.3: δ18O

    Fig.3: spettro wavelet di δ18O. Da notare la continuità, su tutto l’intervallo di 800 ka, sia del massimo a 41 ka che di quello a 100 ka. Nel quadro di destra, in basso, sono riportati alcuni valori dell’asse y (log2 periodo) rapportati al periodo in ka. Questi valori sono presenti in tutte le figure successive.

    Anche se le potenze sono diverse, lo spettro non conferma la presenza di un “prima” e di un “dopo” l’IG 11c (~450 ka fa) come sembrava suggerire il post precedente; un “prima” a cui erano associati periodi di ~41 ka e un “dopo” con periodi di ~100 ka.

  2. fig.4: Eccentricità

    Fig.4: spettro wavelet dell’eccentricità orbitale. Si nota una continuità per il (debole) periodo di 41 ka e per il periodo di 100 ka che si intreccia con quello a 123 ka. È presente un forte massimo centrato a circa 315 ka, praticamente uniforme su tutto l’intervallo.

    L’eccentricità mostra un debole massimo a ~41 ka, quasi continuo su tutto l’intervallo, forse interrotto attorno a 570-580 ka fa. Il massimo a 100 ka appare anch’esso continuo e continguo al picco a 123 ka (i due si separano a circa 400 ka fa). Il massimo a 200 ka appare molto debole e scompare tra 600 e 750 ka fa, mentre quello a 315 ka sembra potente sull’intero periodo studiato.

  3. fig.5: Obliquità

    Fig.5: spettro wavelet dell’obliquità orbitale. Quasi tutta la potenza è concentrata in una fascia ristretta, compresa tra 23 e 41 ka. Quasi inesistente,debole e fuori dal cono di influenza, il massimo a 100 ka. Allo stesso modo tutti gli altri picchi di periodo maggiore che sembrano non esistere prima di 150-200 ka fa.

    L’obliquità sembra agire in una fascia ristretta di periodi, da ~23.5 a ~41 ka. Al di fuori della fascia i periodi maggiori sono deboli e limitati a non altre 150-200 ka fa.

  4. fig.6: Precessione

    Fig.6: spettro wavelet della precessione orbitale. Il periodo di 23.4 ka è il più significativo, interrotto attorno a 400 e 760 ka fa. Il massimo a 41 ka è molto debole e prticamente non esiste prima di 300 ka fa.

    Lo spettro della precessione è dominato dal perido 23.4 ka (in realtà tra ~19 e ~36 ka). Bisogna ricordare che il periodo “fisico” della precessione è di 26 ka (il polo celeste percorre un cerchio sulla sfera celeste in 26 ka). Il periodo principale è interrotto per circa 70 ka attorno a 400 ka fa e per circa 20 ka a 760 ka fa.

  5. fig.7: Insolazione a 65°N

    Fig.7: spettro wavelet dell’irraggiamento solare a 65°N. È dominato dai periodi 23.4 e 41 ka, il primo interrotto per 5 volte ad intervalli variabili di circa 100-150 ka e il secondo continuo su tutto l’intervallo.

    L’irraggiamento solare (in W/m2) ad alte latitudini settentrionali mostra due massimi principali, a 23.4 e 41 ka; il primo interrotto 5 volte (durata circa 30 ka ogni volta) con un passo variabile compreso tra 100 e 150 ka e il secondo continuo e di potenza costante su tutto l’intervallo. Il picco a 100 ka è debole e presente solo fino a 300 ka fa; dopo i 550 ka fa risulta più debole ma ancora visibile fino a 800 ka fa.

  6. fig.8: Biosilicati del lago Baikal

    Fig.8: spettro wavelet dei biosilicati (%) del lago Baikal. Il massimo più stabile sembra essere quello a 200 ka. A 100 ka il picco appare frastagliato, di potenza variabile e più forte dopo 550 ka fa. Il massimo a 41 ka sembra poco significativo.

    I biosilicati del Baikal presentano uno spettro di struttura anomala: molto frastagliato, con solo i picchi a 200 e 315 ka esistenti su tutto l’intervallo. Il massimo a 100 ka è generalmente debole e di potenza varibile, più forte solo dopo i 550 ka fa. Il massimo a 41 ka è poco ignificativo e quello a 512 ka (y=9) è presente non altre i 300 ka fa.

  7. fig.9: CO2

    Fig.9: spettro wavelet della CO2 di EPICA Dome. Appare frastagliato, senza continuità temporale sull’intero intervallo, a parte i ~630 ka (y=9.3). Il picco a 41 ka è presente saltuariamente e quello a 100 ka, anche se potente, è spesso interrotto.

    L’anidride carbonica non mostra uno spettro con massimi presenti in modo continuo su tutto l’intervallo (tranne quello con periodo ~630 ka). Il massimo a 100 ka ha potenza elevata tra 0 e 350 e tra 550 e 650 ka fa.

Conclusioni
Gli spettri MEM e LOMB di 9 serie di paleo dati tra 0 e 800 ka mostrano la presenza contemporanea di molti massimi (elencati in tabella 1) ma gli spettri wavelet non evidenziano un’evoluzione sistematica da un ambiente (di periodo 41 ka) all’altro (periodo 100 ka), anzi il più delle volte mostrano che i due massimi sono presenti contemporaneamente e su tutto l’intervallo temporale disponibile.

È quindi difficile immaginare un netto cambiamento di regime climatico attorno a 400-450 ka fa, in corrispondenza dell’interglaciale 11c.

Tutti i grafici e i dati, iniziali e derivati, relativi a questo post si trovano nel sito di supporto qui

Bibliografia

  • Berger,W.H.: On the Milankovitch sensitivity of the Quaternary deep-sea record, Clim. Past, 9, 2003-2011, 2013, doi:10.5194/cp-9-2003-2013
  • Past Interglacials Working Group of PAGES (2016), Interglacials of the last 800,000 years, Rev. Geophys., 54, 162-219, doi:10.1002/2015RG000482.
Facebooktwittergoogle_pluslinkedinmail

La fertilizzazione da CO2 e i fattori limitanti per l’agricoltura

Posted by on 07:00 in Ambiente, Attualità, Climatologia | 2 comments

La fertilizzazione da CO2 e i fattori limitanti per l’agricoltura

Recentemente è stato pubblicato su EPJ Plus l’articolo “Carbon plants nutrition and global food security” in cui Luigi Mariani affronta coraggiosamente il tema dell’effetto di fertilizzazione della CO2, con lo scopo di valutarne in termini quantitativi l’impatto sulla produzione agricola mondiale.

L’importanza della CO2 nell’ecosistema non viene solo dall’essere un gas serra ma anche e soprattutto dall’essere un fondamentale input nel processo fotosintetico che fornisce la materia prima alla larghissima maggioranza delle catene alimentari del nostro pianeta. La premessa al lavoro è dedicata fra l’altro a descrivere come grazie alle attività di scienziati come De Saussure, Arrhenius e Menozzi sia stata raggiunta la piena consapevolezza sul ruolo delle CO2 come molecola che chiude il ciclo del carbonio costituendo il vero e proprio mattone della vita sul nostro pianeta.

L’argomento come si capisce è delicato se non quasi un tabù, tanto che a fronte di un oramai comprovato effetto di “global greening” dovuto, come si legge in “Greening of the Earth and its drivers” di Z.Zhu et al., per il 70% alla CO2 e che ha portato negli ultimi 33 anni ad una crescita del verde planetario equivalente al doppio della superficie degli USA, si parla ancora, anche nelle alte sfere…., di desertificazione! Per questo ho scritto “affronta coraggiosamente”.

Il tema viene studiato con un modello meccanicistico in cui la fotosintesi produce materia organica che viene progressivamente ridotta dall’azione delle diverse limitazioni (termiche, idriche, ecc.) fino a giungere al prodotto finale. Tale schema modellistico a base fisiologica è guidato dai dati climatici della FAO ed applicato ai raccolti di frumento, mais, riso e soia (WMRS) che forniscono attualmente il 64% dell’apporto calorico alla popolazione globale. Sono stati simulati 5 diversi scenari con le condizioni riportate nella tabella seguente.

 Osservo che la crescita di T è coerente con quanto prevedono i GCM.

Lo studio è molto dettagliato e prende in considerazione la presenza o meno di stress sia biotici che abiotici, la possibilità della migrazione latitudinale delle coltivazioni e le limitazioni imposte da possibile carenza di acqua.

Le conclusioni sono attente e ragionate e quelle che mi hanno colpito maggiormente sono:

  1. Come c’era da aspettarsi, una nuova era glaciale avrebbe un effetto dirompente sulla produzione globale, con una riduzione a circa la metà dei valori attuali.
  2. Se tornassimo ai livelli preindustriali di temperatura e CO2 atmosferica si avrebbe una diminuzione stimata della produzione globale annua di WMRS di quasi il 20%. Dopo tutti gli sforzi fatti per aumentare la produzione e soddisfare le necessità alimentari della crescente popolazione mondiale, questo sarebbe un bel passo indietro.
  3. Nei due scenari futuri, le mutate condizioni ambientali, a parità di tutto il resto, aumenterebbero la produzione globale, che non sarebbe comunque sufficiente a soddisfare le esigenze alimentari della popolazione che nel 2050 è stimata essere di 9.7 miliardi di persone. Tali esigenze sarebbero invece soddisfatte se, oltre al contributo positivo di CO2 e temperatura, ci fosse anche un’attenta gestione della risorsa acqua, vero fattore limitante dell’agricoltura mondiale.

Gli scenari studiati in questo lavoro sono un esercizio utile per valutare gli effetti di diversi fattori limitanti sulla crescita delle principali colture e dare una prospettiva utile per pianificare i futuri sviluppi dell’agricoltura su una scala globale. Vengono inoltre superati i limiti dei risultati presentati nel capitolo 7 dell’ultimo rapporto dell’IPCC ottenuti con modelli che solo in alcuni casi prendono in considerazione l’effetto fertilizzante della CO2.

Related Posts Plugin for WordPress, Blogger...Facebooktwittergoogle_pluslinkedinmail