Climate Lab – Fatti e Dati in Materia di Clima

Tra la fine del 2015 e l’inizio del 2016, poco dopo la fine della COP21 di Parigi, abbiamo messo a punto un documento pubblicato nella sua interezza (e scaricabile qui in vari formati) con il titolo “Nullius in Verba, fatti e dati in materia di clima”. L’idea è nata dall’esigenza di far chiarezza, ove possibile e nei limiti dell’attuale conoscenza e letteratura disponibili, in un settore dove l’informazione sembra si possa fare solo per proclami, quasi sempre catastrofici.

Un post però, per quanto approfondito e per quanto sempre disponibile per la lettura, soffre dei difetti di tutte le cose pubblicate nel flusso del blog, cioè, invecchia in fretta. Per tener vivo un argomento, è invece necessario aggiornarlo di continuo, espanderlo, dibatterle, ove necessario, anche cambiarlo. Così è nato Climate Lab, un insieme di pagine raggiungibile anche da un widget in home page e dal menù principale del blog. Ad ognuna di queste pagine, che potranno e dovranno crescere di volume e di numero, sarà dedicato inizialmente uno dei temi affrontati nel post originario. Il tempo poi, e la disponibilità di quanti animano la nostra piccola comunità, ci diranno dove andare.

Tutto questo, per mettere a disposizione dei lettori un punto di riferimento dove andare a cercare un chiarimento, una spiegazione o l’ultimo aggiornamento sugli argomenti salienti del mondo del clima. Qui sotto, quindi, l’elenco delle pagine di Climate Lab, buona lettura.

  • Effetti Ecosistemici
    • Ghiacciai artici e antartici
    • Ghiacciai montani
    • Mortalità da eventi termici estremi
    • Mortalità da disastri naturali
    • Livello degli oceani
    • Acidificazione degli oceani
    • Produzione di cibo
    • Global greening

____________________________________

Contenuti a cura di Luigi Mariani e revisionati in base ai commenti emersi in sede di discussione e per i quali si ringraziano: Donato Barone, Uberto Crescenti, Alberto Ferrari, Gianluca Fusillo, Gianluca Alimonti, Ernesto Pedrocchi, Guido Guidi, Carlo Lombardi, Enzo Pennetta, Sergio Pinna e Franco Zavatti.

Energie astrali e forze cosmiche al Politecnico di Milano

Posted by on 13:38 in Ambiente, Attualità | 16 comments

Energie astrali e forze cosmiche al Politecnico di Milano

Alcune riflessioni sull’ospitalità offerta da un’istituzione prestigiosa al convegno internazionale dei biodinamici.

Dal 15 al 17 novembre 2018 il Politecnico di Milano ospiterà il convegno internazionale di biodinamica (qui) il cui programma “scientifico” è disponibile (qui ).
Abbiamo messo lo “scientifico” fra virgolette perché trattasi di una disciplina agronomica a base magica e nella quale la totale assenza di basi scientifiche si associa ad un altissimo tasso di strampalataggine, descritto in modo magistrale da Dario Bressanini su Le scienze (Biodinamica®: cominciamo da Rudolf Steiner) e a più riprese stigmatizzato anche qui, su Agrarian Sciences:

Ora ci domandiamo in nome di cosa (la fama, il denaro o cos’altro) un’istituzione scientifica prestigiosa possa arrivare ad ospitare una kermesse di personaggi che propugnano come apoditticamente “buone”, “etiche” e “salutistiche” pratiche destituite da qualsiasi fondamento scientifico.

Analogamente troviamo discutibile (anche se probabilmente giustificato dal ritorno di immagine che ne deriva, specie in certi ambienti “radical-chic” dell’alta società milanese) il patrocinio offerto dal Comune di Milano con il Sindaco Sala che interverrà di persona. A ben guardare peraltro quest’ultimo patrocinio non è più di tanto stupefacente se pensiamo allo spazio che tali ideologie “agricole” hanno avuto in ambito Expo. Sconcertante qualora confermato (noi l’abbiamo trovato indicato qui): sarebbe il patrocinio dato dal Consiglio Nazionale degli Ordini dei Dottori Agronomi e dei Dottori Forestali paragonabile, se ci è consentita la battuta, al patrocino dell’Ordine dei Medici a un convegno di pranoterapeuti.

Certo, Milano non è nuova a queste cadute di stile e di credibilità scientifica, se pensiamo che nel 2015 un convegno dei biodinamici fu ospitato in Bocconi, e questo dovrebbe indurci a riflettere sulle criticità che minano nel profondo alcune delle nostre istituzioni accademiche più prestigiose. D’altro canto non sono mancati negli ultimi anni i casi di enti ed autorità pubbliche che hanno elargito con generosa sollecitudine patrocini, premi, riconoscimenti e…sponsorizzazioni a figure perlomeno controverse, quali assertori di metodi colturali sedicenti “naturali”, di diete o protocolli terapeutici dalle presunte proprietà “miracolistiche”, spesso rivelatisi insostenibili (quando non truffaldini) sul piano scientifico. E forse val la pena osservare il “parterre de rois” di rappresentanti politico-istituzionali di cui è prevista la presenza al convegno di biodinamica in contrapposizione all’infastidito disinteresse che spesso le istituzioni riservano alle iniziative di carattere autenticamente scientifico applicate al campo agricolo. E riflettere se anche questo non sia un ulteriore segno di un processo di ineluttabile declino di una cultura occidentale che pare ormai gaiamente avviata a verso una “decrescita” che non potrà essere felice.

Abbiamo sognato che un docente di fisica del Politecnico di Milano teneva una lezione sulle energie cosmiche che sono alla base dell’agricoltura biodinamica, grazie alle quali le piante si nutrono (in palese violazione della legge degli equilibri di reazione di Lavoisier) ed in virtù delle quali le vacche hanno le corna, antenne con cui scrutano il cosmo intercettandone le energie. Certo, è solo un sogno ma in un domani prossimo potrebbe divenire realtà. Con infinita tristezza rileviamo infatti i molti segnali (non cosmici ma molto più terrestri) che ci indicano che il mondo accademico universitario italiano è ahinoi pronto ad ospitare corsi di laurea in biodinamica. Speriamo che i docenti siano all’altezza di cotanta “scienza”!

NB: questo post è uscito in origine su Agrarian Sciences

Facebooktwittergoogle_pluslinkedinmail

Non tutto il Verde va di moda

Posted by on 07:00 in Ambiente, Attualità | 1 comment

Non tutto il Verde va di moda

C’è un verde, un certo tipo di verde, che paradossalmente non piace proprio ai verdi. Trattasi di una speciale tonalità che potremmo anche chiamare “Verde Pianeta”, che sta diventando sempre più diffuso, nonostante siano tutti sempre più convinti che le cose vadano diversamente.

Di Global Greening in effetti abbiamo parlato molte volte ma, in occasione di una nuova ricerca appena pubblicata, vale la pena ripetersi, magari aggiungendo qualche importante informazione, proprio come fanno gli autori di questo studio:

Satellite Leaf Area Index: Global Scale Analysis of the Tendencies Per Vegetation Type Over the Last 17 Years

Sul blog di Judith Curry c’è un post che spiega molto bene il contenuto del paper, che è comunque accessibile liberamente.

Il valore aggiunto del loro lavoro consiste nell’aver messo a punto una tecnica di analisi dei dati satellitari da cui è derivato l’indice LAI (Leaf Area Index) che permette di disaggregare il tipo di vegetazione all’interno di ogni pixel, producendo quindi dati che consentono l’analisi di trend separati per diversi generi di piante, siano esse stagionali, sempreverdi, coltivate o forestali.

I risultati ottenuti confermano innanzi tutto quelli di altri precedenti lavori basati su analisi del dato aggregato, ovvero un significativo e generalizzato aumento della superficie verde del pianeta, fatto che in larga misura è da attribuirsi alla fertilizzazione da CO2 e che contrasta con poco con gli scenari apocalittici che ci vengono somministrati praticamente ogni giorno. Il segnale, pur con alcuni distinguo, è netto anche nelle serie disaggregate, che costituiscono materiale di peso per valutazioni sullo “stato di salute” di diverse tipologie di vegetazione in diverse aree del pianeta.

Naturalmente però, anche su questo, che a tutti gli effetti è uno dei non trascurabili ma del tutto omessi risvolti positivi dell’aumento della concentrazione di CO2, c’è chi ha da obiettare, da un lato perché un aumento della quantità sarebbe accompagnato – per le specie coltivate – da una riduzione delle qualità organolettiche, dall’altro perché distruggerebbe (sic!) i cicli naturali dell’ecosistema…

Morale, come senza smentirsi recitava qualche giorno fa il NYT, non ci sarebbe niente da celebrare… Ok, nessuna celebrazione, facciamo solo un altro po’ di informazione, magari rileggendo quanto ha scritto sulla relazione quantità-qualità delle produzioni agricole Luigi mariani appena qualche giorno fa.

Livelli atmosferici di CO2 e alimenti meno nutrienti: Perché ingigantire un problema facilmente risolvibile con le tecnologie attuali?

Buona giornata.

 

Facebooktwittergoogle_pluslinkedinmail

Torna a Scuola Greta!

Posted by on 05:34 in Attualità, Climatologia | 7 comments

Torna a Scuola Greta!

di Luigi Mariani e Franco Zavatti

Sul Corriere della Sera del 2 settembre leggiamo l’articolo dell’inviato da Londra Michele Farina relativo alla vicenda di una ragazza svedese di 15 anni che sta facendo uno sciopero (nel senso che marina la scuola) e si è installata di fronte al locale Parlamento per protestare contro l’inettitudine dei governi nella lotta al global warming.

A nostro avviso la vicenda è sintomatica dello stato di smarrimento che vivono i nostri concittadini più giovani e indifesi di fronte a campagne mediatiche sempre più opprimenti e che parlano di fine del mondo alle porte.

Nell’articolo fra l’altro si sottolinea che l’estate del 2018 è stata la più calda degli ultimi 262 anni, il che ci ha indotto a  compiere alcune verifiche. In particolare attraverso il sito rimfrost.no abbiamo ottenuto i dati di temperatura media mensile per le 3 stazioni svedesi più antiche. Si tratta delle stazioni universitarie di Uppsala (con inizio nel 1722) e di Stoccolma. Per quest’ultima rimfrost.no mette a disposizione due serie, ambedue rilevate nello stesso sito e di cui una che ha inizio nel 1756 e fine nel 2005 (di qui in avanti Stockolm1)  e l’altra che ha inizio nel 1890 e giunge fino ad  oggi (di qui in avanti Stockolm2).

Figura 1 – La stazione meteorologica universitaria di Stoccoma (https://www.misu.su.se/research/weather-station?cache)

Peraltro abbiamo voluto accedere ai siti internet che descrivono le stazioni. In particolare le due serie di Stoccolma sono a quanto ci risulta rilevate su una terrazza all’altezza di 44 m e la foto della stazione attualmente in funzione è mostrata in figura 1, e qui spiace dover osservare che la collocazione è a dir poco problematica, con lo screen termometrico che parrebbe esposto all’aria calda che viene sicuramente emessa dal piccolo pannello fotovoltaico sottostante e da tanti altri oggetti circostanti e il pluviometro schermato dall’anemometro e da altre barriere. In sintesi una situazione tutt’altro che idonea a misurare segnali di tipo sinottico.

La stazione universitaria di Uppsala dal canto suo ha una storia ben documentata sul sito http://celsius.met.uu.se/default.aspx?pageid=31. La foto del luogo in cui la stazione meteorologica è stata collocata dal 1865 al luglio 1959 è quella in figura 2. Nel sito web leggiamo anche che “Dall’agosto 1959 le misurazioni sono state effettuate presso il Dipartimento di Meteorologia dell’Università di Uppsala (5951’N, 1737’E, 13 m slm), e nel gennaio 1998 il sito di misurazione è stato spostato di circa 1,4 km più a sud, al  ‘Geocentrum’ (59°50.85’N, 17°38.10’E, 25 m slm) quando il vecchio Dipartimento di Meteorologia si è unito al nuovo Dipartimento di Scienze della Terra”. La foto del nuovo sito è in figura 3. Meglio certo del sito di Stoccolma ma anche qui abbiamo vari edifici nelle vicinanze e un bel vialetto con ghiaia pronto ad arroventarsi al sole, il che attesta un peso considerevole dell’UHI, fatto che del resto viene sottolineato dal sito francese in cui abbiamo reperito la foto.

Figura 2 – La stazione meteorologica universitaria di Uppsala in un’immagine ottocentesca (http://celsius.met.uu.se/default.aspx?pageid=31).

Figura 3 – la stazione meteo di Uppsala al Geocentrum in un foto del 2016 (http://eu-meteo-contest.enm.meteo.fr/concours_ref/content/weather-station-uppsala).

Veniamo ora ad analizzare i dati, premettendo che le temperature estive sono la media delle temperature medie di giugno, luglio e agosto (estate meteorologica) e che i dati di Stockolm1 dal 2006 ad oggi sono stati ricostruiti in base ai dati di Stockolm2 utilizzando la seguente equazione ottenuta dalla regressione lineare sulle temperature dal 1890 al 2005:

TStockolm1=1.0018* TStockolm1-0.9472  (R2=0.9947)

In tabella 1 riportiamo le 20 estati più calde per le tre stazioni.

Come si vede, due serie (Uppsala e Stockolm 2) indicano il 2018 come estate più calda (seguita a breve distanza da altri anni, non tutti recentissimi) mentre Stockolm1 indica come anno più caldo il 1789.

Infine la figura 4 riporta un diagramma delle temperature per le tre serie. Si noti che le estati del ‘700 furono in molti casi tutt’altro che fredde. e qui concordiamo con Emmanuel Leroy ladurie  sul carattere spesso elusivo che presentò la Piccola era glaciale.

Figura 4 – Andamenti delle temperature estive per le tre stazioni considerate e, in basso, il risultato dell’allisciamento eseguito con un opportuno filtro. Da notare i valori di Stockolm2, sistematicamente più alti di circa 1 grado rispetto alle altre due serie.

Insomma, l’estate 2018 è stata sicuramente molto calda ma ma sul fatto che sia stata la più calda da 262 anni a questa parte (almeno per le serie considerate) (almeno per le stazioni considerate)  andrebbe posto un minimo di beneficio di inventario in virtù delle immagini dei siti di installazione delle stazioni che vi abbiamo presentato. Sia o non sia stata l’estate più calda degli ultimi 262 anni speriamo almeno che Greta sia tornata a scuola e viva con maggiore fiducia le prospettive sue e del pianeta. Peraltro credo che una iniezione di fiducia potrebbe derivarle dalla conoscenza del pensiero di Svante Arrhenius, grande scienziato svedese che una volta evidenziato il ruolo di gas serra della CO2 se la immaginò come un fantastico strumento per far sì che le sue terre, gelide in inverno, calde e malariche in estate, potessero divenire un po’ più ospitali per l’uomo.

Facebooktwittergoogle_pluslinkedinmail

Un Mese di Meteo – Agosto 2018

Posted by on 07:00 in Attualità, Climatologia, Commenti mensili, Meteorologia | 0 comments

Un Mese di Meteo – Agosto 2018

IL MESE DI AGOSTO 2018[1]

Mese caratterizzato da variabilità che specie al meridione è da giudicare particolarmente anomala per la stagione estiva.

La topografia media mensile del livello di pressione di 850 hPa (figura 1a) mostra l’Italia interessata da una saccatura da est-sudest associata a un minimo depressionario sull’Anatolia (lettera B in basso a destra). Se la depressione anatolica costituisce uno degli elementi più caratteristici del regime circolatorio estivo, le sue saccature limitano di norma la loro influenza all’area dell’Egeo e dello Ionio mentre è raro che si estendano in modo tanto deciso verso il centro del Mediterraneo. Si noti anche l’anticiclone delle Azzorre che è visibile in basso a destra nella carta in esame e dunque in posizione anomala per la piena stagione estiva, fatto questo già constatato per luglio.

La diagnosi circolatoria testé enunciata è confermata dalla carta delle isoanomale (figura 1b) che evidenzia un nucleo di anomalia negativa da -1.5 m centrato sul Canale di Sicilia. Tale anomalia negativa può ad una prima analisi essere ritenuto all’origine dell’anomalia pluviometrica positiva registrata sul Sud e sulle due isole maggiori che hanno subito il frequente transito di perturbazioni. Circa queste ultime, l’analisi circolatoria giornaliera sull’Italia ne ha evidenziato un totale di 6, descritte in tabella 1.

Figura 1a – 850 hPa – Topografia media mensile del livello di pressione di 850 hPa (in media 1.5 km di quota) per il mese. Le frecce inserire danno un’idea orientativa della direzione e del verso del flusso, di cui considerano la sola componente geostrofica. Le eventuali linee rosse sono gli assi di saccature e di promontori anticiclonici.

Figura 1b – 850 hPa – carta delle isoanomale del livello di pressione di 850 hPa per il mese.

Andamento termo-pluviometrico

Le temperature medie mensili sono risultate in prevalenza nella norma sia nei massimi (figura 2) sia nei minimi (figura 3), salvo anomalie positive al Centro-Nord concentratesi nella prima decade del mese e anomalie negative a carattere locale nelle temperature massime registrate nella terza decade del mese in Sicilia, Calabria e Basilicata. L’anomalia termica testé descritta è confermata dalla carta delle anomalie termiche globali riportata in figura 6, nella quale si nota che la lieve anomalia positiva sul Nord si lega a un più consistente nucleo di anomalia positiva sull’Europa Orientale mentre l’anomalia negativa sul sud Italia si associa ad un nucleo di anomalia negativa presente sull’Africa del Nordovest.

Figura 2 – TX_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle massime del mese

Figura 3 – TN_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle minime del mese

La figura 5 mostra che a livello mensile le precipitazioni  sono risultate superiori alla norma sulla maggior parte del settentrione e sul versante tirrenico del centro. Una sensibile anomalia positiva ha caratterizzato invece le precipitazioni sul meridione peninsulare e le due isole maggiori. Per quanto attiene alle precipitazioni decadali (tabella 2) si nota che in complesso il Settentrione ha presentato una moderata anomalia pluviometrica negativa nella prima decade e presentato una moderata anomalia pluviometrica positiva nella terza, il Centro ha presentato una anomalia positiva moderata nella prima e spiccata nella seconda ed infine il Sud ha manifestato una spiccata  anomalia positiva in tutte e tre le decadi.

Figura 4 – RR_mese – Carta delle precipitazioni totali del mese (mm)

Figura 5 – RR_anom – Carta dell’anomalia (scostamento percentuale rispetto alla norma) delle precipitazioni totali del mese (es: 100% indica che le precipitazioni sono il doppio rispetto alla norma).

Le aree a precipitazione più abbondante hanno contenuto gli stress da carenza idrica. Nelle zone caratterizzate da anomalia pluviometrica positiva le precipitazioni hanno avuto effetti negativi sul quadro fitosanitario favorendo i patogeni fungini, peronospora in primis. le piogge hanno localmente ostacolato le attività di raccolta specie nel meridione e sulle isole maggiori.

Tabella 2 – Analisi decadale e mensile di sintesi per macroaree – Temperature e precipitazioni al Nord, Centro e Sud Italia con valori medi e anomalie (*).

 (*) LEGENDA:

Tx sta per temperatura massima (°C), tn per temperatura minima (°C) e rr per precipitazione (mm). Per anomalia si intende la differenza fra il valore del 2013 ed il valore medio del periodo 1988-2015.

Le medie e le anomalie sono riferite alle 202 stazioni della rete sinottica internazionale (GTS) e provenienti dai dataset NOAA-GSOD. Per Nord si intendono le stazioni a latitudine superiore a 44.00°, per Centro quelle fra 43.59° e 41.00° e per Sud quelle a latitudine inferiore a 41.00°. Le anomalie termiche positive sono evidenziate in giallo(anomalie deboli, inferiori a 2°C), arancio (anomalie moderate, fra 2 e 4°C) o rosso (anomalie forti,di  oltre 4°C), analogamente per le anomalie negative deboli (minori di 2°C), moderata (fra 2 e 4°C) e forti (oltre 4°C) si adottano rispettivamente  l’azzurro, il blu e il violetto). Le anomalie pluviometriche percentuali sono evidenziate in  azzurro o blu per anomalie positive rispettivamente fra il 25 ed il 75% e oltre il 75% e  giallo o rosso per anomalie negative rispettivamente fra il 25 ed il 75% e oltre il 75% .

[1]              Questo commento è stato condotto con riferimento alla  normale climatica 1988-2017 ottenuta analizzando i dati del dataset internazionale NOAA-GSOD  (http://www1.ncdc.noaa.gov/pub/data/gsod/). Da tale banca dati sono stati attinti anche i dati del periodo in esame. L’analisi circolatoria è riferita a dati NOAA NCEP (http://www.esrl.noaa.gov/psd/data/histdata/). Come carte circolatorie di riferimento si sono utilizzate le topografie del livello barico di 850 hPa in quanto tale livello è molto efficace nell’esprimere l’effetto orografico di Alpi e Appennini sulla circolazione sinottica. L’attività temporalesca sull’areale euro-mediterraneo è seguita con il sistema di Blitzortung.org (http://it.blitzortung.org/live_lightning_maps.php).

 

Facebooktwittergoogle_pluslinkedinmail

Impulsi di raggi cosmici del 773 e 994 dC visti globalmente dagli anelli di accrescimento

Posted by on 06:00 in Attualità, Climatologia | 8 comments

Impulsi di raggi cosmici del 773 e 994 dC visti globalmente dagli anelli di accrescimento

È uscito recentemente su Nature Communications un articolo che mostra come gli anelli di accrescimento di alberi distribuiti in tutto il mondo presentino in modo sincronizzato la presenza di 14C durante gli eventi del 775 e del 994 dC. Questi eventi sono stati flussi di raggi cosmici della cui presenza il 10Be e il 14C sono prodotti derivati, insieme al 36Cl.

I 67 autori dell’articolo sono tra i principali studiosi mondiali di dendrologia e tra loro, almeno per quanto ne so, spiccano i nomi di Ulf Büntgen (primo firmatario), Rossane D’Arrigo, Jan Esper, Fusa Miyake -che già nel 2012 aveva descritto l’evento del 775 e nel 2013, nella tesi di dottorato, aveva ricostruito l’intensità dei raggi cosmici dagli anelli di accrescimento- Kurt Nicolussi, Rob Wilson che, in altra occasione, ho contattato personalmente (v. qui su CM) e di cui appprezzo la serietà. Scrivono gli autori che, con l’aiuto della sincronizzazione globale degli eventi del 775 e del 994 la datazione dell’accrescimento a passo annuale può ora essere calibrata con maggiore sicurezza, fornendo alla paleoclimatologia uno strumento importante e accurato. In particolare, nell’articolo si usano i cambiamenti improvvisi del 14C per supportare la calibrazione.

Dal basso della mia ignoranza sui dettagli delle procedure di calibrazione io continuo a credere che le incertezze e le correzioni da apportare per legare la temperatura all’accrescimento degli anelli siano troppe per poter fornire profili di temperatura confrontabili con i dati annuali delle temperature strumentali ma ritengo che un aumento della precisione almeno temporale sia importante.

Nella figura 1 dell’articolo -che riproduco di seguito- viene mostrato come gli eventi 775 e 994 dC siano stati registrati negli anelli di accrescimento (tree rings) di tutto il mondo (per la verità l’evento 994 dC è presente per l’emisfero sud solo in un sito cileno e in uno neozelandese ma penso che queste misure siano sufficienti per un’indicazione di carattere “globale”).

Avevo trattato l’argomento della coincidenza dei due eventi medievali in varie serie di prossimità (proxy) in un articolo del 2015 su CM (v. in particolare le figure 3 e 5 che riporto in basso come figure 2 e 3). Cercavo allora la coincidenza tra le misure dell’evento e le misure a Fuji Dome (la base antartica giapponese per il 775, oppure rispetto alla fig.8-1 della tesi di PhD di Miyake per il 994) notando una cattiva coincidenza con i tree ring della penisola di Yamal (Siberia) e una buona coincidenza con gli altri proxy (3 tree ring, GRIP δ18O, Page2k) per l’evento 775. L’evento 994 era caratterizzato da coincidenze presenti, ma meno chiare. Nello stesso articolo presentavo evidenze storiche degli eventi, tratte dagli annali medievali.

Fig.2. Confronto tra i proxy e i valori (indicati come fuji-5yrs) a passo quasi annuale ottenuti dagli autori. La riga verticale verde indica l’anno 775.

Fig.3: Confronto tra i proxy e l’evento del 994 d.C. nell’intervallo temporale 950-1050. La riga verde segna l’anno 994.

Dal confronto appare che alcuni proxy, ad esempio yamal e ak096, hanno registrato anche questo evento mentre per altri la situazione è più incerta. D’altra parte questo evento è meno potente di quello del 775 dC.

In conclusione, gli eventi del 775 e del 994 dC sembrano aver influenzato diversi dati di prossimità tra cui gli anelli di accrescimento degli alberi. Nell’articolo che ha dato origine a questo post le coincidenze presenti nei tree ring sono utilizzate per fornire alla paleoclimatologia cronologie annuali o quasi annuali più attendibili.
Di questo articolo si parla anche su Repubblica qui.

Bibliografia

  • Buntgen et al.(66), 2018.Tree rings reveal globally coherent signature of cosmogenic radiocarbon events in 774 and 993 CENature Communicationsdoi:10.1038/s41467-018-06036-0
  • Miyake, 2013. PHD Thesis: Reconstruction of cosmic-ray intensity in the past from measurements of radiocarbon in tree rings Nagoya University
Facebooktwittergoogle_pluslinkedinmail

Livelli atmosferici di CO2 e alimenti meno nutrienti: Perché ingigantire un problema facilmente risolvibile con le tecnologie attuali?

Posted by on 06:00 in Ambiente, Attualità | 9 comments

Livelli atmosferici di CO2 e alimenti meno nutrienti: Perché ingigantire un problema facilmente risolvibile con le tecnologie attuali?

Le nuove dame di carità

Ragionando dei livelli atmosferici di CO2 per il 2050 è previsto che raggiungeremo le 550 ppmv. Se dal punto di vista dell’atmosfera sarebbe preferibile che questo surplus non vi fosse perché CO2 è comunque un gas serra con indubitabili effetti sul clima, constato con preoccupazione la crescita esponenziale di una corrente di pensiero che tende a mostrare che anche in agricoltura gli accresciuti livelli di CO2 saranno deleteri e ciò nonostante l‘effetto di concimazione carbonica presenti il non trascurabile vantaggio di incrementare le rese potenziali di tutte le colture.

In tale corrente si colloca l’articolo di Smith and Meyers (2018) uscito il 27 agosto su Nature Climate Change di cui ho letto un resoconto qui (https://www.europeanscientist.com/en/agriculture/higher-atmospheric-co2-levels-are-leading-to-less-nutritious-crops/). In esso si dimostra che livelli elevati di anidride carbonica (CO2) nell’atmosfera stanno influenzando in modo negativo il contenuto di nutrienti delle colture di base, come riso, grano e mais, in ben 151 paesi con particolare riferimento al tenore in ferro, zinco e proteine. Questo è ritenuto dagli autori di particolare importanza poiché si prevede che le concentrazioni di CO2 raggiungeranno 550 ppm entro il 2050 con un impatto rilevante sulla salute umana a causa della riduzione del valore nutrizionale delle principali colture. Secondo l’articolo i livelli elevati di CO2 potrebbero potenzialmente causare ulteriori 175 milioni di persone con carenza di zinco e ulteriori 122 milioni di persone con carenza proteica. Lo studio suggerisce anche che le popolazioni che saranno maggiormente colpite in futuro saranno l’India, seguita dall’Asia meridionale, dal Sud-Est asiatico, dall’Africa e dal Medio Oriente.

Peraltro l’articolo è stato ovviamente ripreso dal Corriere della sera, che sempre più nella mia memoria si sovrappone alle “dame di carità” di cui parlava Giovani Guareschi in un noto raccolto di Don Camillo, le quali per risolvere un problema (la salute di Don Camillo messa a repentaglio da uno sciopero della fame) ne causavano uno peggiore (una terribile indigestione).

Avremo più cibo e dipenderà da noi il fatto che sia più o meno nutriente

Ritengo anzitutto necessario segnalare che applicando il modello di Goundrian e val Laar (Penning de Vries et al., 1989) il passaggio dalle 400 ppmv attuali alle 550 previste per il 2050 porterà ad incrementi produttivi potenziali del 23% rispetto ad oggi per le specie coltivate C3 (riso, frumento, soia, ecc.) e del 13% per le specie C4 (mais, sorgo, canna da zucchero, ecc.). A tale incremento, che non è per nulla trascurabile e che oggi viene nella maggior parte dei casi colpevolmente omesso da chi disquisisce di tali questioni, si associano i problemi legati alle carenze di ferro, zinco ed alla riduzione del tenore proteico.
Ma tali problemi, che già oggi costituiscono un elemento con cui gli agricoltori di tutto il mondo si confrontano, vengono già oggi risolti grazie alla tecnologia, il che dovrebbe auspicabilmente verificarsi anche in futuro.

Più in particolare il problema della carenza di zinco presente in moltissimi suoli a livello mondiale (figura 1) viene affrontato in modo efficace con concimazioni adeguate descritte ad esempio qui: https://www.zinc.org/crops/. Lo stesso dicasi per la carenza di ferro che è spesso dovuta al pH dei suoli e che si affronta correggendo la reazione dei suoli ovvero fornendo ferro alle piante in forma assimilabile. Peraltro voglio ricordare che per alcune colture come ad esempio il pomodoro la carenza di ferro dovrebbe essere attenuata proprio grazie dalla crescita dei livelli atmosferici di CO2 (Chong Wei Jin et al., 2009).
Circa poi la riduzione del tenore in proteine, la bibliografia attuale pone in luce il fatto che al crescere di CO2 si registra:

  • un aumento del tenore proteico nelle specie C3 leguminose, le quali assumono direttamente l’azoto dall’atmosfera grazie ai batteri presenti nei loro tubercoli radicali (Rogers et al., 2009).
  • una riduzione del tenore proteico nelle specie C3 non-leguminose quali frumento, orzo, patata e riso, le quali attingono l’azoto dal terreno, prevalentemente in forma di nitrato.
  • un aumento del tenore proteico nelle specie C4 come mais, sorgo, canna da zucchero le quali attingono anch’esse l’azoto dal terreno, prevalentemente in forma di nitrato.

In sostanza dunque la risposta delle colture all’aumento dei livelli di CO2 atmosferici è tutt’altro che univoca. Ciò detto per superare il problema della riduzione del tenore proteico, nel caso specifico del frumento sussistono almeno 4 strategie:

  1. Miglioramento genetico mirato a frumenti più efficienti in termini di accumulo di proteine nella granella. In tal senso la strada non pare facilissima ma le biotecnologie in questo settore stanno facendo passi da gigante, specie in paesi meno oscurantisti del nostro.
  2. Concimazioni fogliari con urea in soluzione acquosa, la quale viene assorbita con estrema facilità dalle piante e viene trasformata in ammonio che è la fonte alternativa allo ione nitrico per il processo di sintesi delle proteine. Su questo tema la bibliografia è vasta e cito unicamente un lavoro pakistano (Khan et al., 2009).
  3. Sistemi colturali in cui si privilegino le leguminose da granella le quali, come abbiamo visto, beneficeranno della crescita di CO2 aumentando ulteriormente non solo la loro produzione ma anche il loro già elevatissimo tenore proteico. Si tratta di una soluzione antica quanto l’agricoltura in quanto i primi agricoltori del medio oriente domesticarono frumento e orzo da un lato e le leguminose da granella dall’altro (pisello, fava, veccia, cece, lenticchia), consentendo con ciò l’affermarsi di diete a base di leguminose e cereali che risolvevano in modo inconscio un fondamentale problema dietetico e cioè quello per cui le proteine delle leguminose da granella sono ricche in lisina (di cui è invece povera la granella dei cereali) ma allo stesso tempo sono povere in amminoacidi solforati (cistina e metionina) di cui è invece ricca la granella dei cereali (e qui è bene ricordare la carne dei poveri non è costituita da soli fagioli ma da pasta e fagioli).
  4. Sistemi colturali in cui si privilegino i cereali C4, un po’ come fecero i nostri progenitori che nel XVI secolo riconvertirono in modo massiccio le loro colture di sussistenza dai cereali del vecchio mondo al mais. In particolare il mais è specie che pur beneficiando meno delle C3 dell’aumentato livello di CO2 atmosferica presenta già oggi una produttività sensibilmente superiore rispetto alle analoghe C3 (la sua media produttiva in Italia è oggi di oltre 9 t/ha contro le 6 del frumento) in virtù dell’incredibile successo avuto dalle strategie di miglioramento genetico condotte negli ultimi 50 anni. 

A molti oggi pare sfuggire che l’agricoltura è una tecnologia e come tale utilizza tecniche di concimazione, difesa fitosanitaria, diserbo, ecc. ed assai più dovrà farvi ricorso in futuro se vuole vincere al sfida di nutrire una popolazione mondiale che nel 2050 raggiungerà i 10 miliardi di abitanti.
In sintesi dunque ribadisco che la tecnologia agricola è chiamata ad evolvere per adattarsi ai più elevati livelli di CO2, livelli che sono di per sé in grado di incrementare in modo sensibile il potenziale produttivo delle colture. Solo se verrà meno la nostra capacità di adattamento verremo a trovarci nei guai e ciò accadrà se, seguendo le spinte di tipo ambientalistico, si trascureranno le agrotecniche e la genetica per ritornare ai buoni vecchi metodi di una volta, quelli per intenderci che tanto piacciono alle “dame di carità” di cui sopra e che hanno garantito per millenni fame e malattie alla grandissima parte dell’umanità.

Una domanda finale
Resta infine da domandarci perché questa continua enfasi sulle catastrofi prossime venture rivolta ad un pubblico generalista che non ha gli strumenti culturali per analizzare l’informazione che gli viene fornita deducendo i reali livelli di rischio. Perché non puntare invece su una strategia seria di divulgazione che stimoli l’agricoltura e non solo all’adozione e alla valorizzazione delle tecnologie più evolute oggi disponibili nei settori della genetica e delle tecniche colturali? Perché se la CO2 spaventa così tanto non si punta in modo più deciso sul nucleare? Tutte domande che penso ci porteremo nella tomba, perché temo che quella del paventato olocausto climatico sia un’arma vincente nelle mani di elite che hanno da tempo capito che mantenere la popolazione mondiale in uno “stato di paura senza vie d’uscita concrete” faccia maledettamente comodo, come già anni orsono ebbe a denunciare Michael Crickton nel suo coraggioso romanzo “STATE OF FEAR”.

Figura 1 – carenza di zinco nei suoli a livello globale (fonte – International Zinc Association – https://www.zinc.org/crops/).

L’articolo è stato pubblicato anche su Agrarian Sciences.

Bibliografia

  • Chong Wei Jin et al., 2009. Elevated Carbon Dioxide Improves Plant Iron Nutrition through Enhancing the Iron-Deficiency-Induced Responses under Iron-Limited Conditions in Tomato1, Plant Physiol. 2009 May; 150(1): 272–280. doi: 10.1104/pp.109.136721
  • Khan P., Memon M.Y., Imtiaz M., Aslam M., 2009. Response of wheat to foliar and soil application of urea at different growth stages, Pak. J. Bot., 41(3): 1197-1204.
  • Penning de Vries F.W.T., Jansen D.M., ten berge H.F.M., Bakema A., 1989. Simulation of ecophysiological processes of growth in several annual crops, Simulaton monograph 29, Pudoc, Wageningen, 271 pp.
  • Pleijel H., Uddling J., 2012. Yield vs. quality trade-offs for wheat in response to carbon dioxide and ozone, Global change biology, 18, 596-605.
  • Rogers A., Ainsworth E.A., Leakey A.D.B., 2009. Will Elevated Carbon Dioxide Concentration Amplify the Benefits of Nitrogen Fixation in Legumes? Plant Physiology, November 2009, Vol. 151, pp. 1009–1016.
  • Smith, M.R. and Myers, S.S. Impact of anthropogenic CO2 emissions on global human nutrition. Nature Climate Change (2018) DOI: 10.1038/s41558-018-0253-3
Facebooktwittergoogle_pluslinkedinmail

Qualcosa di nuovo sta accadendo nell’Atlantico?

Posted by on 06:00 in Attualità, Climatologia | 5 comments

Qualcosa di nuovo sta accadendo nell’Atlantico?

di Luigi Mariani e Franco Zavatti

Riassunto
Come messo in luce da un articolo scientifico del 2017 a firma di Eleanor Frajka-Williams, Claire Beaulieu e Aurelie Duchez si evidenzia che L’indice AMO calcolato con il metodo di Trenberth e Shea (2006) ha segnato di recente un passaggio in territorio negativo che non si verificava dal 1994. In questa sede si propongono alcune riflessioni su tale fenomeno, sulla sua significatività e sulla sua rilevanza in termini meteo-climatici e oceanografici.

Abstract
As highlighted by a scientific work of 2017 written by Eleanor Frajka-Williams, Claire Beaulieu and Aurelie Duchez, the AMO index calculated with the method of Trenberth and Shea has recently shownh a rtransition to negative values that were not observed since 1994. Here we propose some reflections on this phenomenon, its significance and its relevance for meteo-climatology and oceanography.

La presente nota fa riferimento ai risultati dell’interessante lavoro apparso nel 2017 su Nature Scientific reports a firma delle tre autrici Eleanor Frajka-Williams, Claire Beaulieu e Aurelie Duchez e che ha per titolo “Emerging negative Atlantic Multidecadal Oscillation index in spite of warm subtropics” (di qui in avanti FW17). Tale articolo parla di Atlantic Multidecadal Oscillation (AMO), indice oceanico che si ricava a partire dalla temperatura superficiale dell’oceano Atlantico (SST) corretta allo scopo di depurarla dal trend di riscaldamento in atto.

Il comportamento ciclico di AMO
Sebbene la SST risponda molto rapidamente alle anomalie atmosferiche, la serie temporale di AMO è dominata da una ciclicità multi-decadale a bassa frequenza che fa sì che l’indice resti in territorio negativo grossomodo per 30-35 anni e per altri 30-35 in territorio positivo. La SST dell’oceano Atlantico e di conseguenza l’AMO variano in funzione della Meridional Overturning Circulation (MOC) che nel suo ramo atlantico fluisce verso Nord rifornendo di calore il Nord Atlantico (https://en.wikipedia.org/wiki/Atlantic_meridional_overturning_circulation). In sintesi una MOC debole trasporta meno acqua calda verso Nord e dunque ad essa si associa un AMO negativo.

Sottolineiamo che AMO è una componente fondamentale della variabilità naturale del clima, tant’è vero che il suo segnale è stato riscontrato in proxy data fino ad oltre 8000 anni orsono (Knudsen et al., 2011).

La ciclicità di AMO è importante per la climatologia europea e globale in quanto il segnale di AMO è ben visibile sia nelle temperature europee sia in quelle globali (al riguardo si confrontino le figure 1 e 2 che mostrano che la ciclicità di AMO si riscontra pari pari nell’andamento delle temperature globali dal 1900 ad oggi). Pertanto un passaggio di AMO in campo negativo potrebbe dar luogo alla stabilizzazione o lieve calo delle temperature globali com’è in precedenza accaduto dagli anni 50 agli anni 70 del XX secolo. Inoltre ad un AMO positivo sono corrisposti fenomeni come l’aumento delle precipitazioni negli Stati Uniti, sull’India e sul Sahel e uno spostamento dei banchi di pesce nel Nord Atlantico. Da ciò discende che un ritorno a una fase fredda dell’AMO potrebbe essere accompagnata da effetti contrari con grosse ripercussioni anche a livello economico. Sempre dalla figura 1 emerge che AMO è stato per l’ultima volta in fase negativa agli inizi degli anni ’90 e che dal 1994 è in fase positiva.

Figura 1a – AMO descritto attraverso l’Indice di Tremberth e Shea (2006) e l’indice di Enfield et al. (2006).

Figura 1b – I backgroud oceanici usati per calcolare gli indici riportati in figura 1a.

Figura 2 – Anomalia delle temperature globali (GTA) dal 1900 ad oggi (Visser et al., 2018). Il confronto con l’andamento di AMO riportato in figura 1 evidenzia la presenza della medesima ciclicità.

 

Verso un AMO negativo?
Per capire come la situazione sia evoluta verso un AMO negativo occorre considerare che dal 2013/14 al 2014/15 si sono verificati inverni molto freddi sul Nord America, con picchi di freddo registrati nel Labrador, il che si è tradotto in una anomalia termica negativa nelle acque dell’Atlantico che dalla superficie si è trasferita alle prime centinaia di metri di profondità.
Peraltro l’anomalia fredda in un ambito subpolare si accompagna ad una anomalia calda ai sub tropici e una anomalia fredda nella fascia intertropicale con un caratteristico tripolo, evidenziato in figura 3. Mentre l’anomalia fredda subpolare è indotta dal raffreddamento diabatico per scambi energetici fra l’oceano e l’aria sovrastante, l’anomalia calda nei subtropici è frutto dei movimenti adiabatici verticali nella massa d’acqua indotti dal vento, per cui un cambiamento di regime dei venti potrebbe invertire l’anomalia positiva trasformandola in anomalia negativa che a questo punto interesserebbe gran parte dell’Atlantico settentrionale.

Figura 3 – La fenomenologia associata a un AMO negativo vista attraverso la temperatura di superficie dell’oceano Atlantico mediata latitudinalmente. All’anomalia negativa in ambito subpolare atlantico (centrata su 55°N) corrisponde un’anomalia positiva in ambito subtropicale (30°N) e una anomalia negativa in mbit tropicale (10°N). La linea nera indica l’anomalia media per il periodo 2014-2016 mentre le linee blu sono medie biennali per il periodo 1963-1974 (primo sottoperiodo della fase a AMO negativo ) e quelle rosse sono medie biennali per il periodo 1975-1996 (secondo sottoperiodo della fase a AMO negativo). Fonte: Frajka-Williams etal 2017.

Sulla rilevanza meteorologica del tripolo sopra delineato è utile ricordare che, come evidenziato ad esempio da Bradshaw et al. (2011), se si impone a un modello previsionale numerico un gradiente meridionale nella SST nel Nord Atlantico paragonabile a quello indotto da un AMO negativo si hanno come conseguenza variazioni nel campo della pressione a livello del mare con una più intensa baroclinicità atmosferica e la conseguente genesi di perturbazioni sottovento.

E’ lecito anche domandarsi che ruolo giochi la North Atlantic Oscillation (NAO) nel comportamento di AMO, alla luce del fatto che, secondo la bibliografia, il NAO fortemente positivo osservato nei primi anni ’90 potrebbe essere la causa della brusca transizione di AMO da valori negativi a positivi avvenuta nel 1994. Al riguardo FW17 osservano che quantunque i NAO invernali del periodo 2013-2016 siano stati positivi come quelli osservati nei primi anni ’90, il gradiente latitudinale di SST è oggi molto più pronunciato di quanto fosse nei anni ’90, il che potrebbe fare la differenza.

Il passaggio di AMO in campo negativo secondo il modello TS06
I metodi più accreditati per calcolare AMO sono quello di Trenberth e Shea (2006) di qui in avanti TS06 e a quello di Enfield et al. (2001) di qui in avanti EN01. In TS06 AMO si ottiene considerando la SST media della fascia da 0 a 60°N alla quale viene sottratta la SST media fra 60°N e 60°S mentre in EN01 l’indice AMO si ricava detrendizzando la SST in Atlantico per la fascia da 0 a 70°N. Fra i due metodi FW17 preferiscono TS06 perché più sensibile all’aumento delle temperature oceaniche che negli ultimi anni è stato sensibile e fortemente non lineare, per cui non viene colto da EN01. E’ partendo dai dati di TS06 riportati in figura 1 che FW17 segnalano il passaggio in campo negativo di AMO.

Scenari futuri per AMO
Applicando un modello previsionale a base statistica, FW17 hanno ricavato che l’anomalia negativa delle temperature superficiali oceaniche è probabilmente destinata a riassorbirsi con lentezza (con una probabilità dell’80% persisterà per almeno 2 anni) in quanto è supportata da un’anomalia negativa nel contenuto energetico delle acque sottosuperficiali che ha una memoria molto più lunga rispetto alle anomalie di SST (figura 4).
Al riguardo FW17 scrivono significativamente che il forcing necessario per rimuovere nei prossimi anni l’anomalia fredda subpolare è stimato in -0,5 GJ m-2 (figura 3) e potrebbe risultare da un flusso energetico positivo di 10 W m-2 per oltre 2 anni o da un’anomalia positiva nel flusso oceanico di calore verso nord di 0,1 PW per oltre 2 anni o da una combinazione di tali due flussi. A 26°N, dov’è il trasporto medio verso il nord del calore è circa 1,3 PW, un aumento del trasporto di calore verso nord di 0,1 PW equivarrebbe ad un aumento del 7.5% rispetto alla media, un valore che non è certo al di fuori della normale variabilità ma che si scontra con un trasporto verso Nord attualmente in calo ad un tasso di 0,5 Sv per anno (circa il 3% l’anno) (figura 5b), per cui la MOC avrebbe bisogno di recuperare diversi Sverdrup di intensità per raggiungere il suo scopo.
Se l’anomalia subtropicale calda è una caratteristica transitoria legata al regime dei venti, essa potrebbe anche invertirsi senza che questo impedisca il persistere dell’anomalia subpolare fredda ed in tal modo AMO potrebbe dispiegare appieno la propria anomalia fredda sull’intero bacino.
Sempre con riferimento a MOC è degna di attenzione la figura 5c che pone in luce l’effetto del trend al calo di MOC in corso dal 2004 sul contenuto energetico dell’oceano Atlantico confermato per tre diversi strati verticali.

Figura 4 – Andamento di AMO e del contenuto energetico nei primi 700 m di profondità per l’areale subpolare (box in rosso nella carta a sinistra) (Frajka-Williams etal, 2017). In sostanza AMO è un buon descrittore delle temperatura sottosuperficiale che una volta passata in campo negativo è lenta a ritornare in campo positivo. In grigio la previsione statistica

Figura 5 – Andamento delle temperature globali di superficie degli oceani (a), dell’intensità di MOC (b) e del contenuto energetico dell’oceano Atlantico per gli strati compresi fra la superficie i 300, 500 e 700 m di profondità. Si noti che al rallentamento di MOC corrisponde la stabilizzazione del contenuto energetico dell’Oceano Atlantico (Liu e Xie, 2018).

Discussione
L’analisi periodale di AMO eseguita da uno dei due scriventi evidenzia che questa variabile oeanica presenta una persistenza (memoria a lungo termine) elevata e che i periodi spettrali passano da un potente 72 anni ad un non forte 64 anni quando si analizzano i dati osservati e quelli corretti per la persistenza (v. ad esempio, su http://www.zafzaf.it/clima/atlas/atlashome.html , atlas.pdf, pag. 70 e seguenti), mentre i periodi di maggiore potenza diventano quelli tipici di El Nino. In relazione a ciò lascia perplessi che nel lavoro di FW17 si attribuisca tanta importanza alle SST (AMO) degli ultimi 3 anni, fra l’altro anni teatro di un potente El NINO che nell’articolo non viene mai nominato. Al riguardo si noti che tale potente El NINO è il responsabile del sensibile aumento delle temperature oceaniche globali che da un lato ha reso l’indice ricavato con il metodo EN01 non rappresentativo delle ultime evoluzioni di AMO e dall’altro ha spinto l’indice TS06 in territorio negativo. Da qui l’idea che il ritorno delle temperature oceaniche ai livelli pre El NINO possa far ritornare l’AMO calcolato con TS06 su valori positivi sanandone così la divergenza rispetto a EN01. Ciò non toglie comunque che le considerazioni di FW17 circa le recenti anomalie termiche registrate nell’Atlantico Subpolare mantengono inalterata la loro validità.

Da rilevare anche che la fluttuazione manifestata negli ultimi 3 anni dall’AMO calcolato con TS06 non si distingue in alcun modo dalle altre decine di oscillazioni di AMO che si colgono in figura 1. Non crediamo che FW17 abbiano verificato la situazione delle SST in occasione di precedenti oscillazioni (ad esempio nel 2003-06) come base per “prevedere a posteriori” il comportamento medio dell’AMO successivo, come fanno in questo articolo. In sostanza estrapolare il comportamento medio di AMO usando un minuscolo frammento (2015-2017) di una oscillazione di periodo multidecadale ci pare un tantino ardito e i referi della rivista avrebbero dovuto farlo notare alle autrici di FW17.

Al riguardo riteniamo più sensato il tentativo di previsione eseguito nel 2013 su CM (F. Zavatti, 2013) in cui si usavano 160 anni di dati per prevedere i successivi 15.
Ci pare anche interessante riflettere sul fatto che FW17 abbiano fatto ricorso a un modello statistico e non a un AOGCM per simulare l’evoluzione futura del contenuto energetico oceanico e dell’AMO. Questo ci porta ad evidenziare il fatto che gli AOGCM a quel che ci risulta non sono attualmente in grado di riprodurre in modo realistico la ciclicità dell’AMO, il che ci illustra i problemi tuttora presenti nella modellazione del sistema climatico globale terrestre per mezzo di modelli meccanicistici.

Conclusioni
Non abbiamo idea se gli scenari delineati da FW17 per i prossimi anni si manifesteranno o meno. Al riguardo pensiamo che i margini di incertezza siano moltissimi e tuttavia siamo anche convinti che quanto sta succedendo in Nord Atlantico debba essere monitorato mettendo al corrente i lettori di CM, prima che possano essere assaliti da annunci catastrofisti di vario genere. In ogni caso vale la pena di analizzare nelle sue varie sfaccettature un fenomeno che così tanta influenza ha sul clima europeo e mondiale.

Bibliografia

  • Bradshaw, D. J., Hoskins, B. & Blackburn, M., 2011. The basic ingredients of the North Atlantic storm track. Part I: Land-sea contrast and orography. J. Atmos. Sci. 68, 1784–1805.
  • Enfield, D. B., Mestas-Nunez, A. M. & Trimble, P. J., 2001. The Atlantic Multidecadal Oscillation and its relationship to rainfall and river flows in the continental U.S. Geophysical Research Letters 28, 2077–2080
  • Frajka-Williams etal 2017 Emerging negative Atlantic Multidecadal Oscillation index in spite of warm subtropics, Nature Scientific reports, https://www.nature.com/articles/s41598-017-11046-x
  • Knudsen etal 2011 Tracking the Atlantic Multidecadal Oscillation through the last 8000 years, Nature communications, https://www.nature.com/articles/ncomms1186
  • Liu, W., Xie S.P., 2018. An ocean view of the global surface warming hiatus. Oceanography 31(2), https://doi.org/10.5670/oceanog.2018.217.
  • Trenberth, K. E. & Shea, D. J., 2006. Atlantic hurricanes and natural variability in 2005. Geophysical Research Letters 33, L12704, doi:10.1029/2006GL026894.
  • Visser et.al. 2018. Signal detection in global mean temperatures after Paris – an uncertainty and sensitivity analysis, Clim. Past, 14, 139–155, https://doi.org/10.5194/cp-14-139-2018
  • Zavatti F., 2013. Il ciclo di 60 anni, i dati NOAA e il mal di pancia dei soliti noti, Climate monitor, http://www.climatemonitor.it/?p=34096
Facebooktwittergoogle_pluslinkedinmail

Un Mese di meteo – Luglio 2018

Posted by on 06:00 in Attualità, Climatologia, Commenti mensili, Meteorologia | 0 comments

Un Mese di meteo – Luglio 2018

IL MESE DI LUGLIO 2018[1]

Mese tutt’altro che monotono per la scarsa presenza di anticicloni e la persistente variabilità, accompagnata da attività temporalesca locale o sparsa.

La topografia media mensile del livello di pressione di 850 hPa (figura 1a) mostra l’Italia interessata da un debole regime di correnti settentrionali a lieve curvatura ciclonica, associate a una depressione centrata sull’Ucraina. Si noti anche l’anticiclone delle Azzorre che è visibile in basso a destra nella carta in esame e dunque in posizione anomala per la piena stagione estiva. Al suo posto notiamo solo un debole promontorio anticiclonico da Sudovest posizionato sulla Francia.

Figura 1a – 850 hPa – Topografia media mensile del livello di pressione di 850 hPa (in media 1.5 km di quota) per la prima e la seconda quindicina del mese. Le frecce inserire danno un’idea orientativa della direzione e del verso del flusso, di cui considerano la sola componente geostrofica. Le eventuali linee rosse sono gli assi di saccature e di promontori anticiclonici.

La diagnosi circolatoria testé enunciata è confermata dalla carta delle isoanomale (figura 1b) che evidenzia la depressione ucraina come principale centro di azione presente sulla nostra area con un nucleo di anomalia negativa di -3 m che protende una propaggine verso ovest a interessare la penisola Iberica e l’Italia, ove l’anomalia prevalente è di -1 m. La carta delle isoanomale evidenzia anche la presenza di un robusto nucleo di anomalia positiva (+ 12 m) centrato sul mar Bianco e che appare associato all’anomalia termica positiva evidenziata nella carta delle anomalie termiche globali della bassa troposfera prodotta dall’Università dell’Alabama – Huntsville http://nsstc.uah.edu/climate/.(figura 6).

Figura 1b  – 850 hPa – carta delle isoanomale del livello di pressione di 850 hPa per la prima e la seconda quindicina del mese.

Venendo all’analisi circolatoria giornaliera sull’Italia, la nostra area è stata interessata dal transito di 7 perturbazioni principali, in genere costituite da strutture di mesoscala di dimensioni relativamente ridotte (nulla a che vedere con le grandi saccature sinottiche) e per lo più accompagnate da attività temporalesca a carattere locale o sparso.

Andamento termo-pluviometrico

Le temperature medie mensili sono risultate per lo più nella norma sia nei massimi (figura 2) sia nei minimi (figura 3) salvo deboli anomalie positive al Centro-Nord e sulla Sardegna nei massimi e su tutta l’area nei minimi. L’assenza di anomalie termiche di rilevo sull’areale italiano è confermata dalla carta di anomalia termica globale della bassa troposfera prodotta dall’Università dell’Alabama – Huntsville http://nsstc.uah.edu/climate/.

Figura 2 – TX_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle massime del mese

Figura 3 – TN_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle minime del mese

La tabella 2 mostra invece le decadi in cui sono ricadute le deboli anomalie termiche positive dei massimi e dei minimi.

A livello mensile le precipitazioni (figura 4) sono risultate più abbondanti sul settentrione con massimi registrati su Val d’Aosta, Piemonte, Trentino e Veneto settentrionale. Del tutto assenti le piogge sulla Sicilia e su gran parte della Sardegna. La carta delle anomalie pluviometriche riportata in figura 5 mostra un’anomalia positiva sulla maggior pare del Settentrione, sul Lazio centrale, su Calabria meridionale, Molise, Gargano e provincia di Alghero. Per quanto attiene alle precipitazioni decadali (tabella 2) si nota che l’anomalia pluviometrica percentuale positiva ha interessato il Settentrione nella prima e terza decade e il Centro nella seconda.

Figura 4 – RR_mese – Carta delle precipitazioni totali del mese (mm)

Figura 5 – RR_anom – Carta dell’anomalia (scostamento percentuale rispetto alla norma) delle precipitazioni totali del mese (es: 100% indica che le precipitazioni sono il doppio rispetto alla norma).

Figura 6 – UAH Global anomaly – Carta globale dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media mensile della bassa troposfera. Dati da sensore MSU UAH [fonte Earth System Science Center dell’Università dell’Alabama in Huntsville – prof. John Christy (http://nsstc.uah.edu/climate/)

[1]              Questo commento è stato condotto con riferimento alla  normale climatica 1988-2017 ottenuta analizzando i dati del dataset internazionale NOAA-GSOD  (http://www1.ncdc.noaa.gov/pub/data/gsod/). Da tale banca dati sono stati attinti anche i dati del periodo in esame. L’analisi circolatoria è riferita a dati NOAA NCEP (http://www.esrl.noaa.gov/psd/data/histdata/). Come carte circolatorie di riferimento si sono utilizzate le topografie del livello barico di 850 hPa in quanto tale livello è molto efficace nell’esprimere l’effetto orografico di Alpi e Appennini sulla circolazione sinottica. L’attività temporalesca sull’areale euro-mediterraneo è seguita con il sistema di Blitzortung.org (http://it.blitzortung.org/live_lightning_maps.php).

Facebooktwittergoogle_pluslinkedinmail

Mirror posting da La Nuova Bussola Quotidiana: Incendi in California, miti e realtà

Posted by on 06:44 in Ambiente, Attualità | 3 comments

Mirror posting da La Nuova Bussola Quotidiana: Incendi in California, miti e realtà

In California non è ancora del tutto domato “Mendocino”, l’incendio che ha ghermito costa nord ed entroterra ed è diventato il più vorace negli annali dello Stato (vedi qui e qui): circa 400mila gli acri inghiottiti (circa 162mila ettari; vedi qui e qui). E poco più a nord un altro incendio ancora attivo, il Carr, ha già investito quasi 230mila acri (circa 93mila ettari; vedi qui).

Ma lobby ecologiste (per note ragioni) e grandi utilities di gas ed elettricità si ritrovano sullo stesso fronte nell’incolpare il global warming (vedi qui; le utilities, scaricando la responsabilità, mirano ovviamente a scongiurare il danno d’immagine e il versamento di pesanti indennizzi che devono fronteggiare quando si accerta che sono state loro apparecchiature a innescare gli incendi). La grancassa mediatica  (ad esempio, l’Economist: vedi questa copertina e questo editoriale) sta strepitando in questo senso, squalificando chi non concorda (vedi qui). Eppure, se la colpa fosse del global warming, negli ultimi decenni il numero di incendi annui e la relativa estensione di territorio in fiamme avrebbero presentato un chiaro andamento crescente, tendenzialmente lineare, come lineare e costante da decenni è indiscutibilmente la crescita della concentrazione atmosferica di CO2.

Ma così non è. Come ha evidenziato Cliff Mass nel suo blog, dal 1987 in California il numero di incendi mostra una tendenza alla diminuzione (vedi qui), mentre l’area interessata dalle fiamme presenta una grande variabilità da anno ad anno e nessun trend statisticamente significativo (vedi qui il grafico; i dati sono reperibili qui e, per il 2017, qui).

Sul rapporto della California con gli incendi prima degli anni Ottanta informa uno studio del 2017 di Keeley e Syphard. Per quanto concerne le zone di competenza dei vigili del fuoco dello Stato della California (Cal Fire), ossia generalmente quelle a minore altitudine e più popolate, almeno dagli anni Quaranta del XX secolo ad oggi si registra, confrontando i decenni, un evidente trend calante (vedi qui) quanto all’estensione di territorio colpita da incendi; fa eccezione soltanto la Costa Sud, che non manifesta trend significativi.

Per quanto concerne le zone di competenza del servizio forestale USA (USFS), ossia generalmente quelle a maggior altitudine, nel XX secolo si registrano andamenti molto diversificati (vedi qui), ma nessuno congruente con quello che ci si attenderebbe se il global warming stesse determinando, di decennio in decennio, il tasso di variazione dell’estensione di territorio arso. Nella Costa Nord il picco si registra negli anni Dieci e Venti, replicato negli anni Ottanta e Duemila, con un minimo negli anni Sessanta e Settanta. Simile l’andamento dell’entroterra settentrionale. Nella Costa Centrale si segnala un incremento costante dagli anni Quaranta a quelli Duemila, ma gli anni Venti hanno un dato addirittura superiore a quello degli anni Novanta e gli anni Dieci del XXI secolo si stanno distinguendo per un minimo perfino inferiore a quello degli anni Quaranta. Nella Costa Sud risalta un’impennata nel Duemila, che tuttavia non è stata bissata nel decennio in corso; per il resto, nessun trend significativo. Soltanto in Sierra Nevada si è verificato un andamento crescente dagli anni Sessanta ad oggi, ma gli anni Venti sono in marcata controtendenza, eccedendo addirittura il livello dei Duemila.

Si considerino inoltre le conclusioni, non ancora pubblicate, di uno studio di Jon Keeley, dal quale risulta che dal 1910 ad oggi il 95% degli incendi in California è stato causato dall’uomo. Ma non dalle emissioni umane di CO2 (il global warming non c’entra), bensì (vedi qui) da incuria (ad esempio durante la combustione di rifiuti) e imperizia nell’uso di strumenti come falciatrici, tosaerba, motoseghe, trattori e altri mezzi agricoli, nonché dal malfunzionamento degli stessi e, più in generale, delle apparecchiature adoperate per le utenze elettriche e del gas (e qui è la carenza di manutenzione a essere chiamata in causa). Meno frequente il dolo. Il restante 5% è causato dai fulmini.

Tirando le somme: i grandissimi incendi che stanno flagellando e hanno flagellato la California negli ultimi anni vanno indagati per predisporre, se possibile, la più efficace prevenzione futura; ma non si creda che tra le cause da combattere ci siano le emissione antropiche di CO2.

NB: l’articolo è di Alessandro Martinetti e lo trovate in originale qui.

Facebooktwittergoogle_pluslinkedinmail

Arrivano 5 anni di caldo, parola di nuovi metodi di previsione

Posted by on 06:00 in Attualità, Climatologia | 33 comments

Arrivano 5 anni di caldo, parola di nuovi metodi di previsione

Tanto per chiarire, la novità è nel metodo, non nei risultati. Un nuovo approccio alla previsione di breve periodo per la scala temporale climatica che gli ideatori definiscono PROCAST, acronimo di probabilistic forecast.

A novel probabilistic forecast system predicting anomalously warm 2018-2022 reinforcing the long-term global warming trend

Per la verità non si parla proprio di clima, ma della sola temperatura media superficiale annuale e, se la temperatura in se non è l’integrale del sistema, la sua media annuale lo è ancora meno, ma tant’è, per i prossimi 5 anni secondo questo paper avremo a che fare con un incremento del trend positivo della temperatura del pianeta. Il metodo, che potete andare a conoscere personalmente perché il paper è liberamente disponibile, ha il pregio di aver bisogno di capacità di calcolo risibili, per non dire praticamente insignificanti, rispetto alle enormi risorse necessarie per far girare i modelli climatici tradizionali: pochi secondi di un laptop rispetto alle due/tre settimane dei supercalcolatori, tale è la differenza. E’ pur vero però che per iniziare a lavorare, questo metodo ha bisogno degli output dei modelli tradizionali, per cui il miglioramento sarà semmai nei risultati, qualora questi, in sede di verifica, dovessero essere migliori di quanto ottenuto finora.

Che non è un gran che, visto che i modelli climatici prevedono un rateo di aumento della temperatura globale ben superiore a quello che si sta verificando dall’inizio di questo secolo. E, proprio con il periodo di stasi (o iato) della temperatura globale giunto inaspettatamente (cioè imprevisto 😉 e per l’ennesima volta consacrato a livello scientifico nonostante i duri e puri dell’AGW non ne vogliano sentir parlare ) nelle ultime due decadi, è stato condotto l’esperimento di hindcast (cioè la previsione del passato al fine di paragonare gli output con le osservazioni note) di questo nuovo metodo, con risultati che, secondo gli autori, hanno equiparato i sistemi tradizionali, ovvero con approccio non probabilistico.

Come in tutti questi tipi di ricerca, il lavoro si basa tuttavia su assunti piuttosto condizionanti, che sempre gli autori giudicano comunque “ragionevoli”. La risposta, ed è forse questo il vero valore aggiunto di questa previsione, la darà comunque la realtà delle osservazioni e, trattandosi di soli cinque anni di previsione, non ci sarà da aspettare molto. Sarà inoltre piuttosto interessante vedere come questa previsione reggerà al confronto dell’attuale minimo solare e dell’attività ridotta cui sembra stia andando la nostra stella, fattori che invece “tirano” il parametro temperatura nella direzione opposta.

Una curiosità. Nel commento che Science Daily ha dedicato a questo paper, leggiamo che più che all’aumento dei fenomeni di caldo, il rafforzamento del trend delle temperature dovrebbe venire dall’assenza di importanti episodi di freddo, naturalmente tutto spalmato nel tempo e nello spazio. Inoltre, all’origine del riscaldamento dovrebbe esserci una significativa tendenza al riscaldamento dell’Oceano Atlantico, che invece è in significativa anomalia negativa. Del resto su questo bisognerà prima o poi prendere una decisione: o l’Atlantico si raffredda perché si sciolgono i ghiacci artici, e questo ha impatto (freddo) sul clima europeo, oppure si riscalda e questo ha impatto sulla temperatura globale. Le due cose insieme non possono accadere.

Basta così, vi lascio al paper e mi godo i miei primi cinquant’anni 😉

Related Posts Plugin for WordPress, Blogger...Facebooktwittergoogle_pluslinkedinmail
Translate »