Climate Lab – Fatti e Dati in Materia di Clima

Tra la fine del 2015 e l’inizio del 2016, poco dopo la fine della COP21 di Parigi, abbiamo messo a punto un documento pubblicato nella sua interezza (e scaricabile qui in vari formati) con il titolo “Nullius in Verba, fatti e dati in materia di clima”. L’idea è nata dall’esigenza di far chiarezza, ove possibile e nei limiti dell’attuale conoscenza e letteratura disponibili, in un settore dove l’informazione sembra si possa fare solo per proclami, quasi sempre catastrofici.

Un post però, per quanto approfondito e per quanto sempre disponibile per la lettura, soffre dei difetti di tutte le cose pubblicate nel flusso del blog, cioè, invecchia in fretta. Per tener vivo un argomento, è invece necessario aggiornarlo di continuo, espanderlo, dibatterle, ove necessario, anche cambiarlo. Così è nato Climate Lab, un insieme di pagine raggiungibile anche da un widget in home page e dal menù principale del blog. Ad ognuna di queste pagine, che potranno e dovranno crescere di volume e di numero, sarà dedicato inizialmente uno dei temi affrontati nel post originario. Il tempo poi, e la disponibilità di quanti animano la nostra piccola comunità, ci diranno dove andare.

Tutto questo, per mettere a disposizione dei lettori un punto di riferimento dove andare a cercare un chiarimento, una spiegazione o l’ultimo aggiornamento sugli argomenti salienti del mondo del clima. Qui sotto, quindi, l’elenco delle pagine di Climate Lab, buona lettura.

  • Effetti Ecosistemici
    • Ghiacciai artici e antartici
    • Ghiacciai montani
    • Mortalità da eventi termici estremi
    • Mortalità da disastri naturali
    • Livello degli oceani
    • Acidificazione degli oceani
    • Produzione di cibo
    • Global greening

____________________________________

Contenuti a cura di Luigi Mariani e revisionati in base ai commenti emersi in sede di discussione e per i quali si ringraziano: Donato Barone, Uberto Crescenti, Alberto Ferrari, Gianluca Fusillo, Gianluca Alimonti, Ernesto Pedrocchi, Guido Guidi, Carlo Lombardi, Enzo Pennetta, Sergio Pinna e Franco Zavatti.

Le ultime sul buco dell’Ozono

Posted by on 11:48 in Ambiente, Attualità | 4 comments

Le ultime sul buco dell’Ozono

Nelle nostre dissertazioni invernali sulle evoluzioni del Vortice Polare Stratosferico dell’emisfero nord, abbiamo più volte accennato al fatto che la circolazione stratosferica dell’emisfero sud sia simile, ma tutt’altro che uguale a quella che ci riguarda più da vicino.

Nell’altra metà del pianeta, infatti, la prevalenza di superficie liquida rispetto alle terre emerse, la presenza di un continente (il sesto) interamente isolato e posizionato sul Polo e l’assenza di catene montuose importanti – eccezion fatta per le Ande – conferiscono al Vortice Polare Stratosferico molta più solidità del suo omonimo nel nostro emisfero. Solidità vuol dire anche forti velocità zonali e compattezza del vortice stesso, quindi, sebbene con le dovute differenze interannuali, anche raffreddamento molto più accentuato della stratosfera polare nei lunghi mesi della notte invernale.

Una stratosfera molto fredda – tracciabile anche attraverso la diffusa formazione di nubi nottilucenti, proprio come è accaduto quest’anno, è anche l’ambiente ideale per l’innesco dei processi chimici che portano al depauperamento dell’ozono, processi in parte naturali, ma soprattutto facilitati dalla presenza di clorofluorocarburi (CFC), gli idrocarburi banditi dal Protocollo di Montreal del 1989 che pare stiano finalmente diminuendo in concentrazione dopo il picco raggiunto nell’anno 2000.

Ebbene, terminato l’inverno australe, la NASA fa sapere che nonostante le condizioni ideali, quest’anno il “buco dell’ozono” è stato più piccolo di quanto sarebbe avvenuto a parità di condizioni negli anni ’90, ossia prima che fosse implementato il Protocollo di Montreal.

Ozone Hole Modest Despite Optimum Conditions for Ozone Depletion

Il cammino però sembra ancora lungo, dal momento che l’estensione dello strato atmosferico polare in cui l’ozono scende sotto la media delle 350-500 Unità Dobson (con minimo di 136 per quest’anno) è comunque ancora considerevole e soggetta a forti variazioni da un anno all’altro. Ad esempio, l’anno scorso, con condizioni ambientali molto diverse dovute ad una persistente debolezza del Vortice Polare Stratosferico e conseguente stratosfera “calda”, l’estensione era stata molto inferiore a quella di quest’anno.

Una curiosità: una unità Dobson è pari al numero di molecole che sarebbero necessarie a creare uno strato di ozono puro di 0,01mm alla temperatura di 0°C e con pressione equivalente a quella del livello del mare, per cui le 350-500 Unità Dobson misurate mediamente nell’atmosfera terrestre sono pari allo spessore di… 3,5-5mm. Tanto basta a quel particolare strato della nostra atmosfera per schermare il pianeta dalla radiazione ultravioletta che altrimenti lo renderebbe invivibile. La Natura fa tutto per bene, anche il minimo dettaglio!

Facebooktwittergoogle_pluslinkedinmail

Ancora sui danni del clima che farà, dimenticando quelli che oggi non fa.

Posted by on 13:41 in Ambiente, Attualità | 0 comments

Ancora sui danni del clima che farà, dimenticando quelli che oggi non fa.

Fa un po’ specie parlare di foreste in questi giorni, dopo i gravi danni che il forte maltempo del 29 ottobre scorso ha causato alla vegetazione delle nostre Alpi orientali ma, l’argomento che sto per proporvi in qualche modo vi si ricollega.

Si tratta di un paper uscito recentemente su Nature Communications e rilanciato da Science Daily. Qui di seguito le coordinate:

In sostanza, al di là della trasformazione abbastanza evidente del titolo e dei contenuti operata da Science Daily, si tratta di un lavoro nel quale sono stati presi in esame gli eventi di disturbo – siccità, incendi, attacchi da insetti etc…, subiti nel recente passato da una selezione di foreste temperate soggette a regime di protezione, con lo scopo di separare un eventuale segnale climatico, tipicamente associato all’aumento delle temperature ed alle condizioni di siccità, da quello molto più variabile e agente a scale temporali e spaziali più limitate imputabile alla variabilità atmosferica, ovvero, per esempio, l’incorrere di forti eventi di maltempo.

Qui sta il collegamento con i fatti recentemente accaduti, per inquadrare i quali, tuttavia, vi esorto a leggere un interessantissimo articolo di Gian Antonio Stella uscito su corriere.it nei giorni scorsi.

Ma, torniamo al paper, che Science Daily trasforma nel solito peana del clima che cambia e che invece parla di tutt’altro, anche perché, incredibilmente, in tutto il lavoro la locuzione “climate change” compare appena due volte. Ad ogni modo, quel che si evince, è che per l’aumento degli episodi di disturbo a larga scala, quindi soprattutto quelli legati a incendi e attacchi da insetti, sarebbe piuttosto evidente un segnale climatico, tipicamente rappresentato da temperature più elevate e minor apporto di precipitazioni.

La faccenda lascia un po’ perplessi, perché, come già affrontato in un altro lavoro recente, e spiegato da Luigi Mariani proprio su CM, a livello globale c’è una netta tendenza alla diminuzione degli incendi boschivi, segnale di aumento della resilienza e della prevenzione, certamente, ma anche di condizioni ambientali non inclini a favorire l’occorrenza di questi episodi.

Il Declino Globale delle Aree Soggette a Incendio: Alcune Riflessioni in Chiave Storica, Etnografica ed Ecologica

Ora, pur con l’interesse che l’analisi di cui si da conto nel lavoro di cui stiamo parlando, è sempre un bene che si rifletta su come aver cura del patrimonio boschivo, se le cose nei tempi recenti sono andate in un certo modo, perché, come al solito, dovremmo aver davanti un futuro peggiore?

Facebooktwittergoogle_pluslinkedinmail

Oceani, ritrovato il calore mancante?  

Posted by on 07:00 in Attualità, Climatologia | 8 comments

Oceani, ritrovato il calore mancante?   

Qualche giorno fa è stato pubblicato un articolo a firma del dr. G. Alimonti ( qui su CM) in cui si parlava di sensibilità climatica all’equilibrio, ovvero della grandezza che rappresenta l’aumento della temperatura media globale della Terra al raddoppio della concentrazione di diossido di carbonio in atmosfera. Nell’articolo e nei commenti si faceva notare come l’IPCC nel suo AR5, avesse individuato per tale grandezza, una fascia di valori entro cui essa dovesse essere compresa (1,5°C-4,5°C) e non avesse stabilito alcun valore di riferimento. Ricordo anche che negli studi più recenti, tale parametro tende ai valori più bassi della forchetta, come illustrato da questo grafico estratto da un commento di Robertok06.

Bassi valori della sensibilità climatica mal si conciliano con la narrativa corrente del surriscaldamento terrestre, in quanto implicano una scarsa reattività del sistema climatico ai gas serra di origine fossile. Detto in altri termini, lo studio dell’equilibrio radiativo terrestre con alti valori della sensibilità climatica all’equilibrio, presuppone che gli oceani contengano una quantità di calore maggiore di quella che si ottiene dalle misure. Tale problema è noto in ambiente scettico come problema del “calore mancante” o del “calore mannaro” e molte sono state le ipotesi formulate per spiegare il perché di questa differenza tra i risultati dei calcoli teorici e le misurazioni. Una delle più suggestive è stata elaborata dal dr. K. Trenberth e postula che il calore in eccesso sia scomparso nelle profondità oceaniche.

Che gli oceani siano un pozzo per il calore, è un fatto incontrovertibile per cui ci sarebbe poco da indagare: l’acqua ha una capacità termica enorme ed è in grado di immagazzinare una quantità altrettanto enorme di calore, anzi gli oceani sono il motore del sistema climatico in quanto essi garantiscono, attraverso la circolazione termoalina, la redistribuzione del calore tra poli ed equatore. Il problema è che nell’acqua il calore si trasmette per conduzione e, soprattutto, per convezione. In entrambi i casi ci si aspetta di passare gradualmente da una temperatura elevata in superficie ad una temperatura via via decrescente in profondità. Detto in altri termini un riscaldamento delle profondità oceaniche è illogico se le acque superficiali restano a temperatura costante.

La stima del calore contenuto negli oceani è piuttosto complessa e si basa su milioni di dati provenienti da navi, rilievi idrografici, boe fisse e mobili e, dopo il 2007, sulle boe robotiche del programma ARGO.

Tali dati sono piuttosto discontinui e disomogenei, per cui vengono sottoposti ad operazioni di interpolazione ed omogeneizzazione che riescono a fornirci valori di temperatura delle acque superficiali e profonde degli oceani. Da tali dati di temperatura si risale al contenuto di calore oceanico e, cosa ancora più importante, alla sua variazione nel tempo. Ebbene, tutti gli studi basati su queste metodiche hanno messo in evidenza un contenuto di calore degli oceani molto più basso di quanto ci si aspettasse dai calcoli teorici, effettuati ipotizzando alti valori della sensibilità climatica (transitoria ed all’equilibrio).

Un recentissimo studio i cui risultati sono stati pubblicati recentemente su Nature, sembra aver risolto il problema e trovato il calore mancante:

Quantification of ocean heat uptake from changes in atmospheric O2 and CO2 composition di L. Resplandy, R.F. Keeling, Y. Eddebbar, M.K. Brooks, R. Wang, L. Bopp, M.C. Long, J. P. Dunne, W. Koeve ed A. Oschlies (da ora Resplandy et al., 2018).

Resplandy et al., 2018 partono proprio dalle considerazioni che ho appena finito di svolgere e propongono un nuovo modo per calcolare il contenuto di calore degli oceani. Il punto fondante del loro studio riguarda il fatto che oceani più caldi determinano una degassificazione degli stessi. In particolare vengono emessi ossigeno, diossido di carbonio ed azoto che vanno ad accumularsi in atmosfera. Le quantità di gas emesse dagli oceani dipendono direttamente dalla temperatura degli stessi, per cui nota la variazione di concentrazione di questi gas in atmosfera, si può determinare la variazione di temperatura degli oceani e, quindi, la variazione di quantità di calore degli stessi.

Resplandy et al., 2018 partono dalla concentrazione di CO2  ed O2 atmosferica e calcolano un indice (APO) che tiene conto delle concentrazioni di questi due gas. Depurano, successivamente, questo dato dalle emissioni imputabili all’uomo ed alle fonti terrestri ed ottengono il valore delle emissioni di gas imputabili agli oceani relativamente al periodo 1991-2016.

Sulla scorta delle stime effettuate, Resplandy et al., 2018 giungono alla conclusione che l’IPCC nel suo 5° rapporto, ha pesantemente sottovalutato il contenuto di calore degli oceani: esso è circa il 60% più grande di quanto indicato in AR5 e nei lavori scientifici sui quali si basa il rapporto. Questo significa che la sensibilità climatica all’equilibrio si sposta verso l’alto e diviene addirittura maggiore del valore massimo previsto dall’IPCC. Conseguentemente risulta evidente che per raggiungere gli obiettivi dell’Accordo di Parigi e, quindi, contenere l’aumento della temperatura globale entro i 2°C rispetto alle temperature pre-industriali, bisogna ridurre le emissioni di gas serra di un ulteriore 25% rispetto a quanto previsto nell’Accordo di Parigi.

Resplandy et al., 2018 mi lascia molto perplesso. I motivi di perplessità sono diversi e mi limiterò ad elencarli commentandoli brevemente. Spero che su di essi possa svilupparsi un dibattito costruttivo.

Resplandy e colleghi calcola il contenuto di calore degli oceani attraverso un dato di prossimità, la quantità di diossido di carbonio e di ossigeno rilasciati dagli oceani. Questo dato non è misurato direttamente, ma desunto da una serie di differenze che coinvolgono dati relativi ad altri parametri a loro volta stimati anche mediante modelli numerici. Mi sembra che l’incertezza dei risultati associata a queste complesse operazioni di stima che coinvolgono diversi modelli matematici, sia ben maggiore di quella indicata nello studio (+/- 0,11 w/m2 di superficie terrestre).

Si dice che il diossido di carbonio sia un gas ben diluito nell’atmosfera terrestre, per cui la sua concentrazione può essere stimata sulla base di un piccolo numero di misurazioni. Vale lo stesso discorso anche per l’ossigeno?

L’ossigeno è un gas molto più reattivo del diossido di carbonio, per cui esso si combina con moltissime sostanze presenti sulla superficie terrestre e quindi non sono affatto convinto che esso, una volta rilasciato dagli oceani, permanga nell’atmosfera per anni come sembra accadere per la CO2. Il ciclo dell’ossigeno è, inoltre, estremamente più complesso da ricostruire rispetto a quello del diossido di carbonio.

Siamo in grado di determinare con certezza il ciclo dell’ossigeno e del diossido di carbonio tenuto conto delle quantità di diossido di carbonio emessa dall’uomo, dagli ecosistemi terrestri e dagli altri “pozzi di carbonio” terrestri? Abbiamo individuato perfettamente tutti i passaggi che regolano il complesso scambio gassoso tra oceani ed atmosfera?  Io penso di no, per cui ho molti dubbi che il calcolo effettuato da Resplandy et al., 2018, abbia una precisione tale da poter considerare i loro risultati migliori di quelli ottenuti mediante misurazioni dirette delle temperature marine.

Il metodo elaborato da Resplandy et al., 2018, mi sembra molto simile ai modelli semi-empirici utilizzati per stimare il tasso di aumento del livello del mare e ho l’impressione che sia affetto dagli stessi problemi: sovrastima pesantemente i risultati delle elaborazioni numeriche. Personalmente reputo poco realistici tutti quei metodi che trascurano le grandezze fisiche misurabili direttamente, per sostituirle con dati di prossimità piuttosto aleatori. Una cosa è far ricorso ai dati di prossimità quando si ha a che fare con grandezze non misurabili direttamente (caso delle paleo temperature, per esempio), un’altra è sostituire le misure eseguibili direttamente con quelle derivate da dati di prossimità.

Altro punto debole dello studio mi sembra sia quello di legare il contenuto di  calore globale dell’oceano ad un parametro di cui conosciamo poco, ovvero la quantità di gas rilasciato. Lo scambio gassoso tra oceano ed atmosfera è molto, ma molto complesso e dipende da numerosi fattori: concentrazione del gas in atmosfera, temperatura dell’acqua oceanica, circolazione termoalina, fotosintesi ed altre variabili biologiche  e via cantando. Oggi si parla di acidificazione degli oceani perché l’aumento di CO2 atmosferica, determina una maggiore concentrazione della CO2 disciolta in acqua. Sembrerebbe che gli oceani assorbano circa un quarto del diossido di carbonio prodotto dall’uomo, per cui la quantità di diossido di carbonio rilasciata dagli oceani per aumento di temperatura, dovrebbe essere di molto inferiore a quella assorbita, altrimenti non ci sarebbe acidificazione degli oceani. Siamo in grado di stimare questa quantità isolandola dal “rumore di fondo” dello scambio gassoso oceani-atmosfera indotto dalla variazione di concentrazione atmosferica della CO2 e da tutte le altre variabili che regolano gli scambi gassosi oceano-atmosfera? Ho fortissimi dubbi in proposito e questi dubbi crescono se guardo i grafici allegati all’articolo (nubi di dati molto estese rispetto ai valori medi calcolari).

E per finire, siamo proprio sicuri che le misurazioni che hanno generato i dati relativi alle grandezze che regolano gli scambi gassosi oceano atmosfera siano più uniformi e più omogenee di quelle relative alle temperature? Io penso di no. La temperatura è un dato molto più semplice da misurare rispetto a parametri come la concentrazione dei gas disciolti nelle acque oceaniche e quella dei gas atmosferici. La rete utilizzata per la misura delle temperature, pertanto, dovrebbe essere molto più estesa e capillare di quella che viene utilizzata per la misura dei dati, posti a base dello studio di Resplandy e colleghi.

In conclusione reputo molto più affidabili i lavori basati su dati di temperatura misurati che Resplandy et al., 2018, per cui concludo che il calore mancante ancora non è stato trovato.

Post Scrittum

Dopo aver editato questo interessante post di Donato Barone, ho trovato in rete un articolo di Nick Lewis rilanciato su twitter da Judith Curry. Pare che l’articolo in questione sia viziato da un errore molto significativo nei calcoli e da deduzioni non supportate dai dati. In sostanza c’è un errore nella quantità di calore individuata, che sarebbe invece largamente inferiore, e la tesi che sia necessario alla luce dei dati forniti un ulteriore 25% di riduzione delle emissioni per centrare il target dei 2°C non trova giustificazione nel ragionamento degli autori.

Lewis ha richiesto e sollecitato una risposta degli autori, senza fortuna, comunicando loro le sue intenzioni di scrivere un commento o rebuttal. Se l’errore individuato dovesse essere reale (e lo è), è incredibile che questo paper abbia passato il referaggio su Nature, a meno che, trattandosi dello scaffale “è peggio del previsto, abbiamo poco tempo e dobbiamo fare di più” non sia stato pubblicato sulla fiducia ;-).

Chissà se vedremo mai una correzione, stiamo pur certi che non vedremo mai una riconsiderazione da parte dei media del risalto dato a questo paper.

Spero che Donato mi perdoni l’incursione nel suo post.

gg 

Facebooktwittergoogle_pluslinkedinmail

Il Global Warming e le sue conseguenze, la scienza va da una parte, l’isteria, ovviamente, dall’altra.

Posted by on 07:00 in Ambiente, Attualità | 18 comments

Il Global Warming e le sue conseguenze, la scienza va da una parte, l’isteria, ovviamente, dall’altra.

Maltempo, forte maltempo quello del 29 ottobre scorso. Una delle più intense perturbazioni degli ultimi decenni. Con precedenti noti, certo, ma sicuramente molto intensa. A seguire, maltempo d’autunno, dovuto alla persistenza di un regime circolatorio di blocco che lascia il Mediterraneo in condizioni depressionarie, con eventi intensi da cui non siamo ancora fuori, ma per documentarvi su questo, lo sapete, non è su CM che si deve guardare.

Qui cerchiamo semplicemente di indagare e divulgare, quando presente, la letteratura scientifica che dovrebbe essere l’unica fonte di informazione certa per orientarsi nei temi meteorologici e climatici e negli effetti che questi hanno sul nostro mondo. E, come spesso ci succede, andiamo in controtendenza.

In questi giorni, nonostante la letteratura appunto metta fortemente in guardia dal fare associazioni di sorta tra gli eventi meteorologici, siano essi ordinari, intensi o estremi, con il riscaldamento globale, in quasi tutti i commenti questa associazione appare ovvia e scontata, e oscura inevitabilmente ogni altra considerazione inerente alle concause che, purtroppo, sono spesso all’origine della pesantezza del prezzo che si paga quando vento e pioggia colpiscono con durezza.

Le immagini che vediamo in questi giorni provocano sgomento, le notizie sono terribili, ma forse, leggere questo commento uscito sul Corriere un paio di giorni fa potrà aiutare a capire che il maltempo, anche se forte, è uno solo dei fattori che vanno considerati, ad esempio, per la devastazione dei boschi di abeti rossi dell’alto Veneto. E non saranno progetti di lungo periodo per ridurre le emissioni a risolvere il problema prima della prossima volta che, statene pur certi, prima o poi ci sarà.

Però, mentre nel giro di qualche giorno qualcuno ci spiegherà che se il mare fosse stato di qualche decimo di grado più freddo il vento e la pioggia sarebbero stati meno forti (quant’era la temperatura del mare nel 1966?), ossia mentre si cercherà di aggirare il problema delle serie storiche degli eventi intensi che non restituiscono informazioni chiare circa il collegamento con il global warming, nessuno vi dirà che, in un mondo che dovrebbe essere sull’orlo del collasso, la produzione di materie prime alimentari di base come il Mais, si è giovata in modo sensibile non solo della tecnologia produttiva, non solo della fertilizzazione da CO2 (che è il cibo delle piante), ma anche, incredibilmente, dell’aumento delle temperature, cioè di un clima più mite.

Changing temperatures are helping corn production in US — for now

Non solo, nell’area la cui produzione è stata oggetto di questa ricerca, il Mid West americano, sono sì aumentate mediamente le temperature, ma sono anche diminuiti i giorni di picco del caldo, vai a capire perché. Però, naturalmente, per avere diritto di cittadinanza nel mondo della scienza del clima che cambia, che prima si chiamava scienza del clima e basta, si deve chiarire già nel titolo che questi effetti positivi sono solo… per ora. Domani, statene certi, le conseguenze saranno ben altre e certamente negative. Per cui per ora, controvoglia come sembra abbia fatto chi ha scritto questo commento, registriamo su dati reali, misure oggettive e non simulazioni di effetti di qui a cento anni, che con il global warming è più facile produrre cibo. Per ora…

Facebooktwittergoogle_pluslinkedinmail

My Hometown

Posted by on 13:41 in Attualità, Climatologia | 16 comments

My Hometown

Le tue origini, il posto in cui sei nato. Magari, se sei fortunato anche quello in cui vivi o, chissà, quello che ti ha adottato e per questo senti tuo. Un posto che però ti cambia sotto, migliora, peggiora, chi lo sa, sono troppe le variabili nell’arco della vita di un uomo per poterlo dire.

Ma c’è una cosa che, a quanto pare, si può dare per certa: quel posto, bello o brutto, ricco o povero, brulicante di vita o abbandonato che sia diventato, di sicuro sarà… più caldo. E, climate change docet, lo diventerà ancora di più.

Oggi, fortunelli che non siamo altro, possiamo anche sapere di quanto. A colmare la nostra sete di conoscenza ci pensa il NYT, con un tool interattivo on line che, appunto, ti dice quanto più calda è diventata la tua “hometown” da quando sei nato, cioè quanto è cambiato nel tempo il numero di giorni con temperature superiori a 32°C. Nome del luogo, anno di nascita et, voilà, il riscaldamento locale è servito.

La prima curiosità che mi è venuta visitandolo è stata quella di capire da dove venissero le informazioni. Il primo passo è stato facile, i dati li fornisce un progetto che si chiama Climate Impact Lab, la cui finalità, scrivono, è quella di misurare i costi del climate change nel mondo reale. Secondo passo un po’ più complicato, ma non troppo; scartata l’ipotesi che potessero essere disponibili delle serie storiche per tutte le località possibili, si scopre che il dato cosiddetto “osservato” proviene dalla serie del Berkeley Institute, altro progetto che qualche anno fa ha messo insieme i dati osservati delle varie serie globali disponibili ed ha ricalcolato un dataset delle temperature globali. La griglia è di 1°X1°, cioè circa 111km, va da se che l’informazione non sarebbe utile per distinguere la città di Mario Rossi da quella Paolo Bianchi, perciò viene applicato un downscaling spaziale facendo uso di dati di rianalisi e serie locali, cioè di un modello che dovrebbe riportare l’informazione a dimensioni a misura d’uomo. Messa così la questione è da esercizi alle sopracciglia, ma grazie alle verifiche fatte dall’amico Franco Zavatti, abbiamo scoperto che, pur con non banali differenze, l’esercizio restituisce dati che in qualche modo non si allontanano troppo dalla realtà.

Qui di seguito la ricostruzione delle serie storiche di Milano Linate e Brera, con dati che l’altro amico Luigi Mariani ha prontamente messo a disposizione.

Come potrete verificare personalmente, la dose di modellizzazione del dato fa scomparire quasi del tutto la forte variabilità interannuale, pur restituendo una buona corrispondenza sui punti di partenza e di fine. Questo allisciamento, nasconde anche i cambiamenti di regime circolatorio, che saranno pure (chi può dirlo?) da imputare all’AGW, ma che sicuramente dicono la loro in materia di evoluzione di medio periodo del clima di un’area più di quanto non dicano i termometri per se. Inoltre, è evidente che su Brera in particolare pesi molto l’effetto UHI (Isola di Calore Urbano) nella serie grezza, cioè il riscaldamento indotto dalla modifica che molte località hanno subito passando da ambiente rurale ad ambiente urbano. Questo la serie Berkeley ed il relativo downscaling se lo perdono per strada.

Ciò non toglie che, si tratti di cemento, asfalto, condizionatori d’aria, motori vari o, CO2, per entrambe le località e per quasi tutte quelle in cui ci si può divertire a controllare, il numero di giorni con più di 32°C sia aumentato, anche in modo sensibile.

E’destinato ad aumentare ulteriormente? Come già accennato, anche questo ce lo dice il tool, applicando lo scenario climatico RCP 4.5, ossia quello in cui il forcing radiativo dovrebbe stabilizzarsi rapidamente dopo il 2100 in ragione di emissioni dapprima ancora in salita, poi in discesa fino a circa 650 ppm.

Bene, soddisfatta e verificata la curiosità di vedere come è cambiata la propria hometown da quando si è nati, ha senso immaginarne il cambiamento di qui al 2100? Non con questi strumenti probabilmente. Certamente, la serie storica Berkeley e il downscaling lavorano bene, ma sarebbe interessante vedere come avrebbe lavorato la proiezione, cioè il paragone tra il dato osservato (sebbene molto allisciato) e la corrispondente previsione per gli anni già trascorsi, ovviamente con lo stesso scenario di emissioni.

Questo il tool non lo fa, eppure sarebbe stato un esercizio interessante per testare e magari corroborare la proiezione che invece viene messa in bella evidenza. Forse perché le due cose non coincidono? Chissà.

Chiudiamo in bellezza, qui sotto il video di un irragiungibile Bruce Springteen in My Hometown.

PS: questo post è dedicato ad un amico, che legge e sa che lo aspettiamo con il sorriso.

Facebooktwittergoogle_pluslinkedinmail

Maltempo e danni, molto meno scontato di quel che sembra

Posted by on 18:28 in Ambiente, Attualità, Climatologia, Meteorologia | 22 comments

Maltempo e danni, molto meno scontato di quel che sembra

E’ autunno e, ahimè il tempo ha deciso di rimettere le mani al martello. Notare, rimettere, perché l’autunno, qui da noi, non è solo una stagione dai colori stupendi, è anche stagione di maltempo. Le prime irruzioni di aria fredda, il mare caldo, il sole ancora abbastanza alto nel cielo e il risultato è… anche su wikipedia: la maggior parte delle alluvioni arrivano appunto in autunno, si tratti di flash floods o di esondazioni, magari condite con la grandine come un paio di notti fa a Roma.

E si contano i danni, che sono sempre più ingenti, perché il territorio non ce la fa più e perché di territorio per fiumi e torrenti non ce n’è quasi più. Ma, inevitabilmente, a tenere banco nei commenti è il clima che cambia. Sarà davvero questa la causa? Dovremo aggiornare le pagine di wikipedia? Chi può dirlo, per ora le serie storiche riferite alla frequenza ed all’intensità degli eventi intensi non sono attendibili e, quando lo sono, non confermano, lo dice anche l’IPCC, che pur lanciando i soliti moniti lo ha ripetuto anche nell’ultimo Report redatto per gli usi e consumi della prossima kermesse climatica.

Forse, volendo entrare nel merito della questione sarebbe il caso di dare provare ad analizzare i dati sulla relazione tra danni ed eventi atmosferici intensi anche da noi, ne potrebbe saltar fuori qualcosa di interessante. Già, perché dove è stato fatto è andata proprio così.

Sono analisi di cui abbiamo già parlato molte volte, ma vale la pena tornarci su. La relazione di cui sopra, se pulita e normalizzata tenendo conto dell’aumento della ricchezza potenzialmente a rischio, mostra chiaramente che l’aumento delle perdite non è ascrivibile ad un aumento della frequenza o intensità degli eventi. Non solo, è anche abbastanza chiaro che il rapporto tra le perdite e il PIL globale ha un trend negativo, indicando un aumento della capacità di resilienza, come è giusto che sia considerato che l’uomo ha imparato da sempre a coesistere con la violenza della Natura, mentre si è illuso solo da qualche decennio di poter influire in modo significativo su di essa, pretendendo di averne alterate le dinamiche prima e di volerle rimettere a posto ora.

Roger Pielke Jr, scienziato americano che si occupa da anni di questi argomenti, ha pubblicato un aggiornamento alla sua ricerca, confermando gli esiti già evidenziati in precedenza.

E’ un documento di cui consiglio la lettura, primo perché è obbiettivo, secondo perché è scritto da uno che non ha mai chiuso la porta alla possibilità che una certa quantità di contributo antropico alle dinamiche del clima ci sia e si debba lavorare per comprenderne l’ampiezza e adottare, ove possibile, delle misure correttive, pur escludendo però politiche draconiane e controproducenti ispirate alla decrescita, tipo quelle che piacciono tanto a chi pensa di possedere la ricetta del clima.

Il materiale è qui, nella forma del primo paper su questo argomento e dell’aggiornamento più recente. Sarebbe bello che lo leggesse qualcuno in più del solito, magari avremmo le stesse bombe d’acqua e qualche danno in meno.

PS: a proposito del fortunale di domenica sera su Roma e dintorni, chissà se qualcuno ha pensato che in questa stagione cadono le foglie e sarebbe meglio raccoglierle, prima di immaginare moratorie sull’uso dei combustibili fossili…

PS2 (non la Play Station): domani al Nord ci sarà il Foehn o, come lo chiamano in molti, il Favonio. SUlla cronaca si parla già di “caldo anomalo”, ove per anomalo si intende naturalmente quello che succede da sempre ma non dura nella memoria di chi ascolta quanto la notizia generica media, cioè si è no il tempo di pronunciarla.

Facebooktwittergoogle_pluslinkedinmail

Sul numero dei cicloni atterrati negli Stati Uniti

Posted by on 07:00 in Attualità, Climatologia | 6 comments

Sul numero dei cicloni atterrati negli Stati Uniti

Sono davvero dispiaciuto, ma devo sottolineare che la figura prodotta da Roy Spencer sul suo sito e che riproduco in figura 1, è sbagliata e ingannevole.

Fig.1: Numero di cicloni di categoria ≥3 atterrati negli Stati Uniti. È la seconda figura del post di Roy Spencer. Da notare l’inizio nella nona decade (1931-40) e l’uso della diciassettesima decade, incompleta.

È sbagliata perché

  1. Come decade iniziale viene usata la nona su 16, e non la prima (1851-60). Questo è un cherry picking inutile oltre che sbagliato, come vedremo successivamente.
  2. Usa la diciassettesima decade (2011-20) che non deve essere usata perché la stagione 2018 termina a Novembre (e il grafico arriva fino all’11 ottobre, come è scritto) e perché, in tutta evidenza, non si possono avere i dati del 2019 e del 2020.
    La scelta dell’intervallo che precede il massimo di frequenza come intervallo iniziale e l’uso dell’ultimo intervallo che potrebbe avere un valore pari a un terzo o più del valore vero, porta alla notevole pendenza negativa che si vede nella figura.Per capire qual’è l’andamento corretto del numero di cicloni per decade bisogna risalire ai dati originali, disponibili in forma di tabella nel sito AOML_HRD (NOAA, Hurricane Research Division) e in una delle tabelle finali del lavoro di Blake e Gibney (2011) (disponibile liberamente nel sito di supporto). Naturalmente i dati sono presenti anche all’NHC (National Hurricane Center) ma, per quanto ho potuto vedere, in modo meno immediato rispetto ai due siti precedenti.Questi due siti nascono chiaramente dallo stesso dataset iniziale ma hanno frequenze per decade diverse, credo a causa di una diversa classificazione della categoria degli eventi. Non sapendo quale distribuzione sia la migliore, ho deciso di mostrarle entrambe: le frequenze di AOML_HRD le ho trascritte a mano, sfogliando la lista; quelle di Blake e Gibney sono presenti nella loro Tabella 6. Va sottolineato che l’elenco AOML_HRD è aggiornato al 31 luglio 2018, mentre il resoconto tecnico NOAA di Blake e Gibney è datato 2011.

Fig.2: Numero di cicloni di categoria ≥3 atterrati negli USA, secondo i dati AOML_HRD. Notare che non viene usata la 17.ma decade.

Fig.3: Numero di cicloni di categoria ≥3 atterrati negli USA, secondo i dati della tabella 6 di Blake e Gibney (2011).

Gli istogrammi delle due ultime figure mostrano una pendenza positiva di (6±11)x10-2 eventi/decade e 7±12)x10-2 eventi/decade, rispettivamente; praticamente la stessa e non significativa, con un’incertezza relativa di quasi il 100%. Quindi si può dire che la frequenza di atterraggio dei cicloni negli USA è rimasta costante negli ultimi 160 anni.
Il tentativo fatto da Roy Spencer (è un ricercatore troppo esperto perché non si debba immaginare un motivo diverso da un tentativo ingenuo) è quindi inutile: i dati presi nella loro interezza mostrano senza dubbio che il cosiddetto cambiamento climatico (l’AGW) non ha influito sul numero degli eventi estremi osservati negli USA. Forse si poteva immaginare il risultato, visto che la potenza dei cicloni non dipende dalla temperatura assoluta dell’oceano ma dal gradiente di temperatura e visto che fenomeni come l’amplificazione artica producono un minore gradiente delle temperature.

Questo post nasce da un commento, scritto per uso personale, al nuovo report dell’IPCC SR1.5 nel quale usavo il grafico di Roy Spencer; dopo un primo dubbio, ho cercato di verificare i risultati.

Nel sito di supporto sono presenti anche i grafici delle serie temporali ordinate per categoria, pressione minima e velocità del vento all’atterraggio, derivate dall’elenco AOML_HRD.

Tutti i dati relativi a questo post si trovano nel sito di supporto qui
Facebooktwittergoogle_pluslinkedinmail

Un Mese di Meteo – Settembre 2018

Posted by on 06:00 in Attualità, Climatologia, Commenti mensili, Meteorologia | 1 comment

Un Mese di Meteo – Settembre 2018

IL MESE DI SETTEMBRE 2018[1]

Mese scarsamente piovoso e con temperature per lo più in debole anomalia positiva.

La topografia media mensile del livello di pressione di 850 hPa (figura 1a) mostra un promontorio anticiclonico da Ovest che insiste sull’Arco Alpino sbarrando l’accesso alle perturbazioni atlantiche. Il meridione è dal canto suo influenzato da una saccatura connessa alla depressione anatolica (lettera B in basso a destra) da cui derivano le anomalie positive a carattere locale delle precipitazioni presenti su Molise e Sardegna. Tale diagnosi circolatoria è confermata dalla carta delle isoanomale (figura 1b) che evidenzia un nucleo di anomalia negativa da -0.5 m centrato fra Creta e la Libia. L’analisi circolatoria giornaliera sull’Italia ha evidenziato il transito di un totale di 5 perturbazioni descritte in tabella 1.

Figura 1a – 850 hPa – Topografia media mensili del livello di pressione di 850 hPa (in media 1.5 km di quota) per il mese. Le frecce inserite danno un’idea orientativa della direzione e del verso del flusso, di cui considerano la sola componente geostrofica. Le eventuali linee rosse sono gli assi di saccature e di promontori anticiclonici. Figura 1b e 1d – 850 hPa – carte delle isoanomale del livello di pressione di 850 hPa per la prima e la seconda quindicina del mese.

Figura 1b – 850 hPa – carta delle isoanomale del livello di pressione di 850 hPa per il mese.

Tabella 1 – Sintesi delle strutture circolatorie del mese a 850 hPa. Il termine perturbazione sta ad indicare saccature atlantiche o depressioni mediterranee (minimi di cut-off) o ancora fasi in cui la nostra area è interessata da regimi che determinano variabilità perturbata (es. flusso ondulato occidentale).

Andamento termo-pluviometrico

Temperature medie delle massime mensili (figura 2) nella norma su meridione e isole maggiori e in anomalia positiva da debole a moderata sulla maggior parte del centro-nord con la significativa eccezione del litorale adriatico dalla Romagna all’Abruzzo che ha presentato temperature massime nella norma. Temperature medie delle minime (figura 3) in lieve anomalia positiva sulla maggior parte dell’area. L’analisi delle temperature decadali (tabella 2) evidenzia che le anomalie positive si sono concentrate nella seconda decade del mese.

Figura 2 – TX_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle massime del mese

Figura 3 – TN_anom – Carta dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media delle minime del mese

L’anomalia termica testé descritta è confermata dalla carta delle anomalie termiche globali riportata in figura 6a, ricavata da dati MSU e dalla quale si nota che l’anomalia termica positiva si lega a un nucleo di anomalia positiva centrato a Nord delle Alpi. In figura 6b riportiamo inoltre la carta dell’anomalia termica globale da stazioni il suolo prodotta dal Deutscher Wetterdienst sulla base dei report mensili CLIMAT che i diversi servizi meteorologici fanno confluire presso la sua sede. Le carte globali prodotte dai due sistemi (MSU e CLIMAT) presentano una buona coerenza nel segnalare sul Continente americano l’intensa anomalia negativa del Canada Occidentale, l’anomalia negativa della Terra del fuoco e l’anomalia positiva dell’Alaska, degli Stati Uniti del’est e dell’Argentina settentrionale. Una moderata coerenza si osserva in Eurasia e una coerenza scarsa si osserva infine sull’Africa e sull’Australia.

Le precipitazioni mensili (figura 5) hanno presentato un’anomalia negativa più spiccata su Toscana ed Emilia orientale. Per quanto attiene alle precipitazioni decadali (tabella 2) si noti che l’anomalia negativa più spiccata si è registrata su Toscana ed Emilia orientale.

Figura 4 – RR_mese – Carta delle precipitazioni totali del mese (mm)

Figura 5 – RR_anom – Carta dell’anomalia (scostamento percentuale rispetto alla norma) delle precipitazioni totali del mese (es: 100% indica che le precipitazioni sono il doppio rispetto alla norma)

Figura 6a – UAH Global anomaly – Carta globale dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media mensile della bassa troposfera. Dati da sensore MSU UAH [fonte Earth System Science Center dell’Università dell’Alabama in Huntsville – prof. John Christy (http://nsstc.uah.edu/climate/)

Figura 6b – UAH Global anomaly – Carta globale dell’anomalia (scostamento rispetto alla norma espresso in °C) della temperatura media mensile al suolo. Carta frutto dell’analisi svolta dal Deutscher Wetterdienst sui dati desunti dai report CLIMAT del WMO [https://www.dwd.de/EN/ourservices/climat/climat.html)

Tabella 2 – Analisi decadale e mensile di sintesi per macroaree – Temperature e precipitazioni al Nord, Centro e Sud Italia con valori medi e anomalie (*).

(*) LEGENDA:

Tx sta per temperatura massima (°C), tn per temperatura minima (°C) e rr per precipitazione (mm). Per anomalia si intende la differenza fra il valore del 2013 ed il valore medio del periodo 1988-2015.

Le medie e le anomalie sono riferite alle 202 stazioni della rete sinottica internazionale (GTS) e provenienti dai dataset NOAA-GSOD. Per Nord si intendono le stazioni a latitudine superiore a 44.00°, per Centro quelle fra 43.59° e 41.00° e per Sud quelle a latitudine inferiore a 41.00°. Le anomalie termiche positive sono evidenziate in giallo(anomalie deboli, inferiori a 2°C), arancio (anomalie moderate, fra 2 e 4°C) o rosso (anomalie forti,di  oltre 4°C), analogamente per le anomalie negative deboli (minori di 2°C), moderata (fra 2 e 4°C) e forti (oltre 4°C) si adottano rispettivamente  l’azzurro, il blu e il violetto). Le anomalie pluviometriche percentuali sono evidenziate in  azzurro o blu per anomalie positive rispettivamente fra il 25 ed il 75% e oltre il 75% e  giallo o rosso per anomalie negative rispettivamente fra il 25 ed il 75% e oltre il 75% .

[1]              Questo commento è stato condotto con riferimento alla  normale climatica 1988-2017 ottenuta analizzando i dati del dataset internazionale NOAA-GSOD  (http://www1.ncdc.noaa.gov/pub/data/gsod/). Da tale banca dati sono stati attinti anche i dati del periodo in esame. L’analisi circolatoria è riferita a dati NOAA NCEP (http://www.esrl.noaa.gov/psd/data/histdata/). Come carte circolatorie di riferimento si sono utilizzate le topografie del livello barico di 850 hPa in quanto tale livello è molto efficace nell’esprimere l’effetto orografico di Alpi e Appennini sulla circolazione sinottica. L’attività temporalesca sull’areale euro-mediterraneo è seguita con il sistema di Blitzortung.org (http://it.blitzortung.org/live_lightning_maps.php).

Facebooktwittergoogle_pluslinkedinmail

Energie astrali e forze cosmiche al Politecnico di Milano

Posted by on 13:38 in Ambiente, Attualità | 17 comments

Energie astrali e forze cosmiche al Politecnico di Milano

Alcune riflessioni sull’ospitalità offerta da un’istituzione prestigiosa al convegno internazionale dei biodinamici.

Dal 15 al 17 novembre 2018 il Politecnico di Milano ospiterà il convegno internazionale di biodinamica (qui) il cui programma “scientifico” è disponibile (qui ).
Abbiamo messo lo “scientifico” fra virgolette perché trattasi di una disciplina agronomica a base magica e nella quale la totale assenza di basi scientifiche si associa ad un altissimo tasso di strampalataggine, descritto in modo magistrale da Dario Bressanini su Le scienze (Biodinamica®: cominciamo da Rudolf Steiner) e a più riprese stigmatizzato anche qui, su Agrarian Sciences:

Ora ci domandiamo in nome di cosa (la fama, il denaro o cos’altro) un’istituzione scientifica prestigiosa possa arrivare ad ospitare una kermesse di personaggi che propugnano come apoditticamente “buone”, “etiche” e “salutistiche” pratiche destituite da qualsiasi fondamento scientifico.

Analogamente troviamo discutibile (anche se probabilmente giustificato dal ritorno di immagine che ne deriva, specie in certi ambienti “radical-chic” dell’alta società milanese) il patrocinio offerto dal Comune di Milano con il Sindaco Sala che interverrà di persona. A ben guardare peraltro quest’ultimo patrocinio non è più di tanto stupefacente se pensiamo allo spazio che tali ideologie “agricole” hanno avuto in ambito Expo. Sconcertante qualora confermato (noi l’abbiamo trovato indicato qui): sarebbe il patrocinio dato dal Consiglio Nazionale degli Ordini dei Dottori Agronomi e dei Dottori Forestali paragonabile, se ci è consentita la battuta, al patrocino dell’Ordine dei Medici a un convegno di pranoterapeuti.

Certo, Milano non è nuova a queste cadute di stile e di credibilità scientifica, se pensiamo che nel 2015 un convegno dei biodinamici fu ospitato in Bocconi, e questo dovrebbe indurci a riflettere sulle criticità che minano nel profondo alcune delle nostre istituzioni accademiche più prestigiose. D’altro canto non sono mancati negli ultimi anni i casi di enti ed autorità pubbliche che hanno elargito con generosa sollecitudine patrocini, premi, riconoscimenti e…sponsorizzazioni a figure perlomeno controverse, quali assertori di metodi colturali sedicenti “naturali”, di diete o protocolli terapeutici dalle presunte proprietà “miracolistiche”, spesso rivelatisi insostenibili (quando non truffaldini) sul piano scientifico. E forse val la pena osservare il “parterre de rois” di rappresentanti politico-istituzionali di cui è prevista la presenza al convegno di biodinamica in contrapposizione all’infastidito disinteresse che spesso le istituzioni riservano alle iniziative di carattere autenticamente scientifico applicate al campo agricolo. E riflettere se anche questo non sia un ulteriore segno di un processo di ineluttabile declino di una cultura occidentale che pare ormai gaiamente avviata a verso una “decrescita” che non potrà essere felice.

Abbiamo sognato che un docente di fisica del Politecnico di Milano teneva una lezione sulle energie cosmiche che sono alla base dell’agricoltura biodinamica, grazie alle quali le piante si nutrono (in palese violazione della legge degli equilibri di reazione di Lavoisier) ed in virtù delle quali le vacche hanno le corna, antenne con cui scrutano il cosmo intercettandone le energie. Certo, è solo un sogno ma in un domani prossimo potrebbe divenire realtà. Con infinita tristezza rileviamo infatti i molti segnali (non cosmici ma molto più terrestri) che ci indicano che il mondo accademico universitario italiano è ahinoi pronto ad ospitare corsi di laurea in biodinamica. Speriamo che i docenti siano all’altezza di cotanta “scienza”!

NB: questo post è uscito in origine su Agrarian Sciences

Facebooktwittergoogle_pluslinkedinmail

Non tutto il Verde va di moda

Posted by on 07:00 in Ambiente, Attualità | 1 comment

Non tutto il Verde va di moda

C’è un verde, un certo tipo di verde, che paradossalmente non piace proprio ai verdi. Trattasi di una speciale tonalità che potremmo anche chiamare “Verde Pianeta”, che sta diventando sempre più diffuso, nonostante siano tutti sempre più convinti che le cose vadano diversamente.

Di Global Greening in effetti abbiamo parlato molte volte ma, in occasione di una nuova ricerca appena pubblicata, vale la pena ripetersi, magari aggiungendo qualche importante informazione, proprio come fanno gli autori di questo studio:

Satellite Leaf Area Index: Global Scale Analysis of the Tendencies Per Vegetation Type Over the Last 17 Years

Sul blog di Judith Curry c’è un post che spiega molto bene il contenuto del paper, che è comunque accessibile liberamente.

Il valore aggiunto del loro lavoro consiste nell’aver messo a punto una tecnica di analisi dei dati satellitari da cui è derivato l’indice LAI (Leaf Area Index) che permette di disaggregare il tipo di vegetazione all’interno di ogni pixel, producendo quindi dati che consentono l’analisi di trend separati per diversi generi di piante, siano esse stagionali, sempreverdi, coltivate o forestali.

I risultati ottenuti confermano innanzi tutto quelli di altri precedenti lavori basati su analisi del dato aggregato, ovvero un significativo e generalizzato aumento della superficie verde del pianeta, fatto che in larga misura è da attribuirsi alla fertilizzazione da CO2 e che contrasta con poco con gli scenari apocalittici che ci vengono somministrati praticamente ogni giorno. Il segnale, pur con alcuni distinguo, è netto anche nelle serie disaggregate, che costituiscono materiale di peso per valutazioni sullo “stato di salute” di diverse tipologie di vegetazione in diverse aree del pianeta.

Naturalmente però, anche su questo, che a tutti gli effetti è uno dei non trascurabili ma del tutto omessi risvolti positivi dell’aumento della concentrazione di CO2, c’è chi ha da obiettare, da un lato perché un aumento della quantità sarebbe accompagnato – per le specie coltivate – da una riduzione delle qualità organolettiche, dall’altro perché distruggerebbe (sic!) i cicli naturali dell’ecosistema…

Morale, come senza smentirsi recitava qualche giorno fa il NYT, non ci sarebbe niente da celebrare… Ok, nessuna celebrazione, facciamo solo un altro po’ di informazione, magari rileggendo quanto ha scritto sulla relazione quantità-qualità delle produzioni agricole Luigi mariani appena qualche giorno fa.

Livelli atmosferici di CO2 e alimenti meno nutrienti: Perché ingigantire un problema facilmente risolvibile con le tecnologie attuali?

Buona giornata.

 

Related Posts Plugin for WordPress, Blogger...Facebooktwittergoogle_pluslinkedinmail
Translate »