Salta al contenuto

E’ la somma che fa il totale

Da che mondo è mondo ogni volta che la natura si manifesta in tutta la sua potenza gli uomini si interrogano sull’eccezionalità di questi eventi e sulle loro origini. Non stiamo parlando di niente di nuovo. Con l’epoca della ragione ancora agli albori, era usuale attribuire questi eventi al sovrannaturale, poi i primi studiosi illuminati decisero di cominciare ad osservarli e descriverli. Furono così gettate le fondamenta di quella che oggi conosciamo come meteorologia moderna, assurta oggi al rango di scienza vera e propria. Così per il tempo meteorologico che varia dall’oggi al domani, così per il clima, che varia su scala temporale molto più ampia. Questo rende gli eventi degli ultimi anni di ancor più difficile comprensione. Mai infatti avremmo immaginato che il progresso della scienza potesse averla vinta sulla ragione, eppure i connotati ideologici e fideistici che la teoria del riscaldamento globale ha assunto negli ultimi decenni, assomigliano molto più alla ricerca del sovrannaturale che alla conquista della ragione.

Cerchiamo di ricostruire un po’ gli eventi. Negli ultimi dieci secoli, che per la storia del clima sono veramente pochi, sono successe molte cose, due in particolare. Il mondo infatti, è passato attraverso due mutazioni climatiche piuttosto importanti ma di segno opposto. Un periodo di temperature decisamente più elevate attorno all’anno mille ed uno di freddo intenso, più o meno tra ilo 1300 ed il 1850. Tra queste due fasi ci sono state delle oscillazioni delle temperature a più alta frequenza , sostanzialmente identificate da un trend di raffreddamento tra il primo ed il secondo di questi periodi ed una tendenza al riscaldamento dal termine del secondo ai giorni nostri. Questo ci diceva il primo rapporto del panel intergovernativo delle Nazioni Unite nel 1990.

A queste conclusioni si era giunti attraverso lo studio di quelli che vengono solitamente definiti dati di prossimità, ossia, in mancanza di misurazioni dirette, vari tipi di analisi del comportamento di altre grandezze che consentano di risalire alle temperature. Tra questi gli anelli di accrescimento degli alberi, i primi carotaggi nel ghiaccio e nei sedimenti marini e, soprattutto, la memoria storica. Queste tecniche hanno poi ovviamente subito un importante processo di perfezionamento ma, sostanzialmente, tale processo non ha portato grossi stravolgimenti rispetto a quanto già acquisito. Con una eccezione. Si tratta di un lavoro messo a punto da un gruppo di studiosi capitanati da un climatologo di nome Michael Mann che, compiendo una discreta serie di scelte scientificamente e tecnicamente discutibili, giunse alla conclusione che negli ultimi mille anni la temperatura avrebbe subito oscillazioni di scarsa importanza, salvo essere soggetta ad un forte trend di aumento dall’inizio dell’era industriale ad oggi. Scomparsi dalla scena climatica i due eventi cui si è accennato in partenza, tale tendenza all’aumento poteva essere imputata solamente alle attività umane, cresciute in modo esponenziale proprio in questo ultimo periodo. Come? Semplicemente con l’immissione in atmosfera di grandi quantità di un gas già benefico protagonista dei meccanismi che regolano il clima del pianeta ma che, se troppo abbondante, provocherebbe delle sostanziali modifiche ai delicati equilibri di questo sistema, diventando quindi inquinante e dannoso: l’anidride carbonica. Il quadro sembrava funzionare, perchè in effetti questo gas ha subito una continua tendenza all’aumento da quando ne sono iniziate le misurazioni. Un trend confermato anche dagli studi di paleoclimatologia. Queste novità hanno costituito le basi per i successivi secondo e terzo rapporto del già citato organismo ONU nel 1995 e nel 2001. Si è così avviato il processo di demonizzazione delle emissioni di gas ad effetto serra in atmosfera, generando il concetto di lotta al cambiamento climatico ed iniziando a diffondere l’idea di “consenso” della comunità scientifica sulle cause antropiche del riscaldamento globale.

Nel frattempo però, lo studio di Mann e soci, dopo un iniziale periodo di gloria, è stato soggetto a pesanti critiche nel mondo scientifico, fino ad essere definito “spazzatura” sulla rivista Nature. Manifesta manipolazione arbitraria delle informazioni, irriproducibilità dell’esperimento e, peccato gravissimo nel mondo della ricerca, il procedimento con cui si era giunti a queste conclusioni non è mai stato rivelato nella sua interezza. Questa la causa di tale clamoroso insuccesso. Poco male, con molta tempestività, la crepa che andava indebolendo le basi della teoria del global warming, è stata prontamente riempita da un nuovo genere di approccio alla ricerca scientifica: la simulazione dei processi climatici attraverso modelli matematici sempre più complessi che, una volta istruiti, possano gettare il loro sguardo nel futuro e continuare a riprodurre il comportamento dei sistemi come fosse già avvenuto, consentendoci di conoscerne l’evoluzione. Questi modelli hanno domostrato sin dall’inizio di avere grandi difficoltà a riprodurre il passato, ovvero un’evoluzione nota del sistema, per cui non potrebbero essere giudicati affidabili nelle loro proiezioni. Del resto il pioniere della teoria del caos, Edward Lorenz, ebbe la giusta intuizione in tempi che potremmo definire non sospetti. Egli giunse infatti alla conclusione che il clima non è un sistema lineare, ma complesso, ed in quanto tale è assolutamente impredicibile se non si conoscono esattamente le condizioni di partenza e le logiche di evoluzione. Tutte cose che ad oggi ancora non abbiamo.

In primis non possiamo sapere esattamente quanto, come e dove siano aumentate esattamente le temperature. Unire in una serie omogenea i dati di prossimità e le osservazioni moderne è virtualmente impossibile. I primi sono per definizione privi di un rapporto diretto con la grandezza osservata e le seconde sono pesantemente disomogenee per molte ragioni: assenza o inosservanza di tecniche di standardizzazione; variazione spaziale del punto di osservazione; modifica nel tempo delle condizioni a contorno dei sensori; riduzione sensibile della loro disponibilità e continuità. A ciò si aggiunge anche la loro distribuzione sulle sole terre emerse, con grande abbondanza di dati nei paesi industrializzati e quasi assoluta mancanza degi stessi nelle aree desertiche, scarsamente popolate o comunque economicamente depresse. Soltanto negli ultimi decenni infatti si è cominciato a tener conto anche delle temperature di superficie degli oceani, cioè dei 3/4 del pianeta. Questo ha però introdotto un ulteriore elemento di discontinuità, perchè ancora una volta la temperatura dell’aria osservata a due metri da terra e quella desunta dalla temperatura dell’acqua sono due grandezze correlate ma niente affatto uguali. 

Secondariamente, l’altro elemento che contribuisce alla impredicibilità del sistema, è il suo essere regolato da molteplici effetti di feed-back, ovvero dalla particolare caratteristica di essere soggetto a variazioni anche di segno opposto al variare di una stessa causa. Facciamo un esempio. Un aumento di temperatura può accrescere la disponibilità di vapore acqueo in atmosfera favorendo la formazione delle nubi che, schermando i raggi solari, possono favorire un successivo raffreddamento; contemporaneamente lo stesso aumento di temperatura può favorire lo scioglimento dei ghiacci perenni ed alterare il bilancio di assorbimento/riemissione dell’energia ricevuta dal sole, innescando un ulteriore riscaldamento. Il primo è un feed-back negativo, il secondo è invece positivo. Entrambi contribuiscono alle dinamiche del sistema. Di questi e di moltissimi altri effetti di retroazione si sa ancora molto poco, per cui è matematicamente impossibile immaginare di calcolarne il peso e le interazioni, anche disponendo dell’enorme potenza di calcolo dei nostri giorni.

Per insegnare ai modelli a riprodurre il passato e migliorarne la capacità previsionale è stato quindi necessario compiere una serie di scelte arbitrarie, inferendo un pesantissimo rischio di bias nel procedimento. Tra queste, la più significativa è stata la definizione del parametro di sensibilità climatica, cioè della risposta del sistema all’aumento della concentrazione di gas serra -soprattutto CO2- in termini di conseguenza diretta ed innesco dei numerosi effetti di feed-back di cui sopra. In questa scelta, al pari di quanto accaduto con la ricostruzione delle temperature del team di Mann, si è preferito tener conto esclusivamente dei lavori che attribuivano a questo parametro valori molto elevati e fortemente clima-alteranti. Una scelta “riscaldante”, giunta nonostante esistessero numerosi pareri difformi scientificamente validi e, fatto ancor più strano, nonostante le osservazioni mostrassero e mostrino tuttora una notevole discrepanza tra quanto ottenuto dei modelli e quanto realmente osservato. In sostanza si è aumentato il peso del fattore CO2 fino a far tornare i conti. Tale peso, proiettato nel futuro, porta inevitabilmente ad una amplificazione del riscaldamento che non è una probabile evoluzione del sistema, quanto piuttosto quel che si è insegnato ai modelli di simulazione.

Ma non è tutto, c’è ancora un ulteriore elemento di difficoltà. Se si parte dal presupposto, già scientificamente traballante, che l’aumento dei gas serra di origine antropica sia la causa delle variazioni recenti pur non essendolo stato per quelle passate, occorre definire quanto questi potranno ancora aumentare per valutare il loro impatto sul sistema. Dato che il termine antropico è in pratica un riassunto delle attività energetiche, industriali, logistiche ed agricole del genere umano, occorre sapere come queste evolveranno nel futuro. Occorrono dunque delle previsioni di sviluppo o contrazione di questa o di quella economia per giungere a queste valutazioni ed accoppiarle al sistema clima. Altro fattore altamente impredicibile per non dire ignoto e altra inevitabile fonte di bias. Anche qui infatti, l’orientamento di chi ha operato le scelte ha voluto “stiepidire” (senza alcuna ironia) l’atmosfera, dato che sono stati immaginati dei trend di crescita economica a scala globale che se ora appaiono decisamente risibili, qualche anno fa erano quantomeno poco probabili. La sola crisi economica in atto, genererà molto probabilmente una seppur temporanea diminuzione delle emissioni di gas serra paragonabile, se non superiore, a quella che si vorrebbe raggiungere con gli accordi di Kyoto.

Queste le basi del quarto ed ultimo rapporto dell’IPCC giunto nel 2007, nel quale è stata sancita la quasi certezza soggettiva della totale origine antropica del riscaldamento globale. Quasi perchè la percentuale assegnata a questa certezza è il 90%, ovvero un numero molto comunicativo ma dal significato statistico alquanto oscuro. Con le approssimazioni di cui sopra, si sarebbe potuto anche dire 95%, ma questo avrebbe avuto un significato molto diverso per il rigore scientifico che è universalmente ritenuto necessario per giungere ad una tale conclusione. In assenza di questo rigore, è stato adottato un profilo più basso ma parimenti efficace che rende difficile dunque parlare di certezza. Soggettiva perchè frutto di orientamenti arbitrari nel corso del processo d’indagine.

A conferma dell’inesattezza di queste scelte giungono le osservazioni effettuate dai sensori montati sui satelliti, che hanno il grandissimo pregio di essere assolutamente omogenee e l’altrettanto grande difetto di essere troppo giovani, ovvero di fornire dati soltanto da poco meno di tre decenni. Da queste tuttavia scopriamo che la pendenza in salita del trend delle temperature di superfice è molto più attenuata e, fattore ancor più decisivo, che l’atmosfera non si scalda là dove dovrebbe se la causa di questo aumento avesse origine nell’accresciuta concentrazione dei gas serra di origine antropica. Secondo la teoria dell’effetto serra infatti, alla quota di circa 5-7km, la temperatura dovrebbe aumentare con un rateo di salita circa tre volte superiore di quello al suolo. Questo aumento non è osservabile dalle sonde satellitari come non lo è dai dati dei palloni sonda, il cui uso risale a più di mezzo secolo fa. Anche qui, regna sovrana l’incertezza. 

Forse allora dovremmo volgere lo sguardo alla fonte primaria di energia di tutto il sistema, il sole. Se lo facessimo scopriremmo che negli ultimi decenni del secolo scorso la nostra stella ha attraversato un periodo di attività molto intensa e che l’unico fattore solare che non è stato soggetto a significative variazioni in positivo è stata la radiazione diretta, cioè l’unico del quale si è tenuto e si tiene conto tuttora nelle simulazioni climatiche, compiendo l’ennesima scelta “riscaldante”.

Dunque, proviamo a riassumere. Le temperature sono aumentate ma non possiamo sapere quanto. Il clima del pianeta è stato soggetto ad importanti oscillazioni; almeno due volte in tempi recenti e con ampiezza molto superiore alla variazione che si vorrebbe ora imputare a forzanti esterne al sistema. Le dinamiche del clima sono ancora ben lungi dall’essere comprese. I modelli di simulazione tentano ugualmente di riprodurle ma sono istruiti in partenza a confermare il trend di aumento delle temperature e l’amplificazione delle conseguenze di questa eventualità. Le osservazioni tecnologicamente più affidabili non confermano la validità di queste scelte. Infine le osservazioni degli ultimi dieci anni mostrano un evidente arresto di questa tendenza all’aumento, diversamente -ma per quanto detto sin qui ciò non dovrebbe stupire- da quanto previsto dai modelli di simulazione.

La domanda sembrerà provocatoria. Il mondo ha fretta di dedicarsi all’ambiente, al risparmio energetico, al progresso dei paesi in via di sviluppo e, cosa non da poco, ad una crisi finanziaria piuttosto seria. Si potrebbe smettere di parlare del clima che cambia?

Reblog this post [with Zemanta]
Related Posts Plugin for WordPress, Blogger...Facebooktwitterlinkedinmail
Published inAmbienteAttualitàClimatologiaMeteorologia

4 Comments

  1. Lorenzo Fiori

    Boh, la storia della ‘Profondità Ottica’ non è molto chiara:
    in realtà è una misura di quanta energia riesce ad attraversare un certo spessore di materia rispetto a quanta ne entra non tanto (credo) un ‘livello di profondità‘ dal quale la radiazione esce liberamente verso lo spazio esterno; tra l’altro ‘tau’ è uguale a 1 ad un altezza infinita dalla superficie emittente perchè il logaritmo di I/I0 è appunto pari ad uno per I=0 ovvero dove la radiazione si estingue completamente.

    Quello che sostanzialmente non capisco nel meccanismo dell’effetto-serra è perchè, nel continuo processo di assorbimento e riemissione di radiazione incidente da parte delle molecole dei gas-serra, la radiazione non è intrappolata a vita determinando un aumento costante di temperatura, ma si raggiunge un’equilibrio tale che ulteriore radiazione prima o poi sfugge all’assorbimento diretto e si disperde invece verso lo spazio. Teoricamente infatti una molecola può assorbire indefinitamente energia passando da un livello (quantizzato) di vibrazione molecolare ad un altro più energetico se riceve la giusta energia…

  2. Lorenzo Fiori

    Chiedo qual’è il meccanismo fisico, al di là del semplice output fornito dai modelli, che dovrebbe portare ad hot-spots nella media troposfera?

    Come riferisce il Dott. Pasini esistono diversi studi sulla ‘sensitività climatica’ e non è escluso che possano esserci valori di tale parametro diversi da quelli riportati da famigerato Monckton…

Rispondi a Guido Guidi Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Categorie

Termini di utilizzo

Licenza Creative Commons
Climatemonitor di Guido Guidi è distribuito con Licenza Creative Commons Attribuzione - Non commerciale 4.0 Internazionale.
Permessi ulteriori rispetto alle finalità della presente licenza possono essere disponibili presso info@climatemonitor.it.
scrivi a info@climatemonitor.it
Translate »