Salta al contenuto

Il Santo Graal della Climatologia

Negli ultimi anni l’universo della scienza del clima è diventato così vasto da aver richiesto una sempre maggiore specializzazione. Sono nati così tantissimi centri di ricerca che hanno deciso di massimizzare i propri sforzi in settori specifici. Tra questi, l’Università di Huntsville in Alabama, è quello che si occupa delle misurazioni della temperatura provenienti dai sensori a bordo dei satelliti e, più precisamente, dalle Advanced Microwave Sounding Units del satelliti NOAA e NASA.

Nel novembre scorso, più precisamente il giorno 16, le serie di dati disponibili per questo parametro hanno compiuto 33 anni, cioè circa un terzo di secolo.

E così, nel diffondere le consuete informazioni relative all’andamento mensile delle temperature troposferiche, l’università ha deciso di fare un punto di situazione su queste serie. Sono dati molto interessanti, così come lo sono le valutazioni a latere espresse da due dei massimi esperti di questi argomenti, John Christy e Roy Spencer.

Riguardo ai dati:

  • In totale la troposfera si è scaldata di 0.45°C dall’inizio delle misurazioni;
  • Il trend globale dal novembre del 1978 è di +0,14°C per decade rispetto alla media del trentennio 1981-2010;
  • Per il mese di novembre 2011 il trend globale di +012°C è scomposto in +0,07°C per l’emisfero nord, +0,17°C e +0,02 per i tropici (sempre rispetto al trentennio);
  • Il dato per novembre è a livello globale uguale a quello di ottobre.

L’aumento di 0,45°C letto nei dati da satellite incontra il livello inferiore delle previsioni di quanto avrebbe dovuto scaldarsi la troposfera in risposta al forcing antropico. Il dato, dice Christy, seppur pur significativo, non necessariamente è foriero di disastro climatico imminente. Il trend riscontrato su base decadale presenta notevoli discontinuità: assente o leggermente positivo nei primi 19 anni di misurazioni, protagonista di uno ‘salto’ decisamente importante in coincidenza del super El Niño del 1997-98 e poi sostanzialmente piatto di lì in avanti. Tale salto appare nei dati ancora più importante perché nei primi anni di misura due intensi eventi eruttivi (El Chichon 1982 e Pinatubo 1991) con nota proprietà raffreddante, hanno tenuto basse le temperature, spingendo verso l’alto il trend degli anni successivi. Se si sottrae questo forcing il trend decadale si riduce a 0,09°C per decade, ossia molto al di sotto delle proiezioni degli output dei modelli climatici.

Circa la possibilità di capire quale parte del trend rimanente sia ascrivibile alla variabilità naturale o al forcing antropico, Roy Spencer definisce questo dubbio “il Santo Graal della Climatologia”, prima di spiegare quali siano state le difficoltà incontrate nel gestire questi dati. I sensori satellitari, infatti, sono stati progettati per un monitoraggio in tempo reale, ossia per fornire informazioni utilizzabili per coprire i gap presenti nelle analisi di superficie isate per inizializzare i modelli meteorologici. Correggere i dati per poter estrarre un segnale climatico, ossia di lungo periodo, non è cosa banale.

Nonostante ciò, pur con serie molto più giovani – 33 anni in luogo di molte decadi – i dati da satellite offrono informazioni molto più ricche delle osservazioni di superficie. La continuità spaziale dei dati non è neanche paragonabile. Arrivando al 96% del Pianeta (con la sola esclusione di piccole aree in prossimità dei Poli), queste serie coprono più del doppio di quanto fanno le osservazioni superficiali, sono molto meno soggette al bias indotto dall’urbanizzazione e, soprattutto, scandagliando una profonda porzione di atmosfera, forniscono informazioni circa il contenuto di calore della troposfera. Tutto questo, sempre con lo stesso sensore, eliminando anche i problemi relativi alla standardizzazione delle procedure di misura, a diversi errori strumentali o qualunque altra contaminazione delle serie.

Dati quindi che attendevano solo di ‘maturare’, ossia di coprire un periodo di tempo sufficientemente lungo per diventare significativi dal punto di vista climatico. Con tre decadi e oltre si può dire che praticamente ci siamo. Sicché, è forse giunto il momento anche per chi segue con trepidazione le vicissitudini delle temperature superficiali, di rendersi conto che visto dall’alto lo stato termico del Pianeta appare differente. Altrimenti, con tutto quello che costano questi sistemi utilizzare i dati ‘aggiustandoli’ secondo quanto dicono quelli di superficie equivale ad appendere una canna da pesca al satellite mettendo in fondo alla lenza un termometro. Va da sé che si tratta di una pesca un po’ troppo cara.

Nelle proiezioni climatiche, così come nelle leggi della fisica, la quota dovrebbe scaldarsi più della superficie. Addirittura tre volte di più. Ora, i dati di variazione interannuale delle serie superficiali e satellitari non differiscono in modo sensibile, mentre il trend di lungo periodo è diverso eccome. Questo secondo Spencer potrebbe fornire la chiave circa il perché il Pianeta non si sia scaldato come da previsioni, nonché, si dovrebbe aggiungere, perché non siamo andati né andremo arrosto come invece ci ripetono ogni giorno.

NB: dal blog di Roger Pielke sr, qui invece le immagini, qui i dati.

Related Posts Plugin for WordPress, Blogger...Facebooktwitterlinkedinmail
Published inAttualità

Un commento

  1. Aergomenti…bel neologismo!

    Reply
    Maurizio, col forcone pure a Natale eh? 🙂
    gg

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Categorie

Termini di utilizzo

Licenza Creative Commons
Climatemonitor di Guido Guidi è distribuito con Licenza Creative Commons Attribuzione - Non commerciale 4.0 Internazionale.
Permessi ulteriori rispetto alle finalità della presente licenza possono essere disponibili presso info@climatemonitor.it.
scrivi a info@climatemonitor.it
Translate »