Il Puzzle della Temperatura

In parecchie occasioni ci è capitato di sottolineare quanto sia problematico giungere ad un livello di conoscenza accettabile dello stato del sistema clima per il tramite delle osservazioni di tipo tradizionale. I bias dell’accrescimento dell’urbanizzazione e del posizionamento approssimativo di molti sensori sono divenuti paradossalmente ancora più incisivi proprio nelle ultime decadi, dopo la chiusura di un numero molto consistente di stazioni di osservazione, quasi tutte rurali, ovvero in qualche modo protette da questo genere di errori. Nel video importato dal blog di Antony Watts , c’è una ricostruzione della densità delle stazioni di osservazione, dal 1880 ai giorni nostri. 

La drastica riduzione delle stazioni non solo ha inevitabilmente impoverito le serie, facendo aumentare il peso statistico delle stazioni situate nelle aree urbane, ma ha costretto quelli che si occupano della gestione dei dataset ad intraprendere pericolose operazioni di interpolazione per riempire tutte le zone rimaste scoperte. In qualche caso, come in quello indicato in questo  breve documento a firma di Joseph D’Aleo, anche rimpiazzando i dati di stazioni ormai chiuse, con quelli generati da algoritmi di interpolazione, prolungandone la vita nei dataset piuttosto che nel mondo reale. Inutile dire che in questa specifica occasione, la temperatura “virtuale” di quel luogo sia salita in modo considerevole.

Tutto questo ci serve per dire quanto sia approssimativa ed imprecisa la nostra conoscenza del parametro più importante, la temperatura, che ci piace definire rubando dal linguaggio matematico come l’integrale di un sistema interamente basato sull’energia termica. E’ dal calore emanato dal Sole che questo sistema trae il suo costituente, ed è la quantità di questo calore che viene immagazzinata, restituita allo spazio o redistribuita al suo interno che regola i meccanismi di funzionamento.

Intendiamoci, imprecisa ed approssimativa non significa che non non sappiamo dove faccia caldo o freddo, però queste definizioni hanno senso solo se rapportabili al passato, altrimenti restano delle mere convenzioni. Ebbene, per quanti sforzi siano stati fatti sin qui, le osservazioni moderne sono rapportabili al passato solo al prezzo di grandi approssimazioni, di ampiezza spesso pari alle oscillazioni che si identificano nel loro andamento. Non a caso i dati dai quali si cerca di estrapolare il valore temperatura in assenza di misurazioni oggettive, siano essi rapporti isotopici dell’ossigeno intrappolato nel ghiaccio o in sedimentazioni marine e lacustri, piuttosto che anelli di accrescimento degli alberi, si chiamano proxy, cioè sono prossimi e non uguali alla temperatura. La recente polemica (ne abbiamo parlato qui  e qui ) esplosa nella blogosfera tra lo statistico Steve McIntyre ed il climatologo Keith Briffa è la riprova di quanto sia difficile giungere a livelli accettabili di similitudine tra la realtà e le ricostruzioni. Questo chi lavora con i dati lo sa bene, al punto che sul sito della NASA, che gestisce uno dei database più completi, si legge che la temperatura media superficiale del pianeta è “stimata”, non osservata, e la differenza è tutt’altro che sottile.

Ora, il progresso tecnologico ci ha portati all’impiego di metodologie di rappresentazione e simulazione del comportamento del sistema clima che funzionano, sia sul piano spaziale che temporale, in base a rigide regole matematiche (un’analisi barica o una sua previsione sono esattamente questo). Perciò siamo costretti ad avere una conoscenza assolutamente perfetta del valore assoluto e della distribuzione spaziale dei parametri che si vogliono rappresentare o prevedere. Questa perfezione non solo non c’è, ma difficilmente sarà mai possibile con i limiti degli standard di osservazione attuali. Come pensiamo dunque di conoscere questo sistema? E’ possibile salire sul tetto di un palazzo senza averne fatto le fondamenta?

La prova di questa insormontabile difficoltà è sotto i nostri occhi. Le previsioni del tempo, quelle di oggi, domani etc., si fanno con l’aiuto -ormai giustamente imprescindibile- di modelli numerici di tipo deterministico, cioè fondati sul rapporto causa effetto tra i vari parametri atmosferici. Cambia uno, cambia l’altro e così via, in una serie di meccanismi estremamente complessi. Perchè non sono attendibili al 100%? Semplicemente perchè non conosciamo perfettamente lo stato iniziale del processo, cioè perchè i dati, disomogenei ed imprecisi all’origine, sono raccolti in una griglia per poi simularne l’evoluzione che inevitabilmente è disomogenea ed imprecisa. Se non lo fosse, avremmo risolto tutti o quasi tutti i nostri problemi. Bene, quella griglia è di diversi ordini di grandezza più fitta e dettagliata, ovvero realistica, di quella che dovrebbe descrivere lo stato del clima in un dato spazio e in un dato lasso di tempo.

Su questo, che sarà pure il meglio che abbiamo, ma ciò non toglie che non sia un gran che, si basano anche le simulazioni climatiche, non perchè sia necessaria una situazione di partenza reale per far correre  i modelli di previsione climatica, quanto piuttosto perchè in assenza di un sufficiente livello di comprensione, sono deficitarie sia le serie storiche sulle quali i modelli vengono tarati e testati, sia le condizioni cui il lavoro di questi modelli deve essere confrontato. A tutto ciò si aggiunge la difficoltà di dover descrivere e poi riprodurre dei meccanismi interni al sistema che conosciamo poco o affatto.

Dove sono i margini di miglioramento? Innanzi tutto nelle osservazioni. La tecnica di raccolta dati in una serie di punti, anche se molto ravvicinati, e le successive operazioni perchè quei dati divengano rappresentativi di aree e non più di punti, difficilmente potrà avere grossi margini di miglioramento. Il sistema va investigato nella sua interezza, soprattutto spaziale, con ciò intendendo ovviamente anche la dimensione verticale. Per cui sono probabilmente le osservazioni da satellite quelle che ci porteranno avanti, ma anche con queste non sarà semplice gettare i ponti che le colleghino efficacemente alle metodologie standard ed ai dati di prossimità. Per farlo si dovrà comunque attendere di avere delle serie temporali sufficientemente lunghe, data la giovane età in senso climatico di questa tecnologia.

Sino ad allora, continueremo a soffrire i difetti di questo approccio, sul quale mi preme fare un’ultima considerazione. Al di là di quanto previsto e strombazzato ai quattro venti in termini di crescita continua e pericolosa delle temperature, si sente sempre più spesso ventilare l’ipotesi che nel breve periodo, cioè uno o due decenni, il sistema possa andare incontro ad un raffreddamento, nonostante gli effetti reali o presunti delle attività umane. A guidare le fila di quanti la pensano così sono soprattutto coloro che vedono nel Sole l’unico forcing esogeno in grado di sottoporre a sollecitazioni importanti un sistema sensibile a scala locale ma altrimenti imperturbabile a scala globale. Questi sono gli scettici, ma non mancano adesioni anche tra quanti si dicono convinti che l’influenza delle attività umane sia preponderante, i quali giudicano questa tendenza al raffreddamento probabile ma solo temporanea e frutto di oscillazioni ad alta frequenza di origine naturale, che sarà poi comunque sostituita da una recrudescenza del riscaldamento da cause antropiche.

Se questo avverrà, lo capiremo dal susseguirsi più o meno lungo di caratteristiche climatiche tipiche dei periodi di raffreddamento, in termini di configurazioni bariche e circolazione atmosferica, ma il segnale sarà molto meno evidente nei dataset delle temperature superficiali, perchè i bias e le approssimazioni descritte in apertura lo impediranno. Vedremo.

Related Posts Plugin for WordPress, Blogger...Facebooktwittergoogle_pluslinkedinmail
Licenza Creative Commons
Quest'opera di www.climatemonitor.it è distribuita con Licenza Creative Commons Attribuzione - Non commerciale 4.0 Internazionale.
Permessi ulteriori rispetto alle finalità della presente licenza possono essere disponibili presso info@climatemonitor.it.

Author: Guido Guidi

Share This Post On

8 Comments

  1. l,analisi al suolo a 2mt la dice lunga su quale sia la reale configurazione termica che sta interessando per esempio la tanto discussa GROENLANDIA

    Post a Reply
  2. Complimenti per l’articolo, veramente esaustivo.
    A proposito di configurazioni bariche e circolazione atmosferica…
    Come si spiega lei, Maggiore Guidi, la fatica tremenda che i ghiacci artici stanno sperimentando in questi giorni? Com’e possibile che la scorsa estate hanno perso meno rispetto agli ultimi 3 anni ed invece ora il cluster fa fatica ad impennarsi?
    Io ho cercato di darmi una spiegazione e ho buttato l’occhio sulla configurazione barica che sta caratterizzando il Canada e l’Alaska, dove domina attualmente un regime di correnti meridionali. Le temperature a 2mt confermano questo.
    Grazie

    Post a Reply
    • Spiegarlo è una parola grossa Fabio.
      Chissà forse c’entra qualcosa il fatto che l’area Artica sta subendo ripetute “pompate” anticicloniche dalle latitudini meridionali. Ad ogni modo si vedrà.
      gg

  3. “Se questo avverrà, lo capiremo dal susseguirsi più o meno lungo di caratteristiche climatiche tipiche dei periodi di raffreddamento, in termini di configurazioni bariche e circolazione atmosferica, ma il segnale sarà molto meno evidente nei dataset delle temperature superficiali, perchè i bias e le approssimazioni descritte in apertura lo impediranno.”

    Le temperature satellitari sono comunque più attendibili, e queste ci dicono che tutto sommato le varie ricostruzioni e interpolazioni per i dati a terra non sono forse poi così sballate. Tuttavia ho effettivamente notato una certa discrepanza tra i dati presentati dai vari GM come gfs ecc… per le anomalie di temperatura a 850 hpa e quelle riportate da vari altri centri di monitoring come il ncep. In genere mi sembra ci sia una situazione di maggior “neutralità” (le anomalie negative bilanciano quelle positive) nei modelli di previsione meteorologica rispetto ai siti di monitoring (anche considerando la stessa quota). Non so se è solo una mia impressione ma di recente, in una fase in cui teoricamente dovremmo essere ai massimi di anomalie positive complessive per l’emisfero nord, stentavo a invece a vederle nel modello ens di gfs a 850 hpa (previsione a 0 ore), quando invece balzava all’occhio nel plot interattivo del ncep. Come mai? Il periodo di riferimento dovrebbe se non sbaglio essere più o meno lo stesso…

    Post a Reply
  4. Qualcuno inizia anche a parlarne:

    Disattese le proiezioni del 1988 (Clima)

    Disattese le proiezioni del 1988
    http://www.3bmeteo.com/ajax_img.php?F=/flashnews_images/1256276807-untitled.gif&keepThis=true&TB_iframe=true&height=400&width=500
    Gli scenari climatici proposti 20 anni fa per il 2010 da parte del GISS NASA sono clamorosamente fallite. Nessuno dei tre scenari proposti ha rispettato l’effettivo andamento termico planetario. Il più pessimista (H1) prevedeva un’anomalia, per il 2009/2010, di 1.2°C, il più ottimista (H3) uno scarto di 0.75°C; ebbene, a distanda di due decadi la Terra si scopre più calda rispetto alla media tra gli 0.4 e gli 0.55°C a seconda del trend di riferimento (RSS satellitari o network GISS al suolo). In un’intervista dell’epoca James Hansen predisse addirittura che la West Side Highway newyorkese sarebbe stata sommersa dalle acque. (fonte http://www.climateaudit.com).

    °°Glu Glu°°°Glu°°

    Post a Reply
  5. “A guidare le fila di quanti la pensano così sono soprattutto coloro che vedono nel Sole l’unico forcing esogeno in grado di sottoporre a sollecitazioni importanti un sistema sensibile a scala locale ma altrimenti imperturbabile a scala globale. Questi sono gli scettici, ma non mancano adesioni anche tra quanti si dicono convinti che l’influenza delle attività umane sia preponderante, i quali giudicano questa tendenza al raffreddamento probabile ma solo temporanea e frutto di oscillazioni ad alta frequenza di origine naturale, che sarà poi comunque sostituita da una recrudescenza del riscaldamento da cause antropiche.”

    Ma a questi che vogliono voltar la frittata si dovrà rispondere fermamente che se le variazioni solari sono state stimate dall’IPCC 2007 come il 3,5% dei tutte le forzanti riscaldanti, mentre tutto il resto dei riscaldanti è considerato antropogenico, significa che se non è stata la variazione del sole a scaldare il pianeta non può essere la variazione del sole a raffreddarlo.
    Non ce la possono raccontare all’infinito, adattando alle variazioni climatiche reali, modelli che non le hanno mai previste.

    Post a Reply
    • Claudio attenzione, negli articoli che intravedono la possibilità del raffreddamento, non si parla mai di Sole, ma di oscillazioni di origine naturale. Il forcing (che forcing non è perchè è nel sistema) più gettonato è quello delle oscillazioni oceaniche.
      gg

Trackbacks/Pingbacks

  1. Ad ognuno la sua analisi | Climate Monitor - [...] giorno fa abbiamo pubblicato  una riflessione sul ruolo della temperatura media superficiale e sulle difficoltà intrinseche [...]

Submit a Comment

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Translate »