Salta al contenuto

Global warming: era più freddo prima o è più caldo adesso?

C3 Headlines è un sito di scettici climatici. Ma non solo, è anche un sito dove troppo spesso i pur giusti argomenti che sostengono lo scetticismo sono confusi con dissertazioni di carattere smaccatamente politico e ideologico. Per questa ragione è molto raro che si possa leggere sulle nostre pagine di argomenti tirati fuori e/o approfonditi da quel sito.

Quanto vi racconterò brevemente non fa eccezione, ma l’argomento è forse troppo importante per essere trascurato. Sulle nostre pagine abbiamo spesso affrontato il tema della precisione della misura, della cura del dato, dell’approssimazione inevitabile delle misure strumentali e della conseguente inutilità di compilare classifiche annuali in termini di freddo o caldo sulla base di differenze dell’ordine di centesimi, quando non millesimi di grado.

Eppure questo sembra essere diventato l’unico scopo, in termini di divulgazione e comunicazione, dei centri di ricerca che si occupano di raccogliere i dati ed assemblarli. E’ un lavoro duro e per molti aspetti anche inevitabilmente approssimativo, tanto che è noto che quello delle temperature media superficiali globali è un dato stimato, non misurato. La misura infatti richiede degli standard di precisione che per ragioni tecniche quali la dispersione delle informazioni e la disomogeneità spaziale e temporale delle serie non possono essere rispettati. Di qui la stima.

Ora, le informazioni che tutte le stazioni di osservazione producono hanno comunque un padrone che dovrebbe preoccuparsi alla fonte della cura del dato. Questa è la condizione necessaria perché i dati di una stazione possano essere inseriti nel circuito internazionale e quindi assorbiti dai dataset. Non si spiega quindi perché chi gestisce quei dataset debba poi provvedere ad aggiustamenti ex-post delle informazioni. E si spiega ancora meno perché quegli aggiustamenti vanno sempre nella direzione di ‘raffreddare’ il passato remoto e ‘riscaldare’ il presente e il passato recente.

Questo è quello che pare succeda regolarmente al datset della NOAA e del NCDC. Siamo convinti che ci siano delle ottime ragioni ‘tecniche’, magari di software e gestione del database, ma per quale ragione la temperatura media di un mese del, diciamo, 1880, 1934 0 2008, dovrebbe cambiare ogni volta che il dataset viene aggiornato aggiungendo il nuovo mese? Voglio dire, sono dati che dovrebbero essere consolidati, e sono dati con cui spesso si confrontano quelli nuovi. Se cambiano nel tempo, ancora peggio se cambiano sempre nella stessa direzione, il risultato può essere quello di apportare delle modifiche alla serie che saranno pure belle da vedere, ma che in termini di significatività delle informazioni lasciano decisamente a desiderare.

Quella sotto è una tabella con qualche esempio, mentre sotto ancora ci sono le immagini che mostrano le dimensioni del cambiamento nel tempo.

 

Una delle spiegazioni potrebbe essere quella che vede un continuo inserimento di nuovi dati, di serie recuperate chissà come o chissà dove, o di approntamento di nuove tecniche di omogeneizzazione che, trattando i dati diversamente dal punto di vista statistico, finiscono per produrre risultati diversi. Va bene così? Non so, forse qualche dubbio è legittimo se piuttosto che cambiare il freddo o il caldo che può aver fatto in passato – cosa oggettivamente impossibile – cambia la rappresentazione delle fonti. fatto sta che ogni volta che qualcuno ci mette le mani, il passato diventa più freddo e il presente diventa più caldo, proprio come dovrebbe essere su un Pianeta destinato alla cottura…

Related Posts Plugin for WordPress, Blogger...Facebooktwitterlinkedinmail
Published inAttualitàClimatologia

9 Comments

  1. Sono usciti i dati fino a dicembre 2011 per le anomalie medie mensili.
    Questa volta avevo salvato i dati fino a novembre 2011 e quindi è possibile confrontare i due file (che al NOAA sono salvati con lo stesso nome).
    Il grafico delle differenze e i valori numerici sono all’url
    http://www.zafzaf.it/bongo/noaa/readme.html (ultimi due file).
    Le differenze sono (novembre – dicembre) e quindi valori negativi implicano che le anomalie del file più recente (quello fino a dicembre) sono più alte e viceversa per le differenze positive.
    Le variazioni sono di millesimi di grado e quindi poco importanti, ma mi danno fastidio i due trend sistematici, fino al 1935 tutto negativo e dal 1935 ad oggi praticamente tutto positivo. Cosa fanno ai dati?

  2. Il 3 gennaio ho scaricato dall’ftp del noaa il file di dati cui fanno riferimento i grafici e l’ho graficato con un mio programma (www.zafzaf.it/bongo/bgo.html). Noto che:
    1) I dati, ancora relativi a novembre 2011 come ultimo mese, sono diversi da quelli della tabella (January 1880= -0.0622; November 1934=0.0823; May 2008=0.4668)
    2)I grafici hanno scale verticali molto diverse in grado di falsare la percezione degli andamenti.
    3) il mio grafico (http://www.zafzaf.it/bongo/noaa-2.png ) mostra abbastanza chiaramente una costanza o una piccola diminuzione dell’anomalia di temperatura dopo il 2004, come si vede nel grafico del 2008 e non si vede nel grafico di luglio 2011.
    4) il range delle anomalie nei grafici è +- 0.2 °C (meno nel grafico del 2011): dove sono le anomalie di 4-7 decimi presenti nel file di dati?

    Reply
    Molto interessante, grazie. Puoi calcolare il trend dei due periodi di aumento (anni ’30 e fine secolo) il primo senza e il secondo con i Suv?
    gg

    • Ho calcolato e graficato i trend lineari tra il 1910 e il ’45 e tra il ’70 e il novembre 2011.
      Ho caricato il grafico e i file di output dei fit lineari in
      http://www.zafzaf.it/bongo/noaa/readme.html
      La pendenza nel secondo periodo cresce di circa il 9% rispetto a quella del primo periodo, anche se dipende dalla scelta dei dati. Un incremento della pendenza è del tutto normale anche se mi sarei aspettato un andamento più ripido, ripido almeno quanto gli acuti degli allarmi lanciati in tutti i 10(?) anni di IPCC.
      Ho messo anche i dati e i grafici dell’irraggiamento solare (i link sono sui grafici) e il grafico scalato sugli anni (le ascisse) delle anomalie. Basta sovrapporre i dati e si vede bene l’influenza non trascurabile del sole sulle (anomalie di) temperature.
      zaf

    • donato

      Eppure hanno sempre sostenuto che il Sole non ha alcuna influenza sul GW! I grafici relativi all’irraggiamento solare, comunque, si fermano agli anni sessanta del secolo scorso. Sarebbe interessante vedere se nel periodo del GW vi siano state variazioni simili a quelle tra il 1900 e gli anni ’60 dello scorso secolo.
      Complimenti per l’elaborazione e per i grafici.
      Ciao, Donato.

    • Donato, grazie per i complimenti, ma non è così banale (vedi la discussione su http://www.climatemonitor.it/?p=2124 ). I dati più recenti ci sono (es: Lean 2000) ma non mostrano l’andamento presente in Bard (grafico dell’irraggiamento che ho proposto), anche se Bard usa i dati di Lean (1995) per le sue correzioni.
      Non so se le correzioni usate da Bard possano modificare molto la curva dell’irraggiamento, ma non credo. I dati di Bard sono descritti così:
      ->The first TSI column has been calculated by assuming a TSI reduction by
      -0.25 % during the Maunder Minimum (after Lean et al. 1995). The record
      is normalized to a value of 1367 W/m2 for the year 1950 AD. This TSI
      record corresponds to the thick line curve in Fig. 3 by Bard et al. (2000).
      ->The second TSI column corresponds to a similar calculation that also
      takes into account a small long-term geomagnetic modulation
      (after Korte & Constable 2005) and a polar enhancement factor
      (PEC = 0.8 according to Field et al. 2006). This record corresponds
      to the green curve in Fig. 1 by Bard et al. (2007).
      ->The third TSI column corresponds to a similar calculation that also
      takes into account a small long-term geomagnetic modulation
      (after Yang et al. 2000) and a polar enhancement factor
      (PEC = 0.8 according to Field et al. 2006).
      Ho aggiunto alla pagina su zafzaf.it anche il grafico dei dati di Lean 2000, ma il risultato non è bellissimo …
      zaf

    • donato

      Che la cosa non sia banale va da se. Se così fosse avremmo risolto il problema dell’AGW e si sentirebbe profumo di Nobel 🙂 .
      Per il resto concordo pienamente con le tue conclusioni: il grafico dei dati di Lean 2000 non è molto bello e, soprattutto, non evidenzia lo stesso comportamento di Bard 1995. La questione merita maggior approfondimento. A risentirci.
      Ciao, Donato.

  3. Fabio

    è chiaro che la cosa non è casuale, perchè se le modifiche dei dati fossero sistematiche sarebbero tutte nella stessa direzione, magari cambiando l’intensità ma pur sempre o tutte positive o tutte negative.

    se le modifiche fossero frutto di processi di omogenizzazione o di recupero di dati persi ecc ecc avrebbero una distribuzione casuale con media asintotica nulla.

    invece ci troviamo in un terzo caso, che è quello delle modifiche selezionate che producono come risultato il fatto che gli scarti dalla media dei dati iniziali influiscono nella modifica di esso.

  4. ciraco basso

    In tema strettamente natalizio, dedicherei le seguenti poche righe ai profeti e seguaci della NOAA e del NCDC:

    Morire per delle idee, l’idea è affascinante
    per poco io morivo senza averla mai avuta,
    perchè chi ce l’aveva, una folla di gente,
    gridando “viva la morte” proprio addosso mi è caduta.
    ………………………
    ………………………
    Ora se c’è una cosa amara, desolante
    è quella di capire all’ultimo momento
    che l’idea giusta era un’altra, un altro movimento
    moriamo per delle idee, va bè, ma di morte lenta
    ma di morte lenta.
    ……………………..
    ……………………..
    A chi va poi cercando verità meno fittizie
    ogni tipo di setta offre moventi originali
    e la scelta è imbarazzante per le vittime novizie
    morire per delle idee è molto bello ma per quali.
    ………………………..
    Fabrizio De André (orig.Georges Brassens),”Morire per delle idee”
    (Canzoni, 1974)

    P.S. Per approfondimenti e “note” – http://www.youtube.com/watch?v=ohUZgSQJgHw

  5. Guido Botteri

    I dati passati, qualsiasi fossero stati in realtà, non possono essere cambiati di valore, come una foto che ingiallisce, o una mela che marcisce…. una temperatura di una certa data non può essere cambiata nel tempo, o è stata misurata bene o è stata misurata male, in ciò intendendo anche le varie correzioni che si fanno prima di ufficializzare i dati.
    Se dunque in un secondo tempo ci vengono a correggere i dati, ci stanno dicendo che in passato si sono sbagliati, e questo depone assai male, soprattutto per chi ci ha riempito in questi anni di epiteti vari, del tipo “negazionista”, e intanto spacciavano per veri e incontestabili dati che ora ci vengono a correggere, e quindi a dire che erano sbagliati.
    Ma se si sono sbagliati allora, perché non dovrebbero poter sbagliare ancora ?
    Ma siamo sicuri che si sono sbagliati “allora” ? Siamo proprio sicuri che si siano sbagliati “allora”, o che la correzione sia da farsi “in quel verso” ? Ne siamo davvero sicuri ?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Categorie

Termini di utilizzo

Licenza Creative Commons
Climatemonitor di Guido Guidi è distribuito con Licenza Creative Commons Attribuzione - Non commerciale 4.0 Internazionale.
Permessi ulteriori rispetto alle finalità della presente licenza possono essere disponibili presso info@climatemonitor.it.
scrivi a info@climatemonitor.it
Translate »