Salta al contenuto

Manipolazione dati di Temperatura?

E’ inutile girarci intorno! Nella mente di molti, questo è il pensiero che s’insinua. Vorrei provare a dare alcuni spunti di riflessione, pro o contro che siano. Dato il periodo, non si può non partire che da questo:

“So, if we could reduce the ocean blip by, say, 0.15 degC, then this would be significant for the global mean — but we’d still have to explain the land blip.”

Che cos’è questo blip di cui scrive Tom Wigley dell’NCAR al direttore del Climate Research Unit di Norwich Phil Jones? Se guardiamo il grafico dell’anomalia di temperatura, per la precisione la figura 3.6 del rapporto AR4 dell’IPCC-WG1,

 

 

il “blip” è quella protuberanza fastidiosa che sottende un riscaldamento anomalo delle temperature globali intorno agli anni ’40. La figura mostra chiaramente che il blip proviene in maniera preminente dall’emisfero australe ed è quindi riconducibile alla ricostruzione delle temperature superficiali dell’oceano (sst), ricostruzione che è distinta da quella delle temperature dell’aria sulla terraferma le quali, oltretutto, contano molto meno (circa il 30% della superficie). Perché Wigley auspica una diminuzione proprio di 0.15° del blip? Perché, egli spiega,

“I’ve chosen 0.15 here deliberately. Così (libera mia traduzione) rimane ancora un po’ dell’aumento della temperatura marina che deve servire per spiegare l’aumento che nello stesso periodo è stato registrato sulla terraferma. In questo modo l’emisfero meridionale avrà avuto un aumento monotonico della temperatura, mentre sull’altro emisfero avremo ancora una diminuzione che si lega bene con l’effetto che noi ci aspettiamo dovuto a tutti quegli aerosol emessi da questa parte del globo.”

Insomma, quel blip è fastidioso perché è incomprensibile, ma non va limitato troppo, solo 0.15°, altrimenti ci sarebbe una divergenza eccessiva tra la temperatura dell’oceano e quella sulla terraferma, giacché quest’ultima è al momento immodificabile e un oceano più caldo serve comunque a spiegare l’aumento degli anni ’30. Quello che Wigley sta cercando di dire è che la temperatura va modificata secondo quelle che sono le sue convinzioni su come va il mondo, ma che la cosa va fatta con cautela per mantenere una certa coerenza scientifica.

Non è che questo sia da biasimare in toto: tutti ci facciamo delle idee in base alle nostre conoscenze e Wigley è un fine conoscitore delle dinamiche meteo-climatiche. Da queste idee ne derivano delle ipotesi che poi subiranno il processo di falsificazione secondo il metodo galileiano. Certo, nel caso di Wigley la cosa non sembra così candida, ma restiamo ai dati. Perché il blip è incomprensibile, cioè fastidioso? Perché le simulazioni del passato ottenute dai modelli climatici non lo colgono, cosa di cui si era già trattato in questa discussione di alcuni mesi fa. E se il modello non ci prende, ciò che ne risulta è un’ammissione di mancanza di conoscenza del sistema climatico, e ai modellisti dà molto fastidio doversi rifugiare come spiegazione dietro ad un generico “variabilità naturale”. Nonostante il blip, però, la stima relativa all’intero globo, pannello superiore nella figura in alto, piace perché è evidenza di un aumento abbastanza monotonico della temperatura fin dall’inizio del XX° secolo, con un’accelerazione dagli anni ’60 che voi tutti sapete a cosa sia dovuta.

Per chi già da un po’ di tempo segue le vicende dell’IPCC, però, quel grafico fu un vero shock. Tale ricostruzione fu ancora opera del “Team” dell’università dell’East Anglia/UKMO1 che rivoluzionò, stravolgendola, la storia climatica del recente passato. La figura che segue sintetizza le nostre conoscenze precedenti, cioè fino ad almeno il 2005, così come furono riportate nel TAR, il terzo rapporto dell’IPCC pubblicato nel lontanissimo(!) 2001, basate sull’articolo di Folland et al. (2001), appartenente sempre al Team (non ci si allontana mai da loro!).

 

 

Fino ad allora, infatti, tutti pensavamo che il globo si fosse scaldato per qualche motivo dal 1900 circa fino al periodo della seconda guerra mondiale, cui seguì una fase di leggero raffreddamento,  per lo più dovuto agli aerosol, e poi dal balzo finale opera della CO2 & c. e della concomitante diminuzione degli aerosol.

NO! Cancellato! Rewind e pensa diversamente.

Quella brutta storia degli aerosol è stata riscritta. Ed era una delle principali critiche mosse nei riguardi dei grafici del 2001. Com’era possibile che la diminuzione della temperatura fosse visibile anche nell’emisfero meridionale dove, si sa, l’aria è pulitissima? Con Brohan 2006 si fa piazza pulita, per meglio dire…aria pulita, e l’aumento diventa monotonico nell’emisfero meridionale e, di riflesso, nel mondo intero. Sembra la quadratura del cerchio, non fosse per quel maledettissimo blip. Che cosa ha provocato tale rivoluzione, il passaggio da Folland 2001 del TAR a Brohan 2006 dell’AR4? Ovviamente ancora un lavoro del Team della East Anglia/UKMO, Rayner et al. (2006)!

L’articolo di Rayner si occupa della ricostruzione delle sst ed è basilare in quanto spiega e riassume tutte le scelte fatte per giungere dai dati disomogenei di temperatura marina raccolti nei secoli, ad un dato omogeneo a livello globale. In esso si spiegano tutte quelle strane cose relative a secchi di legno e sacchi in pelle, che erano calati dai ponti delle navi per avere un po’ di acqua su cui immergere un termometro, a quanto tempo un marinaio impiegava a fare l’operazione, alla velocità della nave (più è veloce, più tira il vento), all’arrivo della seconda guerra mondiale che, di punto in bianco, fece passare dai secchi alle prese di raffreddamento sott’acqua e tante altre amenità di questo tipo. Adesso, non voglio pensare che tali scelte siano state del tutto arbitrarie, sono più che convinto che siano state ben pensate, ma una rivisitata, a questo punto, ci starebbe proprio e non da parte dell’altro team, quello della NOAA/NCAR, ché sono stretti parenti degli inglesi. In ogni caso, quelle scelte sulle amenità di cui sopra, sono precedenti il 2001 e il loro risultato fu pubblicato già nel TAR. Tra il 2001 ed il 2006 accade che il Team (inglese) passa da un database interno del Met Office al nuovo International Comprehensive Ocean Atmospheric Data Set – ICOADS, presso la NOAA , ente che adesso cura la raccolta anche delle osservazioni marine eseguite da varie compagnie e nazioni nel corso dei decenni. La nuova banca dati, ci assicurano, è più ricca di osservazioni e presenta una migliore copertura spaziale rispetto alla vecchia raccolta. Le correzioni applicate al nuovo dataset portano al risultato finale pubblicato nell’AR4. Arrivati a questo punto, non rimane che andare a vedere questi dati, estratti da Climate Explorer:

 

 

Nel grafico sono presenti i dati originali -ICOADS- (linea blu) e quelli modificati -Hadsst2 AR4- (linea rossa). In aggiunta ci sono anche la versione precedente usata nel TAR (Hadsst1 – linea verde) e la ricostruzione per opera della NOAA (Ersstv3 – linea fucsia); per completezza, ho riportato anche la temperatura globale (sst + terraferma) dell’AR4, spostata di 0.2° per evitare una eccessiva sovrapposizione. Concentriamoci sulla linea blu (dati originali) e quella rossa (dati aggiustati). La prima cosa da sottolineare è che nel periodo di riferimento, il 1961-1990, i dati non sono stati aggiustati in maniera apparente, cioè a dire le rilevazioni sono prese così com’erano: 12.43267° ha misurato qualcuno da qualche parte e 12.43267° il team ha considerato. Cioè a dire non si è sentita la necessità di aggiustare i dati osservati. Bene, benissimo!

Per il periodo ante guerra, con i secchi buttati in mare, quei poveri marinai hanno fatto un po’ di bischerate e si è sentita la necessità di aggiustare i dati. Cosa che certamente va fatta. Nell’applicare gli aggiustamenti al nuovo dataset (ICOADS) si passa dalla curva verde (quella del TAR 2001) a quella rossa (AR4 2007). E’ successo che hanno raffreddato un po’ i valori intorno al 1910; poche differenze si hanno tra il 1920 ed il 1934 e poi…salta fuori il blip. Che è dunque stato creato dagli aggiustamenti ante guerra sul nuovo dataset, dalla scarsità di dati nel periodo della guerra e dal fatto che dopo la guerra tali aggiustamenti non sono stati più applicati. Da notare che la ricostruzione della NOAA non ha un blip così accentuato. Le altre differenze tra la ricostruzione vecchia (linea verde) e nuova (linea rossa) che si apprezzano nel periodo 1945-1960 sono dovute, pare, all’introduzione del nuovo dataset ICOADS. Su questa parte del grafico magari ci torno in un’altra occasione, anche perché esiste un’altra raccolta di dati (il MOHMAT, non riportata in figura) che usa dati di temperatura dell’aria e non di sst e che mal si concilia con i dati qui presentati.

Continuando la discussione del grafico qui sopra, segue il periodo 61-90 di riferimento in cui tutti i dataset (miracolosamente?) si allineano. Nella parte finale del grafico, la ricostruzione del Team si discosta dai dati originali nel periodo post 1997, accentuando il riscaldamento,. Gli autori (Rayner et al.) scrivono che loro hanno usato i dati ICOADS fino al 1997, perché quello era l’ultimo anno allora a disposizione, cui hanno aggiunto fino ai giorni nostri i dati ricavati dal Global Telecommunication System. Oggi che i dati ICOADS sono a disposizione fino al 2009, si comprende che la parte post 1997 è inadeguata rispetto ai dati originali e alle altre ricostruzioni presenti nel grafico. Questo vuol dire che il trend decennale dell’HadCRUT2 è di “uno zero virgola qualcosa” più accentuato del dovuto.

A questo punto si può rispondere alla domanda posta nel titolo di quest’articolo, c’è stata manipolazione?

Per quanto riguarda la parte ante guerra, i criteri applicati per gli aggiustamenti sembrano a volte molto aleatori: la proporzione di secchi e di sacchi, di navi veloci e lente, del tempo impiegato tra il lancio del secchio e quello dell’effettiva misura, sono passibili di ulteriori e sostanziosi approfondimenti. Sapendo che il Team aveva forse una certa propensione involontaria ad ottenere un risultato predeterminato, si rende obbligatoria una rilettura di quegli aggiustamenti. Il blip del 1940 è sicuramente un effetto collaterale del procedimento, c’è spazio per aggiustamenti, magari non predeterminati, e Tom Wigley fa bene a porre il problema al direttore del CRU. Il periodo 1945-1960 è pure abbastanza incerto. Il periodo più recente, post 1997, va sicuramente rivisto.

La volontarietà di applicare aggiustamenti ad arte non è a mio parere dimostrata ma l’ipotesi non è neppure stata falsificata: altra indagine è richiesta e le scelte fin qui adottate vanno scrutinate ulteriormente. Prima di chiudere, invito anche a leggere con attenzione tutti i “remaining issues” elencati nel capitolo 6 di Rayner et al. (2006). C’è tanto da controllare, da studiare, d’approfondire ancora, che tutta questa storia della ricostruzione delle sst globali, in particolare la parte ante guerra, pare davvero lontana da qualcosa di definito e affidabile. Rimane pure da affrontare il capitolo della terraferma e, per quanto riguarda l’Italia, è probabile che Climate Monitor lanci un progetto che potrebbe coinvolgere ognuno di noi. Seguiteci.

Related Posts Plugin for WordPress, Blogger...Facebooktwitterlinkedinmail
  1. Brohan et al 2006 []
Published inAttualitàClimatologiaVoce dei lettori

16 Comments

  1. Segnalo una interessantissima serie di blog di William Briggs riguardo gli aggiustamenti delle misure. Un estratto:

    What is bizarre is that, in the revelations so far, the “corrections” and “homogenizations” are more strongly applied to the most recent values, id est, those values in which we have the most confidence! The older, historical observations, about which we know a hell of lot less, are hardly touched, or not adjusted at all.

    http://wmbriggs.com/blog/?p=1477

  2. Dario

    Il prof. Carraro, docente di geologia del Quaternario qui a Torino quando ero studente, ci ha insegnato che, soprattutto nel campo delle Scienze della Terra, i dati “strani” non vanno MAI eliminati, trascurati o quel che è peggio “lisciati”.
    Anzi, il fatto di rinvenire dei dati (anche 1 solo) che “non quadrano” con teorie, ipotesi, modelli ed interpretazioni, deve spingerci piuttosto a ridefinire e verificare meglio quelle stesse teorie, xkè tali dati, con la loro evidenza fisica, sono la dimostrazione lampante che la teoria con cui cerco di interpretarli non è ancora stata messa a punto con sufficiente precisione, o addirittura è sbagliata!
    Ho l’impressione invece che ci sia un po’ troppa gente che vorrebbe applicare il metodo scientifico a rovescio, prima sviluppando teorie e modelli e poi andando a cercare solo e soltanto i dati che “quadrano”…

    • Sig. Giuseppe,
      non sono in grado di commentare le ricostruzioni paleoclimatiche ricavate dalle carote di ghiaccio.
      In ogni caso le ricostruzioni delle ultime centinaia di migliaia di anni sono ricavate dei ghiacci antartici (e in parte della Groenlandia). Sono dati in genere accettati da tutti.

    • Claudio Costa

      Io un commento lo faccio: Fin dalla sua pubblicazione l’hockey stick di Mann 1999 generò stupore e critiche, si conoscevano già, infatti i grafici postati da Watts.
      Dopo le email craccate di Briffa appare evidente che l’hockey stick fu costruito con trucchetti, potature e innesti.
      Il tutto per farci credere alla storiella del riscaldamento senza precedenti nel millennio, giustificabile quindi solo con la CO2 e il CH4 antropico.
      Sempre dalle e mail di Briffa traspare anche che questa ricostruzione fu una committenza!
      Infine che l’interglaciale sia meglio del glaciale va da sè

    • Luca Fava

      Io sto lavorando su i dati pubblicati di Vostok, Epica e GISP2.
      Volevo sapere se qualcuno può aiutarmi a rintracciare alcune informazioni.
      La Temperatura indicata a Vostok è chiaramente una DT; rispetto a cosa?
      Come mai questa DT rimane 0 negli ultimi 100 anni?
      Qualcuno sa se ci sono lavori che spiegano lo shift tra Vostok e Epica?
      Nessuno a mai comparato Vostok (Antartide) con GISP2 (Groenlandia)?

      Sarei molto grato a chiunque volesse aiutarmi.

    • Luca non saprei, potresti provare a scrivere una mail a Massimo Frezzotti del PNRA. Il suo contatto dovrebbe essere sul sito del programma o sul sito di Epica.
      gg

  3. Il grande Urey dimostro’ intorno agli anni ’50-’60 del XX secolo che i crateri lunari sono di origine vulcanica, visto che ce ne sono alcuni che sono allineati.

    Adesso che sappiamo che i crateri lunari sono invece da impatto, possiamo dimostrarlo anche notando che ce ne sono alcuni che sono allineati, evidentemente il risultato dello scontro con frammenti della stessa cometa.

    Questo per dire che e’ inutile scervellarsi sulla maliziosita’ o peggio dello scienziato e ricercatore. Le “prove” e i “dati” saranno comunque letti alla luce di quello che lo scienziato e ricercatore ritiene (in tutta onesta’) la spiegazione piu’ valida. Cerchiamo di prendere dunque la Scienza seriamente, invece di cullarci nell’ingenua illusione della incontrovertibilita’ dei dati, o peggio, dall’altra parte, nella cospiratoria “certezza” dell’anima meretrice e fasulla di chi saprebbe di poter ottenere grandi fondi per le sue ricerche se modifica i risultati in una certa maniera.

    • Belle parole che, a mio parere, dovrebbero rimanere nell’ambito di un auspicio per un mondo ideale.
      La realtà è un tantino diversa e, sempre a mio parere, occorre infilare le mani nel fango.
      Il motivo di questo articolo scaturisce dal fatto che, proprio su questo blog, era passata l’opinione di una possibile “lisciatina” ai dati.
      Non è un’affermazione di poco conto e desideravo indagare, magari con metodo, l’ipotesi.
      Poi si può sempre salire sull’Aventino o pensare che siamo tutti buoni e belli e motivati da nobili ideali.
      Stante i fatti, stante le lettere del CRU, stante le esperienze personali con le riviste main stream, stante le convinzioni personali, magari del tutto sballate, io sull’Aventino non ci salgo e prendo la scienza molto, molto sul serio, mi c’infilo proprio!

      Nel caso fosse rivolta a me l’affermazione che potessi pensare all’anima meretrice e fasulla (cosa che non penso, è stato detto in maniera generica), ho detto qualcosa di diverso. Anzi, bene ha fatto Tom Wigley a porre la questione. Che poi, senza ricorre all’arte più antica del mondo, il proprio pensiero possa essere influenzato dalle proprie convinzioni ideologiche, dalla passione, mi pare un atteggiamento così umano, così largamente condivisibile, così personale che non mi pare di aver scoperto l’acqua calda.

    • @Mezzasalma

      Vedo che non mi sono spiegato. Quello che mi piacerebbe fosse ben chiaro a tutti e’ che le “lisciatine” le fanno tutti, anzi le facciamo tutti, ognuno di noi convinto di comportarsi in maniera perfettamente logica e onesta.

      Altro che Aventino: sto dicendo, guardiamoci in faccia e vediamo che nessuno e’ perfetto e pulito e incontrovertibile. E non permettiamo piu’ ne’ a noi stessi ne’ a nessun altro di venirci a raccontare “gli scienziati dicono questo, non puo’ essere smentito, i dati parlano chiaro, hanno sicuramente ragione”. Allo stesso tempo, non illudiamoci di essere piu’ bravi di loro. Oppure che (a parte casi clamorosissimi, con prove schiacchianti e/o una confessione) ci sia un disonesto in chiunque la pensi diversamente.

      Acqua calda? Se quella e’ acqua calda, si vede che in troppi hanno fatto docce fredde per almeno un lustro in cui si e’ andati avanti a furia di “the science is settled”…

      > Nel caso fosse rivolta a me l’affermazione

      no, no, pensavo a certi tizi su Climate Sceptics e in vari altri blog dove adesso si parla delle prove di un complotto internazionale.

  4. Io credo che la ricostruzione delle temperature superficiali, specialmente prima degli anni ’70, debba essere guardata con molta cautela, a prescindere da qualsiasi tipo di trattamento che può essere stato fatto sui dati. Con pochi dati e misure poco precise non mi stupirei se il margine di errore fosse confrontabile con l’intervallo di oscillazione della temperatura stessa. E da questo punto di vista non è bello pensare che i modelli vengono confrontati e validati proprio a partire da queste serie di temperatura. Senza considerare il fatto che, a mio parere, la temperatura superficiale, pur essendo un parametro indicativo e importante per l’evoluzione del clima, è comunque limitato e non tiene bene conto di ciò che succede in troposfera e nel resto del sistema climatico.
    In ogni caso è opportuno che il trattamento dei dati venga fatto nel modo più oggettivo possibile e c’è da sperare che le cose siano andate così. C’è da dire che se il “blip” fosse un “effetto collaterale” i modellisti dovrebbero essere contenti perchè i modelli avrebbero meno difficoltà a cogliere l’andamento della temperatura tra il 1900 e il 1940.

    • Sono d’accordo che i dati vanno trattati con cautela, soprattutto i dati marini meno recenti. Per quanto riguarda i dati tradizionali sulla terraferma, c’è una sovrabbondanza di dati e sono persuaso che si possa trovare un numero adeguato, che non deve essere molto grande, di stazioni rappresentative dei cambiamenti occorsi.
      E’ vero che la T2m non dice molto sull’energia del sistema, ma è praticamente solo dal 2003-2004 che abbiamo un sistema per misurarlo. Non c’è molto da fare, bisogna guardare in quel caos delle stazioni tradizionali.
      Vorrei precisare che, a mio parere, i modelli non sono “validati” su quelle serie storiche, bensì sono “calibrati” su quei dati.
      Inoltre, i dati pre-1941 così come sono stati corretti, sono stati ritenuti una migliore rappresentazione della realtà rispetto ai dati grezzi, perché il modello numerico mal si raccordava nel simulare le differenze tra terraferma e dati marini grezzi.
      Certo che, modificando i dati grezzi sulla terraferma, modificando i dati grezzi sul mare, c’è il rischio di fare confusione tra osservazioni e simulazioni. E siccome siamo uomini e donne che sbagliamo, due occhi più su cose anche passate può fare solo bene

    • Se ho capito bene Lei sostiene che l’idea del gruppo di lavoro fosse quella di eliminare il trend di diminuzione della temperatura tra gli anni ’40 e gli anni ’60 in modo da far sembrare la curva di temperatura più monotona, fatto che naturalmente spero che non sia vero. Osservando attentamente i grafici del 2001 e quelli del 2006 in relazione all’emisfero sud sembra che nel secondo ci sia una più accentuata diminuzione delle temperature in seguito al 1880 e successivamente dopo il 1940, cosa che da un lato favorisce la cuspide del 1940 e dall’altro tende ad eliminare il trend di diminuzione a livello globale tra il 1940 e il 1960. Ora mi chiedo: dato che le modifiche fatte sui dati grezzi delle SST sono state notevoli e diversificate a seconda del periodo dell’anno, nell’ipotetica ottica di rendere monotona la curva, perchè addirittura accentuare il blip rispetto al TAR, che peraltro i modelli non riescono a cogliere? Sarebbe stato troppo incoerente con le logiche utilizzate nella trasformazione dei dati? (di cui non sono a conoscenza; dal grafico capisco solo che in generale sono stati considerati come delle sottostime rispetto al valore “reale” i dati prima del 1940 e sovrastime quelli tra il 1940 e il 1960)
      C’è qualcosa che non mi torna…

    • A volte le spiegazioni per tali contraddizioni possono essere più semplici di quello che appaiono.
      Modalità “congettura”: on.

      Tra il 2001 (TAR) e l’invio dei nuovi paper di Rayner e di Brohan nel 2005, non è che ci sia molto tempo. La scadenza per vedersi accettare l’articolo in tempo per l’AR4 si avvicina velocemente.
      Non c’è molto tempo per affinare la tecnica. Arriva il nuovo dataset ICOADS, si devono aggiustare i dati, viene fuori il blip ma ormai è tardi. Invito di nuovo a leggere il capitolo 6 “remaining issues” di Rayner et al. Prima di riuscire a valutare il grado di approssimazione ed incertezza nella ricostruzione proposta, avrei tanti campanelli dall’allarme che mi suonano in testa.
      E per questo che parlo del blip come di un sottoprodotto della tecnica di aggiustamento: involontario ed inatteso ma lampante.
      Sinceramente quel blip mi pare del tutto innaturale, ma siamo ancora in modalità “congettura” e non riesco a trovare altra spiegazione se non la fretta.
      Per quanto riguarda le correzioni che hanno reso l’aumento monotonico, in particolare a sud, ciò che ha guidato i criteri, oltre allo studio delle fonti, è stato anche il modello atmosferico che suggerisce quale sst è ammissibile con gli osservati sulla terraferma.
      Insomma, hai le stazioni tradizionali su cui sono applicate sostanziose correzioni e presentano, a mio parere, ancora problemi irrisolti. Hai un modello climatico cui non affiderei molte speranze. Hai un dataset di osservazioni marine ancora più sconclusionato di quello terrestre. Eppure ci tiri fuori una stima.
      Altro che cautela ci vuole qui!

      Con questo non voglio dire che ci sarebbero metodi migliore per procedere. Però c’è spazio per tanti errori. Prima di prendere decisioni su questi dati, mi pare il minimo provare a scrutinare nuovamente i dati in uno sforzo comune tra statistici, meteorologi e storici. Se poi il Team, come pare, ha fatto si che le idee non allineate non avessero adeguato spazio nella letteratura, questa dovrebbe essere una richiesta a prescindere.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Categorie

Termini di utilizzo

Licenza Creative Commons
Climatemonitor di Guido Guidi è distribuito con Licenza Creative Commons Attribuzione - Non commerciale 4.0 Internazionale.
Permessi ulteriori rispetto alle finalità della presente licenza possono essere disponibili presso info@climatemonitor.it.
scrivi a info@climatemonitor.it
Translate »