Salta al contenuto

A.A.A. Temperature dell’Artico offresi

Questo post avrebbe anche potuto avere un titolo diverso, tipo “Come cancellare la pausa del riscaldamento globale” o, “Come gridare vittoria in una partita che nessuno può vincere tranne il tempo”. Alla fine però ho optato per quello che leggete qui sopra, perché in effetti è quello che hanno fatto gli autori di una ricerca recentemente molto discussa nella blogosfera climatica, offrire al panorama scientifico una versione, ma sarebbe meglio dire visione, della temperatura media superficiale dell’area artica e, quindi, per contatto, anche del resto del pianeta. L’immagine è quella di un riscaldamento globale che non si sarebbe affatto fermato, né avrebbe rallentato, ma piuttosto avrebbe proseguito indisturbato e più decisivo che mai verso traguardi ignoti e pericolosi.

Lo studio è quello qui sotto.

 

Coverage bias in the HadCRUT4 temperature series and its impact on recent temperature trends Cowtan and Way 2013.

 

 

La discussione va avanti su molte pagine web, WUWT, Climateaudit, Climate etc., Real climate, SkepticalScience e altre ancora, con quelle orientate ad una visione scettica che sollevano dubbi e quelle di impronta mainstream che ne elogiano i risultati. CM avrebbe già dato il suo piccolo e insignificante contributo con questo mio commento, scritto in risposta alla prima segnalazione ricevuta di questa discussione da parte di uno dei nostri lettori.

 

Tanto fermento merita tuttavia maggiore attenzione e, soprattutto, fornisce molti elementi di valutazione di questo studio, del quale innanzi tutto occorre fare un breve riassunto.

 

Partendo dal presupposto che i dati della temperatura media superficiale globale raccolti dalla Climatic Research Unit inglese (HadCRUT) e quelli raccolti dal GISS della NASA presentano delle differenze soprattutto nel trend che le temperature avrebbero avuto negli ultimi anni, ovvero durante la ‘pausa’ del riscaldamento globale, gli autori hanno puntato il dito contro i metodi di raccolta e omogeneizzazione di questi dati operati dalla CRU. E cioè sul fatto che, piuttosto che procedere ad operazioni di interpolazione su di una griglia che arriva a 1200km di lato (Milano uguale a Palermo per intenderci) come fa il GISS arrivando alla conclusione che l’Artico ha continuato a scaldarsi portando verso l’alto la temperatura di tutto il globo, gli inglesi preferiscono lasciare dei vuoti significativi dove i dati non esistono, mancando sempre secondo gli autori di rappresentare efficacemente quanto accade nelle zone più sensibili al riscaldamento, appunto le alte latitudini. Questa rappresentazione parziale introdurrebbe un condizionamento verso temperature più basse per l’intero dataset.

 

Per riempire questi vuoti e ottenere quindi un dataset più rappresentativo, gli autori hanno utilizzato due tecniche. La prima consiste nell’impiego di una procedura di omogeneizzazione statistica e la seconda nel ricorso ai dati provenienti dalle sonde satellitari (UAH) della bassa troposfera, dati che che hanno una copertura spaziale molto più completa, ma che al tempo stesso non sono riferiti alla superficie, come quelli del resto del dataset, ma sono riferiti a circa 3000 metri di quota sul livello del mare. Con questa seconda tecnica, è stato dunque costruito un dataset globale definito ‘ibrido’, il cui trend è molto più vicino ai dati del GISS di quanto non lo sia la serie HadCRUT originale e, soprattutto, più consistente con gli output, sempre in materia di temperatura globale, dei modelli di previsione.

 

Con un colpo solo, quindi, scompaiono sia la ‘pausa’ del riscaldamento globale sia, almeno in parte, il disaccordo evidente tra l’andamento osservato delle temperature e quanto prospettato dai modelli climatici per gli ultimi 15 anni. E questo accade perché, per effetto di un meccanismo noto come amplificazione polare, che vuole che il processo di redistribuzione del calore sul pianeta inneschi un riscaldamento molto consistente ai poli, meno percepibile alle medie latitudini e quasi del tutto assente alle latitudini tropicali ed equatoriali, riempire con dati ‘caldi’ l’assenza di osservazioni ai poli ha un effetto significativo sulla temperatura stimata per l’intero pianeta.

 

Ma, l’amplificazione polare è forse proprio il problema più grande che hanno gli autori di questo studio. Innanzi tutto perché, come sicuramente in modo poco esauriente ho già avuto modo di scrivere nel commento linkato qualche riga fa, e cioè che questa amplificazione risulta essere molto significativa al polo nord e quasi del tutto assente al polo sud, anche nei dati di questo nuovo studio. Per cui più che il riscaldamento si amplifica ciò che sapevamo già, ossia che in presenza di una teoria consolidata come quella della redistribuzione del calore e di un forcing che dovrebbe essere omogeneo come quello indotto dalla CO2, un polo si scalda e si scioglie e l’altro non si scalda e aumenta l’estensione del ghiaccio, tagliando una fetta importante del carattere globale del problema e mantenendo irrisolto uno dei misteri più fitti di tutta la diatriba del riscaldamento globale di origini antropiche.

 

C’è poi un altro problema, individuato nei post su WUWT  e su Climateaudit. Scomponendo la serie generata in questo studio, si nota un breakpoint nell’anno 2005. Dall’inizio della serie al 2005 infatti, la differenza tra la serie HadCRUT e quella ibrida di questo studio sarebbe stata assente o leggermente negativa; di lì in poi, in piena pausa del global warming, sarebbe stata invece molto più accentuata in senso positivo. In valore assoluto quindi la differenza complessiva sarebbe positiva (nuova serie più calda e AGW continuativo), ma il carattere del segno deriverebbe tutto da quanto accaduto negli ultimi anni. Ecco quindi che il riempimento operato con le tecniche sopra descritte avrebbe cancellato l’amplificazione polare nella prima parte della serie per poi riesumarlo verso la fine in modo ancora più accentuato, smentendo prima e confermando poi – nella stessa serie e con le stesse tecniche di assemblaggio dei dati, tanto la teoria della redistribuzione del calore quanto la sua rappresentazione modellistica pur insoddisfacente.

 

cowtanway2013_difference-between-hadcru4-and-cw2013

 

Difficile dire perché questo sia accaduto, forse il segreto è nell’amplificazione di una debolezza esistente nei dati come accennato poco fa, resta però il fatto che l’aumento tardivo dell’amplificazione polare, fenomeno replicato in modo insoddisfacente dai modelli di simulazione, mette in risalto ancora maggiore questa difficoltà di rappresentazione, restituendo inoltre un andamento per le temperature globali che si avvicina un po’ a quanto previsto, ma resta comunque al di fuori della significatività statistica delle previsioni. Se questa differenza dovesse ridursi in futuro i dataset si saranno comunque riallineati alle previsioni. Se invece questa differenza ora in parte ridotta dovesse continuare ad aumentare, il problema sarebbe invariato, la realtà va da una parte e le previsioni dall’altra.

 

cowtanway2013-vs-ipcc-ar5sod-figure-1_5

 

Nel frattempo, mentre ci concentriamo tutti sulle temperature medie superficiali globali, che notoriamente non rappresentano l’integrale del sistema, cercando di adattare tutto ciò che le compone – soprattutto la circolazione generale atmosferica – ad un trend di aumento delle temperature che come si evince anche da questo studio presenta ancora molte incertezze interpretative, proprio la circolazione generale continua ad evolvere presentando quelle modalità freddo/caldo/freddo rispettivamente ascrivibili ai periodi 1950-1976, 1976-fine secolo e primi anni 2000-giorni nostri, che potranno ache sovrapporsi, nascondere o amplificare un trend sottostante ascrivibile alle attività umane ancora da definire per ampiezza, ma sono quelle che poi dettano le condizioni del clima nel medio periodo e, in molti casi, anche le precondizioni per l’andamento del tempo meteorologico. Questi ultimi, molto più che al trend delle temperature, rispondono alle differenze, a quello che in gergo tecnico si definisce gradiente, il motore di tutti gli eventi atmosferici. Penso sia opportuno ricordare che un riscaldamento del pianeta tende a ridurre il gradiente termico lungo la longitudine, cioè a togliere cavalli al motore, non il contrario. Un polo (o forse un giorno entrambi?) più caldo, come risulta da questo studio, magari elimina la pausa dell’AGW, magari riconcilia la stima delle osservazioni con i modelli, ma confuta la struttura portante della teoria del riscaldamento globale nella sua percezione quotidiana, ossia che un pianeta più caldo debba ospitare eventi atmosferici più intensi, ma questa è un’altra storia…

Related Posts Plugin for WordPress, Blogger...Facebooktwitterlinkedinmail
Published inAttualità

12 Comments

  1. […] Ad esempio, circa un paio di anni fa, è uscito uno studio piuttosto controverso che ha tagliato una bella fetta di questa differenza tra realtà e simulazione rivedendo le temperature osservate dell’area artica, ovvero applicando ad esse delle tecniche di omogenizzazione che hanno il pregio non banale di produrre dati anche dove non ce ne sono e di farlo inoltre in accordo con le previsioni. Un autentico uovo di colombo che abbiamo a suo tempo commentato in questo post. […]

  2. Il rapporto “An Abrupt Climate Change Scenario and Its Implications for United States National Security”, curato da Peter Schwartz e Doug Randall, risultato di una serie di interviste di scienziati, di analisi e di nuovi riscontri e pubblicato dal Pentagono nell’ottobre del 2003, prendeva in esame l’eventualità che il futuro ci riservasse una glaciazione di medio-grave intensità, come quella verificatasi 8200 anni fa, che fu preceduta da un forte riscaldamento globale e durò circa un secolo.

  3. donato

    Ho dato un’occhiata all’abstract del lavoro di Cowtan and Way 2013 (da ora CW13) ed ai molti commenti sul WEB che ad esso si riferiscono e, una tantum 🙂 , devo esprimere un piccolo dissenso rispetto alla “linea di pensiero principale” 🙂 del blog.
    Per quel che ho potuto capire, CW13 è piuttosto robusto dal punto di vista statistico-matematico in quanto individua i valori di temperatura mancanti non sulla base di un’interpolazione statistica dei valori delle stazioni a terra, ma sulla base del dataset UAH gestito dall’Università dell’Alabama e, quindi, da R. Spencer e J. Christy. Il meccanismo escogitato da CW13 è piuttosto complesso e difficile da spiegare in poche parole, comunque ci provo.
    I valori di temperatura del dataset UAH vengono correlati ai valori delle temperature superficiali del dataset HadCRUTv4 nelle griglie piene, cioè dove sono disponibili sia dati del dataset terrestre, sia di quello satellitare. Successivamente, per interpolazione, si determinano i valori relativi a quelle griglie vuote che confinano con le griglie piene e si applica il coefficiente di correzione calcolato sulla base delle differenze tra i valori delle temperature UAH e HadCRUT relative alle griglie piene circostanti. Il risultato è la temperatura superficiale della griglia vuota.
    Questo per le aree in cui esistono celle vuote che si trovano circondate da celle piene (Africa, per esempio). Nelle zone polari (essenzialmente Artico perché sulle aree Antartiche, stando a quando dichiarato da Way, ci stanno ancora lavorando), invece, si procede per estrapolazione e qui, purtroppo, le cose sono meno lineari e, secondo me, meno robuste, ma in ogni caso degne di considerazione.
    L’estrapolazione, infatti, è un’operazione che ha fatto arricciare il naso a molti statistici puri e sulla bontà della quale si discute parecchio. In particolare, stando a quanto sostiene Way, uno degli autori, essi hanno cercato di apportare le opportune correzioni ai loro dati estrapolati basandosi su alcune serie di misurazioni relative a boe termometriche ancorate nelle aree artiche. In altri termini, calcolate le temperature superficiali delle celle vuote per cui erano disponibili dati UAH con la procedura indicata, hanno confrontato i valori così ottenuti con quelli noti desunti dalle boe termometriche. Queste serie di temperature, però, sono piuttosto corte e, quindi, poco attendibili.
    J. Curry, glaciologa oltre che climatologa, ha fortemente criticato CW13 in quanto considera non estrapolabili grandezze fisiche come le temperature superficiali che risentono molto delle condizioni locali (ghiaccio, acqua, terra e via cantando). Ad onor del vero CW13 non ha estrapolato queste temperature, ma le ha determinate sulla base dei dati UAH disponibili per quelle aree, opportunamente corretti.
    Qualcuno mi risponderà che comunque la volti e la giri sempre di dati calcolati e non di dati misurati si tratta. Secondo me, invece, i dati così calcolati, almeno da un punto di vista logico, possono essere considerati molto più affidabili di quelli desunti da estrapolazioni di stazioni terrestri in quanto basati su un dato reale (quello misurato dalle sonde satellitari) opportunamente omogeneizzato: in altre parole un dato c’è, per il resto si procede ad una omogeneizzazione come, d’altro canto, si omogeneizzano anche i dati terrestri.
    Il risultato ottenuto da CW13, pertanto, deve essere considerato piuttosto robusto sotto l’aspetto matematico e statistico. Leggendo quanto scrivono gli statistici puri esisterebbero ombre circa gli strumenti matematici di controllo e di individuazione dei dati da interpolare utilizzati dai due autori, però, si tratta di dettagli che non scalfiscono il corpus dello studio. Alla fine possiamo dire che è meglio avere qualche dato in più, anche se affetto da un margine di incertezza un po’ più ampio che nessun dato o un dato interpolato o estrapolato sulla base dei dati di stazioni di misura terrestri che risentono moltissimo delle condizioni locali.
    Da un punto di vista fisico, però, CW13 non ha modificato più di tanto i termini della questione. A parte il break point del 2005 di cui ha scritto in modo piuttosto ampio G. Guidi nel suo post e su cui tornerò più avanti, non mi sembra che il problema della divergenza sia stato eliminato, anzi resta in tutta la sua interezza. L’unica cosa che cambia è che, perdurando la situazione attuale, essa diverrà insostenibile per i modelli qualche anno più tardi rispetto a quanto sarebbe successo senza questo aggiustamento statistico. In altri termini CW13 non ha spostato più di tanto le cose e, tra l’altro, bisogna tener conto che mancano tutti i dati dell’emisfero sud (Antartico). Che succederà quando anche questi dati saranno integrati nel data set “ibrido”? Chi vivrà, vedrà!
    E veniamo al break point del 2005. Secondo alcuni commentatori esso potrebbe avere una ragione fisica nei ripetuti minimi che hanno caratterizzato l’estensione della calotta polare marina artica negli anni successivi al 2005 e che avrebbe ridotto l’albedo (il mare assorbe molto più calore del ghiaccio). L’ipotesi non mi sembra molto peregrina in quanto l’Oceano Artico resta maggiormente esposto proprio nella stagione estiva durante la quale l’insolazione è maggiore. In questa ipotesi il break point del 2005 sarebbe meno strano. Ovviamente sempre di ipotesi si tratta e non di certezze, per cui, come ha concluso G. Guidi nel suo poste, non ci resta che attendere che il tempo faccia giustizia!
    Ciao, Donato.

    • Filippo Turturici

      Caro Donato, qui parliamo di misure: benissimo che lo studio abbia solidità matematica e statistica, ma le misure? Non stiamo parlando di teoria, ma di “mondo reale”: un calcolo NON può sostituirsi alle misure “sul campo”. Inoltre, non possiamo arbitrariamente selezionare – nemmeno con complessi quanto sospetti strumenti matematico-statistici – dove prendere i dati a terra, e dove i dati satellitari. O gli uni, o gli altri: perché non hanno semplicemente considerato i dati globali satellitari, che ci sono dal 1979 in poi? Infine, non ho ben capito l’incertezza associata a questa analisi: ma di sicuro, il risultato NON SI DIFFERENZIA REALMENTE dai dati precedenti (vedi grafico sopra); ergo, tanto rumore per nulla, dato che NON hanno dimostrato NULLA!

      P.S. Scusa il maiuscolo, ma non so come sottolineare certi passaggi.

    • donato

      Caro Filippo,
      convengo con te che le “misure” di cui parlano Cowtan e Way nel loro articolo non esistono. Il problema è che in alcune aree della Terra queste misure non ci sono o, se esistono, sono piuttosto episodiche. Fin qui niente di male: le misure non ci sono e non ce le possiamo inventare, ne facciamo a meno.
      I decisori politici, però, hanno fatto della temperatura globale il loro feticcio e su di essa basano le loro politiche di mitigazione: dobbiamo ridurre le emissioni altrimenti le temperature globali saliranno oltre i 2° C e il mondo finirà arrosto. Tu sai meglio di me ciò che questo comporta 🙂 .
      Cowtan e Way, visto che questa benedetta o maledetta (fai tu 🙂 ) temperatura globale è importante perché colpisce l’immaginario collettivo e crea il consenso intorno a scelte impopolari, hanno tentato di definirla meglio derivando le temperature superficiali delle zone in cui tale grandezza non era disponibile dalla temperatura troposferica. Poiché la temperatura di ciò che sta al di sotto della troposfera determina anche la temperatura troposferica una qualche relazione fisica tra le due grandezze esiste. E’ sbagliato da un punto di vista formale e, forse, anche fisico? Forse, comunque è meglio di niente e sicuramente è meglio delle rianalisi che determinano le temperature nelle aree scoperte mediante interpolazione tra stazioni distanti migliaia di chilometri e senza tener conto delle differenze locali.
      Che la montagna abbia partorito un topolino ottenendo variazioni di pochi centesimi di grado è fuori discussione, ma serve a dare un po’ di fiato all’asfittico mondo dell’AGW 🙂 .
      Che la temperatura globale non è l’integrale del sistema è, anche questo, fuori discussione.
      Che lo studio non dimostri nulla di sostanziale è, anche questo fuori discussione, però tu mi insegni che gran parte degli articoli scientifici modificano di qualche virgola (qualche volta neanche quella 🙂 ) lo stato della conoscenza e, in genere, servono solo a confermare quanto già si sa ed aumentare il consenso, cioè confermare il paradigma di khuniana memoria.
      Insomma in larga parte sono d’accordo con te salvo sul giudizio sugli aspetti tecnici del lavoro di Cowtan e Way sul quale le nostre opinioni non coincidono: del resto il mondo è bello perché è vario 🙂 .
      Ciao, Donato.

    • Donato,
      su WUWT c’è un articolo che entra un po’ di più nel merito delle operazioni di CW13 (http://wattsupwiththat.com/2013/12/03/cowtan-way-and-signs-of-cooling/). In sostanza sembra che le aree con carenza di dati nel dataset HadCRUT4 (tropici e poli), non abbiano avuto trend positivi nei dati utilizzati per riempire i ‘buchi’. La modifica del trend è quindi piuttosto ‘strana’.
      gg

  4. Filippo Turturici

    Lo so, sono cattivo, ma proprio non ce la faccio a trattenermi: conosco miei ex-professori universitari che, di fronte a tali argomentazioni, ipotesi e risultati…avrebbero sonoramente bocciato i signori (dottori presumo) dello studio in questione. Mi risulta inoltre che Kevin Cowtan sia professore di materiali a York, con diverse pubblicazioni sulla cristallografia: sbaglio? Non credo sia lo stesso!

  5. domenico

    Perdonate l’errore commesso nell’impeto dello sfogo, la frase completa è:
    Questa “situazione” mi ricorda quello che successe dall’anno 300 al 1900 circa un’istituzione terrorizzò tutte le menti libere e le perseguì tacciandole di eresia e mancanza di fede, lo scettro passo poi a dei movimenti politici che nel secolo scorso hanno tolto “l’umanità” di molti uomini, riducendoli a delle coppe piene di niente

  6. domenico

    Buongiorno, seguo sempre con più passione questo sito che ci pone un’altra “faccia” della realtà.
    Sicuramente essendo l’emisfero boreale più popolato e quindi più industrializzato, l’artico al contrario dell’antartico si riscalda più velocemente……. Ops! Ho appena fornito una giustificazione senza alcun fondamento scientifico ( quindi del tutto valida e legittima )ai pro GW 😉
    La libertà di opinione e di pensiero e sacrosanta, come anche il rispetto dell’ambiente.
    Questi signori però sono stati cosi abili a spostare l’attenzione dalle vere cause di inquinamento come i metalli pesanti, polveri sottili, fughe di petrolio come quella di non molto tempo fa nel golfo del Messico ( ma sicuramente non la ricordate perché nessuno ne parla più ), la deforestazione incontrollata, la riduzione di biodiversità ecc, ecc, ecc….
    Qualsiasi cosa succede è tutta colpa di questa povera CO2, piove è colpa della CO2, nevica è colpa della CO2, ho perso il lavoro è colpa della CO2….. un momento, forse quest’ultima potrebbe essere riconducibile alla CO2. E si perché se i governi avessero agito con più discernimento e investito in reali situazioni di tutela ambientale e pulizia alvei fiumi, raccolta differenziata REALE, tutela e gestione ottimale delle aree boschive e chi ha più ne metta ), oltre a non strangolare il sistema economico con ridicole tasse, forse non avremmo accusato così il colpo della crisi.
    Sono meravigliato, quasi invidioso di come questi signori riescano a limare e celare dietro un velo ( di CO2 ) la verità. Ma Attenzione ! Non andare mai contro i loro fondamenti, rischio il patibolo, lo screditamento e l’isolamento nel grande calderone degli “scettici/strani che, chissà per quale folle motivo non CREDONO!
    Questa “situazione” mi ricorda quello che successe dall’anno 300 al 1900 circa un’istituzione terrorizzò tutte le menti libere e le perseguì tacciandole di eresia e mancanza di fede, lo scettro passo poi a dei movimenti politici che nel secolo scorso “l’umanità” di molti uomini, riducendoli a delle coppe piene di niente.
    Quindi attenzione a pronunciare opinioni diverse, altrimenti si rischia di essere folgorati da un fulmine di un temporale scatenato dalla CO2.

  7. alessandrobarbolini

    sono tutti dei venduti..è tutto contraffatto ..i dati climatici sono stati taroccati dall,IPCC..
    la prova schiacciante??? mancano le immagini delle calotte polari che si stanno estendendo….CHISSA PERCHE!!!!!

  8. Andrea G.

    Gentile Guidi, si sta discutendo a livello planetario di una differenza di 6,7,8 centesimi (!!!) di grado in più??? Siamo alla follia pura.

  9. giovanni p.

    Questo riportato é un esempio concreto del motivo per cui i modelli previsionali e le estrapolazioni con GIS andrebbero presi con i guanti, le pinze e protetti da una tuta anti-radiazioni. Invece sembra che abbiano più influenza dell’oracolo di Delfi. Mancano i dati, basta allargare le estrapolazioni e il problema é risolto, purtroppo semplificando in maniera populista questo é quanto accade regolarmente nel fare modelli previsionali, questo é l’atteggiamento e l’approccio medio del ricercatore, diciamo che é la prassi, la regola. Inoltre meno dati ci sono piu l’estrapolazione viene semplificata e il risultato é piu bello da vedere graficamente, meglio che tanti dati magari difficile da rendere conguenti e armonici fra loro. L’estrapolazione é come un lifting, il risultato é sempre piu bello della realtà, peccato che sia di plastica,o di silicone e poi quando si sgonfia lascia trasperire tutte le rughe e le smagliature. Come già detto varie volte questo l’ho vissuto personalmente per studio e per un certo periodo per lavoro, come direbbe Crozza-COnti AGGHiACCIIANTEEE, soprattuto quando ci si rende conto di essere dentro un mondo apparentemente puro e oggettivo come quello accademico-universitario e non al bar della stazione.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Categorie

Termini di utilizzo

Licenza Creative Commons
Climatemonitor di Guido Guidi è distribuito con Licenza Creative Commons Attribuzione - Non commerciale 4.0 Internazionale.
Permessi ulteriori rispetto alle finalità della presente licenza possono essere disponibili presso info@climatemonitor.it.
scrivi a info@climatemonitor.it
Translate »