Salta al contenuto

2010 più caldo di sempre, excusatio non petita

Excusatio non petita accusatio manifesta. Quando eravamo bambini si ricorreva spesso a questa frase facendo sfoggio di grande cultura per cogliere in fallo l’avversario di turno. Questo mi è venuto in mente leggendo un articolo comparso tra le pagine esplicative del datset delle temperature globali superficiali del GISS.

La firma è di James Hansen, che di quel dataset è anche curatore, scienziato di punta, attivista puntuto, spesso oggetto delle attenzioni di quanti scrivono su Climate Monitor. L’articolo vuole essere una presentazione della revisione di cui è stato oggetto il dataset, una revisione che ha visto l’introduzione di un metodo di analisi molto innovativo di cui abbiamo parlato qualche tempo fa, ovvero l’impiego delle immagini distribuite da Google Earth sull’inquinamento luminoso per individuare i siti di osservazione che possono essere a rischio di condizionamento dei dati da urbanizzazione. In uno dei paragrafi del documento esplicativo della revisione questo effetto di condizionamento viene considerato trascurabile ai fini del calcolo delle temperature globali. Come potete leggere in questo post su CM, tale affermazione può essere considerata esatta, soprattutto se alcune stazioni meteorologiche notoriamente situate in aree urbane, vengono posizionate diversamente sulla griglia di riferimento, magari anche sull’acqua!

Ma non è di questo che vogliamo parlare oggi, giacché questa revisione di dataset meriterebbe un’analisi di maggiore dettaglio, che non è escluso si possa fare in seguito. L’attenzione va piuttosto al breve articolo introduttivo di fresca stampa, con cui in tutta evidenza Hansen sente il bisogno di spiegare al mondo che il caldo (o anomalia positiva) registrato in Canada o in area artica nel corso dell’ultimo anno è un probloema climatico, mentre il freddo in Europa è un problema meteorologico, sottolinenando chiaramente come una errata percezione possa far immaginare che ci sia stato un rallentamento o un arresto del riscaldamento globale, cosa a suo dire decisamente non vera.

Ma andiamo con ordine. Il primo elemento soprendente di questo articolo è il fatto che che il 2010 possa non essere l’anno più caldo di sempre, ma finisca per essere a parimerito con il 2005. Queste classifiche sono decisamente stucchevoli, però registriamo il cambiamento di rotta rispetto alle altisonanti dichiarazioni pre-Cancun, quando evidentemente c’era bisogno di un po’ più di pathos nella comunicazione climatica. Decisamente interessante, seppur non rappresenti un fatto nuovo, la scelta del trentennio 1951-1980, di fatto il più freddo del secolo, come periodo di riferimento per le anomalie. Se il dataset copre 131 anni, cosa ci dice che quel trentennio rappresenti la norma climatica? Perché non prendere il precedente o, ancora meglio, non considerarne due, aumentando la possibilità di intercettare e quindi elidere il forcing esercitato dalle oscillazioni di lungo periodo delle temperature di superficie dell’oceano PDO e AMO? Forse la risposta è troppo semplice, perché così facendo il risultato sarebbe diverso e la preoccupazione sarebbe piuttosto mitigata.

Appunto, le anomalie e non le temperature assolute. Già altre volte ne abbiamo parlato su queste pagine. Vediamo come sono calcolate. Nelle figure a corredo dell’articolo, ci sono le anomalie di temperatura per il periodo gennaio-novembre 2010 e per il solo mese di novembre 2010. Nel primo caso il calcolo è effettuato su una grgilia di 1200 km, nel secondo si considerano solo le stazioni sulla terraferma e la griglia è di 250 km. Ne consegue che per arrivare al risultato annuale, gran parte dei dati sono interpolati, e le anomalie positive più importanti sembra proprio siano arrivate dove i dati sono più scarsi, anzi, del tutto assenti. Infatti confrontando le due mappe, si scopre che le anomalie indicate con il rosso sono sostenute da dati realmente esistenti solo per il 25%, e quelle indicate con il marrone per il 33%. Tutto il resto è generato al computer, sicchè, da cosa siano state desunte non è dato saperlo. Per sostenere la bontà di questi calcoli, Hansen porta a riferimento l’accordo tra dataset, ovvero la somiglianza dei risultati cui giungono anche altri gestori di banche dati, quali la NOAA e l’Hadley Centre. Neanche questa è una notizia, perché è noto che tutti e tre i dataset hanno il 95% dei dati grezzi del GHCN in comune. le eventuali differenze, generalmente minime, sono quindi da imputare esclusivamente al data processing, ovvero alle tecniche di omogeneizzazione dei dati, tra queste, naturalmente, proprio l’interpolazione.

http://data.giss.nasa.gov/gistemp/2010november/TemperatureAndEurope.pdf

Bene, allora sarebbe interessante capire come proprio nella diatriba 2010 sì, 2010 no, si sia registrato uno scostamento tra i dataset forse senza precedenti. Infatti, mentre la NOAA e l’Hadley Centre hanno registrato una virata verso il basso in corrispondenza della transizione dell’indice ENSO, ovvero dell’arrivo de La Niña, notoriamente indice di raffreddamento e quindi consistente con le dinamiche conosciute del sistema, il GISS di Hansen registra una rapida ascesa delle anomalie di temperatura per gli ultimi mesi. La chiave è nell’Artico, ovvero nel “trattamento” che ad esso riserva proprio il GISS. Delle due l’una. O il fatto che i datset siano in accordo è indice di attendibilità dei dati oppure non lo è.

http://stevengoddard.wordpress.com

Ma poniamo anche il caso che quello del GISS sia il metodo di calcolo più attendibile, e torniamo al problema di Hansen, spiegare al mondo cosa è tempo e cosa è clima per cancellare dalle menti degli sprovveduti quella fastidiosa sensazione di freddo che li accompagna in Europa e in Nord America da qualche inverno a questa parte.

Per chiarire il problema nell’articolo, nel caso delle anomalie positive in area artica, si fa ricorso all’effetto riscaldante prodotto dal declino del ghiaccio marino, ovvero del feedback che vede una maggiore quantità di radiazione assorbita e riemessa dalle acque libere rispetto a quanto invece riflesso verso lo spazio dalla superficie ghiacciata. Questo effetto è noto e potrebbe suonare plausibile, se non fosse che Hansen fa riferimento ad una zona particolare, la Baia di Hudson, ad ovest della Groenlandia. Negli anni in cui il ghiaccio marino artico era ai massimi (del periodo di misurazione satellitare), la Baia di Hudson era comunque sprovvista di ghiaccio nel mese di novembre; questo indebolisce non poco l’influenza di tipo deterministico sui pattern atmosferici citata da Hansen nell’articolo. Altrettanto nota è la spiegazione data dell’anomalo freddo europeo, attribuito in senso strettamente meteorologico al comportamento dell’indice AO, una misura che quando assume valori negativi tende a favorire una circolazione atmosferica disposta lungo i meridiani, con notevole trasporto di aria fredda verso le basse latitudini. Quello che però Hansen non spiega, è che se da una parte l’aria scende verso sud, dall’altra, necessariamente, deve esserci dell’aria calda che sale verso nord, appunto, verso l’Artico. Se questo accade per qualche anno di seguito, piaccia o no a quelli del Dipartimento il tempo non è il clima se fa freddo ma lo è se fa caldo, il problema da meteorologico diventa climatico e quindi visibile nei campi di anomalia.

European winters 2000-2010

Così è in effetti, anche se su questo pesa fortemente la scelta delle informazioni che si vogliono mostrare. Nell’articolo infatti leggiamo che ben sette degli ultimi dieci inverni europei sono stati più caldi del solito accortamente selezionato periodo di riferimento. Per cui, cari Europei, se avete freddo, si tratta solo di una percezione errata, perché i colori delle mappe del GISS dicono qualcosa di diverso, e soprattutto perché i vostri nonni ne sentivano parecchio di più. Sarà, allora come mai il rateo di raffreddamento dell’ultima decade degli inverni europei è così accentuato? I dati sono sempre quelli del GISS. Che ne dite? Dieci anni sono tempo o clima?

Forse questo è cherry picking, ma forse no, visto che questa mappa viene proprio dalle loro pagine. Forse l’hanno semplicemente dimenticata. Facciamo così, gli ultimi dieci anni pur dando un segnale di raffreddamento, essendo condizionati dalla scelta del periodo, non costituiscono un’informazione attendibile. Lo stesso però vale per quanto dichiarato urbi et orbi da Hansen e soci rispetto all’ultimo anno o alla stessa decade. Una sola cosa è certa, i dati disponibili sono troppo disomogenei, la conoscenza delle dinamiche del sistema è troppo farraginosa per giungere a qualunque conclusione e per sostenere efficacemente spiegazioni in apparenza erudite ma in realtà altamente condizionate dalla tesi che si vuole dimostrare. Semplicemente non ne sappiamo abbastanza e pensare di compilare annuari del freddo e del caldo sulla base di variazioni dell’ordine del centesimo di grado (!) può essere soltanto due cose, pretestuoso o indice di cattiva scienza.

L’esperienza di Hansen nel settore della scienza del clima non è in discussione, dalle sue analisi traspare sempre un’accurata conoscenza delle dinamiche del sistema. Allora perché lasciare che sia il condizionamento ideologico a prendere il sopravvento? Chi è che parla dalle pagine di una delle più importanti istituzioni scientifiche mondiali, il climatologo o l’attivista?

Related Posts Plugin for WordPress, Blogger...Facebooktwitterlinkedinmail
Published inAttualitàClimatologiaMeteorologiaNews

5 Comments

  1. giovanni pascoli

    Se riesco ad essere breve e comprensivo.
    Quello che mi da “fastidio” è che per cercare delle risposte “convenienti” ai propri interessi e ai propri fini si manipolino (loro dicono elaborino) dei dati grezzi con elementi matematici (equazioni, modelli di calcolo) per ottenere i risultati voluti. Mi da fastidio che questo procedimento venga fatto da “scienziati” che per definizione dovrebbero essere oggettivi. Mi da fastidio che queste manipolazioni riguardino un campo , le scienze della Terra, che io (parlo per me ma le cronache sono piene di fatti che riguardano persone “illustri” scienziati della NASA dell’IPCC stesso ecc.) conosco bene e che diventa incomprensibile dopo queste manipolazioni. Mi da fastidio che poi venga detto da chi ha manipolato che io non capisco perchè non conosco l’argomento (!). Mi da fastidio quando chi mi dice dice che non conosco la mia materia è un laureato professore in geografia politica o un economista o un biologo, persone che dovrebber fare tutt’altro nella vita che occuparsi di clima o di “natura”. MI da fastidio che queste persone non conoscendo la materia usino i dati come semplici numeri da trasformare in riusutati convenienti, persone che utilizzano la MATEMATICA non come strumento di lavoro “accessrio” ma come mezzo per raggiungere un fine. Mi da fastidio che i cosiddetti “esperti” di clima, che esperti non sono, denigrino chi non è d’accordo con loro. MI da fastidio che si diventi scienziati ed esperti se si sta da una parte politica (quella dell’ipcc) e che si diventi inesperti, amatori, politicizzati, se si è contro quella parte politica, o più semplicemente si è indipendenti, o meglio si è dipendenti solo dall’unica legge che dovrebbe avere un ricercatore scientifico, quella della verità scientifica, oggettiva.
    Queste persone trattano di dati climatici, medici, come di dati sulle vendite di quasiasi merce, allo stesso modo in quanto per loro l’importante è l’equazione che viene applicata non il significato del dato in se.
    CI sono affermezioni provocatorie di statistici e matematici che dicono di essere in grado di estrapolare qualsisasi curva, qualsiasi trend da una serie qualsiasi di dati ( tumori o noccioline sono la stessa cosa). La hokey stick di Mann ne è un’esempio, è stato dimostrato che l’equazione della HOkey stick avrebbe dato quel trend qualsiasi serie di dati si fosse inserita, cioè il risutato non era insito nei dati ma nel loro otipo di elaborazione (o manipolazione).
    L’articolo che ho linkato è un bell’esempio di questa manipolazione e di questo atteggiamento per cui qualsiasi dato trattato viene preso asetticamente a trattato in maniera contornta e complicata con elementi matematici e statistici facendo perdere di significato e stravolgendo il dominio di studi proprio di quei dati. E lo stesso metodo usato per l’Hokey Stick di Mann e per molti ( tutti?!) modelli previsionali catastrofisti proposti dall’IPCC.
    Nell’articolo linkato si trattano serie di dati talmente circoscritti ( dati storici) che nessun scienziato serio li prenderebbe per trarre delle conclusioni, si manipolano matematicamente ottenendo le “anomalie di velocità di cambiamento” visto che il dato non indica nessun cambiamento o trend significativoallora si ricorre alla sua veocità e poi si fa pure una media su una serie temporale insiginificante per calcolare l’anomalia di questa velocità, non contenti a questo valore ci aggiungiamo anche la cariazione di accelerazione rispetto allo scarto medio. A questo punto dopo aver stravolto i dati, si ottiene una curva che dimostra il riscaldamento globale, perfetto allora si tiene per buono il tutto e si dice che c’è AGW. Per rendere più fumoso il tutto si introduce il concetto di “LOGICA fisica, chimica, geologica”, ma stiamo parlando di scienza o di filosofia?!?! C’è qualche chimico o fisico a cui durante il corso di laurea abbiano insegnato il concetto di logica fisica o logica chimica?. POi c’è l’apoteosi con gli schemi delle variazioni globlali dei parametri fisico-chmici terresti, COn valori precisi……ma da dove li hanno calcolati, con quali mezzi, con quali dati? Ancora oggi si discute sulla vaidità di certi dati globali sulla loro rappresentatività è qui avendo bisogno di dati da mettere per fare calcoli e bilanci è già stato parametrizzato tutto. E torno a ripetere questo è il metodo usato dagli scienziati pro AGW, da Mann a Hansen, guru, santoni piuttosto che scienziati.
    Purtroppo non so se fra di voi vi siano persone legate in qualche modo al mondo accademico questo approccio alle problematiche scientifiche è l’approccio di moda in questi decenni un approccio che nel silenszio generale e pur con molte e importanti eccezioni, sta cambiando o meglio sta distruggendo il metodo e l’approccio scientifico sostituendo un metodo “commerciale” che mette in rpimo piano l’interesse economico al riusltato, e questo per una scienza non è accettabile. Questo chiaramente avviene soprattutto nei rami di studio più sensibili che in qualche modo vengono a contatto con interessi e poteri politico-economici e da questi sono sopraffatti e fagocitati. Poi , per evitare fraintendimeti bisogna tenere distinte due cose. UNa cosa è progettare automobili, centrali energetiche, grandi opere, in cui è giusto che l’interesse economico e politico si fonda con la ricerca scientifica, in quanto si parle di opere create e destinate all’uomo. Altra cosa è studiare il clima, i processi geologici del pianeta (terremoti vulcani frane inondazioni), le variazioni di attività solare, perchè questi sono processi e fenomeni indipendenti dall’uomo, preesistenti dall’uomo. Quindi questi fenomeni esitevano esistono ed esisteranno “sempre”. L’uomo non può che osservarli e cercare di mitigarne gli impatti e le conseguenze su di esso ma non puo proporsi come ideatore o creatore di queste cose. L’automobile è creata dall’uomo il cambiamento climatico no! E se un giorno gli scienziati dicono il contrario allora c’è da supporre che che il metodo usato per progettare l’automobile (in cui l’uomo è il creatore) sia stato seplicemente spostato ed applicato al clima, facendo un errore concettuale di fondo capitale che mina alla base tutta la ricerca che ne segue.

    Spero di aver chairito cosa mi da fastidio.

    Per ulteriori informazioni ma anche per sdramamtizzare un po consiglio (tra gli altri) questi link

    http://www.pensee-unique.fr/paroles.html
    http://www.pensee-unique.fr/methode.html

  2. Alessio

    @admin: errata corrige… (fretta)

    No, non mi e’ ben chiaro: lo sfogo e’ contro l’uso del concetto di un’anomalia di una misura nella climatologia o piu’ ampiamente nelle scienze fisiche o e’ proprio il concetto di sottrazione in se’ che da fastidio?

  3. Alessio

    No, non mi e’ ben chiaro: lo sfogo e’ contro l’uso del concetto di un’anomalia di una misura nella climatologia o piu’ ampiamente nelle scienze fisiche o e’ proprio contro il concetto di sottrazione in se’ che da fastidio?

  4. giovanni pascoli

    Buongiorno a tutti, volevo confermare il punto delle “anomalie”. Tutta l’impostazione dei pro AGW e dell’IPCC è basata sullo studio e l’andamento delle anomalie. IL significato di ciò è molto semplice, come mi è stato spiegato chiaramente ad un famoso corso GIS-cambiamenti climatici di alcuni anni fa e di cui avevo già parlato in un commneto. IN pratica i dati grezzi, diretti, che riguardano misure di temperatura, precipitazioni, livelllo dei mari ecc. ecc. sono dati che presi cosi come sono e plottati su grafici, raramente mi danno delle curve di tendenza chiare e leggibili proprio perchè i dati sono pochi e statisticamente poco significativi. In pratica i set di dati di misurazioni sono troppo limitati nell spazio e nel tempo rispetto al fenomeno che vogliono misurare per fornire un trend o qualche iondicazione statistica. Questo avviene semplicemente perchè si applicano scale umane a fenomeni che varaino su scale geologiche. UN po come se cercassimo di misurare con un righello l’altezza di una montagna.
    I bravi scienziati AGW come risolvono il problema?, Beh trattandosi di scienziati sui generis (anche se forse oggi rappresentano purtroppo la maggioranza e il modo ufficiale di fare scienza), invece di adattare l’approccio, lo studio al fenomeno, hanno pensato bene di adattare il fenomeno al loro metodo di studio. Il senso è: “abbiamo fatto una bella e complessa equazione che ci è costata tempo e fatica, peccato che dia sempre risultati sbagliati, beh ci costa meno fatica cambiare il risultato che rifare tutta l’equazione”.
    Ecco che cosi candidamente mi è stato spiegato che questi dati grezzi non valevano niente, non “parlavano”
    e per questo bisognava trovare un modo di renderli parlanti, come? tramite l’utilizzo di elaborazioni, euqazioni e modelli di calcolo. Apro una parentesi……
    Ecco devo dire che quando un’economista spiega a un geologo che i dati di misure, cioè dati empirici e di osservazione dei fenomeni naturali non sono “parlanti” e che devono essere manipolati con equazioni, il geologo dovrebbe rispondere con una pernacchia e andarsene. Io ho basato la mia formazione e baso il mio lavoro sull’osservazione di rocce, sedimenti, morfologie, depositi, erosioni, faglie pieghe e ogni segno che la Terra può darmi, proprio perchè la Terra parla tantissmo, basta conoscerne il linguaggio e saperla ascoltare, e un giorno arriva uno che si occupa di tuttl’altra cosa e mi viene a spiegare che i dati non ono “parlanti”…ma brutto ç£$%@à@@#ò sei tu che sei un ingnorante zoticone che non sa nulla di quello che dice che non capisce di cosa sta parlando ma ha solo la gran faccia …tosta di venire a dare lezioni a chi ne sa più di lui……..chiudo la parentesi.
    Così molto semplicemente visto che da bravi ignoranti in materia non riuscivano a decifrare la scrittura della Terra, hanno pensato bene di inventare un traduttore che trasformasse il linguaggio dei fenomeni in quello umano socio-economico, senza però porsi il problema del significato di quel linguaggio. Ed ecco come per magia comparire grafici in cui si analizzavano proprio le ANOMALIE di T, di precipitazione del livello degli oceani ecc. Inoltre per rendere più parlante il tutto si passò poi alle “anomalie di velocità di variazione”, piuttosto che alla “pelota” della CO2 al suo “centro di gravità” (?????). A questo proposito ho trovato proprio un articolo di questi famigerati “professori” Ginevrini che parlano di questi argomenti…leggete e fatevi un idea, sono scienziati questi? o sono imbonitori?

    http://www.ldes.unige.ch/info/membres/greppin/espace.pdf

    In ogni caso sono i portavoce ufficilai del pensiero AWG e IPCC e questo è un dato di fatto.

    Ecco “l’amico” Hansen appartiene alla stessa razza specie e famiglia di costoro di cui vi ho parlato gente della quale io diffido e cerco di tenermi alla larga, gente che però ha infettato da anni il mondo accademico e la sua libertà di espressione cercando di imporre la dottrina del pensiero unico della scienza e che sta cercando di addestrare le masse con proclami e allarmismi infondati, arrivando al punto d negare l’evidenza.

    Finisco con un dubbio: non ho seguito bene Cancun per non farmi venire il fegato troppo amaro, in compenso ho letto qualcosa su dei giornali dove si diceva che è stato deciso che si deve “combattere contro i cambiamenti climatici”….ma non si combatteva contro il riscaldamento globale?. Se già era difficile par passare il messaggio dell’AGW ora quello di dire che la Terra ha sempre avuto un clima costante prima della comparsa dell’uomo mi sembra veramente eccessivo. Nel caso, combattere contro i cambiamenti climatici (che sono una realtà appurata e dimostrata scientificamente e incontestabile, un po come il fatto che la Terra orbita attorno al SOle) mi sembra un atto ascrivibile più ad una chiesa medievale con annessa caccia alle streghe piuttosto che alla scienza del terzo millennio.

Rispondi a giovanni pascoli Annulla risposta

Il tuo indirizzo email non sarà pubblicato.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Categorie

Termini di utilizzo

Licenza Creative Commons
Climatemonitor di Guido Guidi è distribuito con Licenza Creative Commons Attribuzione - Non commerciale 4.0 Internazionale.
Permessi ulteriori rispetto alle finalità della presente licenza possono essere disponibili presso info@climatemonitor.it.
scrivi a info@climatemonitor.it
Translate »