Salta al contenuto

Disastri naturali e clima che cambia, non c’è peggior sordo di chi non vuol sentire

L’argomento di oggi è per noi decisamente fuori stagione. Parliamo infatti di incendi e, salvo casi che sarebbe veramente difficile collegare all’isteria da clima, nei mesi della pioggia normalmente non ci dobbiamo confrontare con questo genere di problemi. Nei mesi più aridi però il problema lo abbiamo eccome, per cui magari affrontare il tema a mente fredda 🙂 potrà tornare utile.

 

Per farlo basta guardare dall’altra parte del pianeta, dove ovviamente sta arrivando la bella stagione, in Australia. Qualche settimana fa sono passate anche sui nostri media parecchie notizie di incendi distruttivi proprio laggiù. Segno inequivocabile del cambiamento climatico, si sono subito affrettati a sentenziare i più bravi. Sicché, dal momento che questa litania comincia anche a diventare noiosa, avevo deciso di non riportare la notizia su CM.

 

 

Poi qualche giorno fa mi sono imbattuto in un post sul blog di Roger Pielke jr, ricercatore del quale riportiamo molto spesso le opinioni sulle nostre pagine. Pielke ha pubblicato molti lavori in tema di eventi atmosferici e climatici estremi, sviluppando un concetto di normalizzazione dei dati, ovvero di pulizia degli stessi dal condizionamento di fattori non climatici quali l’inurbamento e l’aumento della ricchezza esposta al rischio, applicando il quale ha più volte dimostrato che l’aumento dei danni provocati da molti di questi eventi non dia alcuna informazione sul’eventuale trend degli stessi. Anzi, tale trend si rivela spesso piatto o comunque soggetto a oscillazioni non collegabili ad eventuali cambiamenti giunti recentemente.

 

A quanto pare, lo stesso vale anche per gli incendi in Australia. Infatti, applicando lo stesso metodo di normalizzazione dei dati, un ricercatore australiano dimostra chiaramente che il fattore veramente significativo di cui occorre tener conto nell’esposizione al rischio, non sia il clima che cambia a causa della CO2, cosa tutta da accertare e comunque non escludibile, quanto piuttosto una corretta pianificazione dell’uso dei suoli. Gli incendi degli ultimi tempi risultano essere infatti tutt’altro che senza precedenti, ben meno gravi in valore assoluto di quanto occorso in numerose altre occasioni e, soprattutto, perfettamente in linea con una serie storica che non presenta alcun trend, né positivo né negativo. Semplicemente, come del resto abbiamo fatto anche noi costruendo nel letto dei fiumi, sulla traiettoria di frane con riferimento alle piogge alluvionali, gli australiani hanno costruito le case sempre più vicino alle foreste e in zone ad elevato rischio di incendi.

 

 

 

L’articolo in questione è breve e semplice da leggere. Quello qui sotto è il passaggio più significativo.

 

A qualcuno piacerebbe vedere che questi ultimi incendi siano il punto di non ritorno del cambiamento climatico, il precursore di quello che avverrà. Ma affermazioni straordinarie, come si dice, richiedono prove straordinarie, e da quello che abbiamo a disposizione, ancora non sembra sia questo il caso.

Forse un giorno avremo prove conclusive le legame tra il cambiamento climatico e i danni provocati dagli incendi, ma anche allora quello che avrà senso fare dovrà continuare ad essere focalizzato sulla pianificazione dell’uso del suolo, non sulla riduzione delle emissioni, per la quale ci sono argomenti più validi dell’azione contro gli incendi.

Dobbiamo prendere sul serio la pianificazione dell’uso del suolo.  Non è un argomento molto sexy, potrebbe non costituire “la grande sfida … morale dei nostri tempi”, ma ridurre la nostra vulnerabilità ai disastri naturali è importante e va a beneficio di tutti gli australiani, ora, direttamente o indirettamente. A prescindere da quello che possiate pensare sul cambiamento climatico.

 

Uhm…, troppo razionale, non può avere fortuna come suggerimento.

Related Posts Plugin for WordPress, Blogger...Facebooktwitterlinkedinmail
Published inAttualità

3 Comments

  1. Fabrizio Giudici

    Caro Mauro, provo a dire cosa sto capendo io che non sono un addetto ai lavori, presumo come lei. Su un primo punto ha già risposto Guido, cioè Bardi cita una tecnica di ricostruzione di dati mancanti, perché non ci sono tanti sensori quanti probabilmente sarebbe necessario. Le tecniche di ricostruzione possono essere fatte bene, oppure male e taroccare il risultato secondo il desiderio, implicito od esplicito, del gruppo di lavoro. Non sono in grado di valutare questa cosa e quelli come me e lei non possono far altro che leggere tutti i contributi del dibattito e vedere quale sembra più convincente.

    Su questo punto, però, apro una parentesi: vorrei fare una domanda pure io. Leggo dal sito di Bardi:


    “Ciò è dovuto principalmente al fatto che HadCRUT4 ha tralasciato l’accelerato riscaldamento dell’Artico, specialmente dal 1997.”

    Mi spiegate come è possibile? Cioè, come è possibile che questi dati artici non sono stati considerati da quel modello e solo ora esce lo studio correttivo? Durante gli ultimi anni ci hanno martellato con i ghiacci che si scioglievano e gli orsi polari che annegavano, tuttavia hanno ritenuto di non dover considerare nella misurazione quella parte del mondo? Mah…

    Chiusa parentesi.

    La seconda cosa che mi sento di dire è un contributo su come leggere queste cose: l’epistemologia (la disciplina che studia il metodo scientifico) di Kuhn e Lakatos. Si trovano su Wikipedia ed altri siti; qui riassumo il concetto fondamentale. Ogni teoria scientifica (per lo meno nelle “hard sciences”), come sappiamo, deve essere descritta da un modello matematico che fa previsioni. La misurazione dei fatti corroborano o no le previsioni. Se le misurazioni sono in totale disaccordo con la previsione, la teoria è completamente inappropriata. Se è in totale accordo con le previsioni (salvo inevitabili approssimazioni), la teoria è buona e quindi se ne possono trarre conseguenze affidabili. Nella maggioranza dei casi le cose non sono né bianche né nere: le misurazioni tipicamente sono più discordanti dal previsto di quanto non sarebbe accettabile per via degli errori di misurazione, ma magari si può giustificare la differenza con un'”ipotesi aggiuntiva” (tenga a mente questo termine perché è importante). A questo punto si aggiorna il modello, si rifanno le misurazioni e si vede se ci siamo avvicinati alla realtà. Nel caso della climatologia, siccome la misurazione è l’andamento della temperatura in un intervallo temporale di anni, questo processo è necessariamente lento.

    Ora un altro concetto noto in epistemologia è che i modelli devono essere semplici ed eleganti (ciò ha a che fare con il principio di Occam). Lakatos formalizza questa cosa distinguendo, per ogni teoria scientifica, un cosiddetto “nucleo fondamentale” dalle “ipotesi aggiuntive”. Il nucleo fondamentale è elegante, mentre le ipotesi aggiuntive lo appesantiscono. Le ipotesi aggiuntive però non sono necessariamente cattive: infatti, possono portarmi a fare veramente una previsione corretta, e magari anche previsioni ulteriori. In questo caso si parla di programma di ricerca progressivo. Se invece le ipotesi aggiuntive si accumulano una dopo l’altra, rendendo sempre meno armonico il nucleo fondamentale e diventano poi una arrampicata sugli specchi, allora c’è da ritenere che la teoria vada rivista dalle sue basi.

    Per farle il solito esempio concreto: a fine ‘800 la fisica classica aveva un nucleo fondamentale considerato elegante, considerato quasi completo, tanto che si parlava di “fine della fisica”. Si pose tuttavia un problema relativo alla velocità della luce: il sistema di riferimento con cui misurarlo ed il suo valore effettivo. Questo dettaglio apparentemente da poco sfuggiva in continuazione: per cercare di gestirlo furono formulate ipotesi aggiuntive, fino ad arrivare al famigerato “etere luminifero” (che troverà di nuovo ben descritto su Wikipedia). Il castello, ormai scricchiolante, fu poi tirato giù da un esperimento che, nonostante fosse partito per provarne l’esistenza, dimostrò il contrario. Poi arrivò Einstein con la relatività a risolvere il problema, fornendo una teoria più comprensiva. Fine della fisica classica.

    E sull’AGW? Il nucleo fondamentale, descrittoci negli anni ’90, era semplice ed elegante: c’è un aumento della temperatura media, è causato dall’uomo che introduce CO2 in atmosfera e causa l’effetto serra. A chi, all’epoca, avanzava dubbi proponendo cause diverse, variazione dei cicli solari eccetera, veniva risposto seccamente che queste erano ininfluenti. Può trovare conferma a quanto dico negli archivi delle discussione e negli articoli specializzati dell’epoca. Tutta la pubblicistica di documentari, attivisti politici, associazioni ambientaliste, eccetera, che ben conosciamo, è stata basata su questo nucleo fondamentale, che sarebbe stato provato “con certezza” e “senza necessità di ulteriori discussioni”. Persino il dettaglio quantitativo su questo aumento di temperatura e i suoi effetti nefasti era descritto con tanta precisione da permettere di definire delle poliltiche (Kyoto) mirate a contenere l’aumento di temperatura entro fine secolo sotto una soglia di sicurezza, ben definita.

    Ora legga questo passaggio di Bardi:


    “Questi risultati indicano che il rallentamento della temperatura media di superficie non è significativo quanto si pensasse in precedenza. Il riscaldamento della superficie ha rallentato un po’, in gran parte grazie al fatto che più riscaldamento globale complessivo si è trasferito agli oceani durante l’ultimo decennio.” … “Studi recenti che hanno concluso che il clima globale è un po’ meno sensibile all’aumento dell’effetto serra di quanto creduto in precedenza potrebbero anche avere in qualche modo sottostimato la reale sensibilità climatica [cioè l’impatto effettivo della CO2]. ”

    Come vede, _non si nega affatto_ che i fatti non stiano andando proprio come da previsione iniziale. Per giustificare questa discordanza vengono formulate ipotesi aggiuntive: ad esempio il riscaldamento degli oceani. Ora, si parla di riscaldamento delle profondità degli oceani, non della superficie. La temperatura della superficie è misurata, ma – se ho capito bene – non abbiamo praticamente nessun dato di quello che succede sotto.

    Bene: l’ipotesi aggiuntiva non è necessariamente un male, come dicevamo prima. Solo che non possono cavarsela solo con l’ipotesi: essa, come diceva Lakatos, permette una nuova previsione (“la temperatura degli abissi oceanici è aumentata”) che andrà dimostrata. Se la previsione verrà corroborata, sarà un punto a favore della teoria AGW. In caso contrario, la farà vacillare. Presumo che ci vorrà un bel po’ di tempo perché i primi studi che usciranno non saranno altro che interpolazioni basate su pochissimi dati. Noti come quindi ci sia ancora da attendere, misurare e verificare: un messaggio ben diverso dalla sicurezza con cui gli scienziati del fronte AGW si esprimevano dieci anni fa.

    Noti anche la conclusione di Bardi:

    “Sembra essere dovuta ad una qualche combinazione di fattori interni (più riscaldamento globale che finisce negli oceani), fattori esterni (una attività solare relativamente bassa ed una alta attività vulcanica) ed una sottostima del reale riscaldamento globale della superficie. Quanto ogni fattore contribuisca viene investigato da una ricerca scientifica estesa, ma il saggio di Cowtan e Way suggerisce che la seconda spiegazione contribuisca in modo significativo. Il temporaneo rallentamento del riscaldamento globale della superficie sembra essere più piccolo di quanto crediamo attualmente.”

    Dunque non c’è solo il riscaldamento degli oceani, ma pure altri fattori, come il sole ed i vulcani, che dieci anni fa venivano categoricamente esclusi: altre ipotesi aggiuntive da verificare (a proposito dei vulcani, sono usciti due studi recentemente, uno sulla Groenlandia ed uno sulla Penisola Antartica – l’unica porzione dell’Antartide che si scalda – che sostengono ci sia una possibile relazione con l’attività magmatica).

    Qual’è la conclusione che noi uomini della strada dovremmo trarre? Mettiamola così: negli anni 2000 un consulente finanziario ci ha detto di investire dei soldi in un certo fondo, prevedendo una sicura crescita per il decennio successivo. Gli abbiamo dato dei soldi perché ci ispirava fiducia ed era sicuro di sé. Dopo dieci anni i guadagni sono ben lontani da quello che ci aveva promesso. Lui si giustifica tirando fuori che non aveva previsto questo e quel fatto, ma ora che ha corretto il tiro e la sua previsione è sicura. Lei nutrirebbe ancora la fiducia iniziale in quella persona, tanto da affidargli subito altri soldi, o aspetterebbe prima – che so – i prossimi cinque anni per vedere se ora ci azzecca o no? Io glielo dico: farei la seconda scelta, attendere e poi rivalutare.

    • Dunque, l’approccio è interessante. Quella che staremmo vivendo sarebbe dunque una ‘distorsione fredda’ finta. Interessanti anche le cause. Dinamiche naturali interne (quali? Fino a ieri non esistevano mi pare…); attività solare bassa (caspita, fino a ieri non esisteva neanche quella…); assorbimento del calore da parte degli oceani (dove non è misurabile, negli abissi, e senza passare per dove è misurabile, gli strati più prossimi alla superficie); sottostima del riscaldamento superficiale (per trovare il riscaldamento occorre far ricorso a dati che non ci sono).
      Ad ogni modo Mauro, il punto non è questo. Una certa parte della comunità scientifica si ostina a concentrare tutti i suoi sforzi sulla temperatura superficiale, e questo accade perché sono i dati più abbondanti e più manipolabili che abbiamo. Attenzione, la manipolazione non è di per se’ negativa, anzi spesso è necessaria, solo che se i dati non ci sono non li si può far apparire magicamente a colpi di statistica. In realtà, a fare la differenza nelle oscillazioni climatiche è la circolazione atmosferica, ovvero la redistribuzione del calore sul pianeta ad opera dell’atmosfera e delle correnti oceaniche. E sono queste ad aver subito un cambiamento, con lo shift di metà degli anni ’70, e della fine degli anni ’90 (1976 e 1987). Dal freddo al caldo e viceversa, identificando con questo però delle modalità di circolazione leggibili ad esempio nella posizione media del fronte polare.
      In sostanza, piuttosto che continuare a dire che “il caldo c’è anche se non si vede”, tentando quindi di riconciliare l’inconciliabile, ossia il trend reale delle temperature e le proiezioni climatiche, si dovrebbe tener conto di quello che invece si vede, e cioè che queste oscillazioni esistono e costituiscono probabilmente una parte importante del riscaldamento occorso negli ultimi decenni del secolo scorso. Probabilmente, e vengo al discorso sulla sensibilità climatica, di cui continuano ad uscire stime al ribasso, abbastanza importante da ridurre in modo significativo la “pericolosità” di quella parte del riscaldamento attribuibile alle attività umane.
      Per concludere aggiungerei anche che c’è una cosa che non capisco (tra le tante ovviamente). Le modalità con cui viene redistribuito il calore sul pianeta, a prescindere dalla sua origine, sono tali da favorire il riscaldamento delle alte latitudini polari, questo è noto. Ma come mai se questo metodo (o metodi) statistico è così efficace di polo se ne scalda uno solo? Voglio dire, dati non ce ne sono né al polo nord né a quello sud. Quei pochi disponibili indicano caldo al polo nord e freddo a quello sud. Esattamente quanto poi amplificato dal trattamento statistico. Per cui, alla fine questo metodo non genera informazioni (sarebbe impossibile) ma piuttosto le trasferisce e le amplifica (garbage in garbage out).
      gg

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Categorie

Termini di utilizzo

Licenza Creative Commons
Climatemonitor di Guido Guidi è distribuito con Licenza Creative Commons Attribuzione - Non commerciale 4.0 Internazionale.
Permessi ulteriori rispetto alle finalità della presente licenza possono essere disponibili presso info@climatemonitor.it.
scrivi a info@climatemonitor.it
Translate »