Salta al contenuto

La media degli errori è quasi sempre un errore

Per chi non lo sapesse, le previsioni climatiche, meglio note come scenari perché se fossero definite previsioni dovrebbero anche essere verificabili e si capirebbe che sarebbe meglio lasciar perdere, non si fanno quasi mai con un singolo modello, quanto piuttosto con la media dei modelli a disposizione, la cosiddetta model mean.

Ad esempio, tutte ma proprio tutte le determinazioni dell’IPCC, compreso l’ultimo Special Report redatto ad hoc per la COP24 (di cui si è parlato diffusamente anche ieri), scaturiscono da conti fatti sulla base della media dei modelli. Che, puntualmente, è sbagliata. Non è certo la media tra un modello che sbaglia sulla temperatura della terraferma sommato ad uno che sbaglia sul mare che può restituire qualcosa di simile alla temperatura su terra e mare… Ma, questo, pare proprio che fino ad oggi non si potesse neanche dire.

Arriva però un articolo su Nature Climate Change, ripreso alcuni giorni fa da WUWT, nel cui abstract c’è una frase piuttosto esplicativa. Prima il titolo e poi la frase.

Taking climate model evaluation to the next level

[…] there is now evidence that giving equal weight to each available model projection is suboptimal

Quindi, non tutti i modelli sono uguali perché, evidentemente, qualcuno è più uguale degli altri ;-).

Nel post su WWUT c’è una delle immagini presenti nell’articolo, questa qui sotto:

E’ l’errore su base annuale rispetto alle osservazioni dell’ensemble dei modelli del progetto CMIP5, appunto quello realizzato per l’IPCC. Facciamo il gioco di “individua l’errore”:

  1. A qualcuno piace caldo. Innanzi tutto, c’è più errore rosso che errore blu, e questo significa che i modelli sbagliano verso il caldo.
  2. Anche il Polo piace caldo. Poi c’è l’errore sul mare attorno all’Antartide, una differenza rispetto alle osservazioni anche di 1,5°C. Ricordo che per l’AGW che tutti dovrebbe seppellirci si parla di 0.8°C dall’inizio dell’era industriale: qui l’errore è di 1,5°C, circa il doppio. Non solo, ma scaldando così tanto in modo artefatto il mare oltre i 60°S, quanto ghiaccio fino in meno si forma? E quanto vapore acqueo finto in più viene ceduto all’atmosfera? E quanta neve finta in più cade sull’Antartide? E quanto varia l’albedo in funzione di questo errore?
  3. L’ENSO perenne. Fuori dalle coste di Africa e Sud America ci sono due grosse aree di errore positivo. Quella macchia rossa è qualcosa di molto simile a quello che si vede quando c’è El Niño, che è un meccanismo del tutto naturale che rilascia enormi quantità di calore in atmosfera, vedi anni recenti. Ma se i modelli “forzano” un comportamento simile a quello di El Niño più spesso di quanto questo succeda in realtà, ancora una volta immettono una forzante di riscaldamento artefatta nel risultato.

A valle di tutto questo, la media dell’errore è quasi sempre un errore.

E questa è la ragione per cui ho deciso di sottoporre alla vostra attenzione questo argomento. Appena ieri infatti, abbiamo diffuso un documento contenente, tra molte altre cose, anche un’immagine che mette in comparazione i modelli e le osservazioni. Un confronto alquanto impietoso, ma con un outlier, un modello Russo, che sembra essere invece in ottimo accordo con “il clima che fa”, almeno con riferimento alla temperatura superficiale.

Nei commenti al post di ieri sono state diffuse anche alcune informazioni un po’ più dettagliate.

Bene, nell’articolo di Nature Climate Change, sono state fatte anche comparazioni tra singoli modelli e, guarda caso, pare che quello che se la cava meglio sia proprio lo stesso modello russo di cui sopra. Per inciso quel modello non solo forse funziona meglio degli altri, ma non mi pare che preveda sfracelli in relazione alla temperatura… speriamo resista alla voglia di… media!

Enjoy.

 

Related Posts Plugin for WordPress, Blogger...Facebooktwitterlinkedinmail
Published inAttualità

4 Comments

  1. robertok06

    La regione del pianeta che piu’ preoccupa i climatologi oggi sono i due poli.
    Guarda caso sono anche le due zone del pianeta dove si fanno meno misure, per ovvi motivi di praticità e difficoltà a causa delle condizioni limite.

    La maggior parte, la gran maggior parte, dei dati utilizzati nei documenti del NOAA citati spesso sono cosiddette REANALISI, cioe’ MODELLI che hanno le centinaia e centinaia di parametri e variabili al loro interno fittati in modo tale da riprodurre le misure nei POCHISSIMI punti del pianeta dove le misure sono effettuate, e di INTERPOLARE sulla stragrande maggioranza del resto della superficie del pianeta dei valori che permettano di calcolare, per il poco che vale, la media globale della temperatura del pianeta.

    Quindi, mettendo le due cose assieme… importanza del trend di temperatura dei poli nei modelli climatologici (o, meglio, spessore del ghiaccio in questo caso), vediamo cosa si ottiene in fatto di precisione, e quindi di affidabilita’ delle reanalisi?

    Recentissimo articolo…

    https://www.the-cryosphere-discuss.net/tc-2019-2/tc-2019-2.pdf

    “Rapid decline of Arctic sea ice volume: Causes and consequences”

    … conclusioni:

    ” 3. IPCC models dealing with Arctic sea ice have significantly improved from AR4 to AR5 IPCC reports

    but they are still lagging behind reality by 10 to 20 years based on Arctic sea ice volume best estimations.”

    I modelli sono indietro di 10-20 anni rispetto alle misure!… ma come… su un intervallo di 4 decenni (1979-oggi) sono indietro di… 2 decenni????? E le famose predizioni sul ghiaccio artico nel 2100???… saranno indietro di 50 anni almeno, per quella volta… 🙂

    Altra conclusione interessante:

    “4. Due to a strong Arctic sea ice volume natural inter-annual variability superimposed with a smoother long-term trend of anthropogenic origin (which is an order of magnitude smaller than the inter-annual variability), it is likely there would be an ice free Arctic Ocean in summer one year or another during the 2020s, 2030s and 2040s. ”

    Mmmm… la variabilita’ intra-annuale e’ UN ORDINE DI GRANDEZZA maggiore del segnale antropico????… ma non era il contrario, che l’effetto antropico costituisce la stragrande maggioranza delle cause di cambiamento ai poli????

    Devono decidersi, questi qui…

    Continuo con un’altra perla:

    “5. A 7-year oscillation appeared clearly in the net ice production estimated from PIOMAS.

    This oscillation could very well be the expression of a natural internal variability in response to a global warming of anthropogenic origin.
    A precise attribution to the origin and cause of this oscillation would improve Arctic sea ice prediction.”

    ???? Qui con parecchia non-chalance gli autori ci informano che ci sarebbe una oscillazione di 7 anni nel segnale PIOMAS (PIOMAS e’ la reanalisi basata su MODELLI di cui parlavo sopra) e che questa “potrebbe” essere l’espressione di una variabilita’ INTERNA in risposta al global uormin’ antropico… ???? ma come?… “potrebbe”???
    Ma se sono anni che ce la menano con la storiella che “the science is settled”… si conosce tutto quello che serve, le nostre simulazioni sono affdabili?… 97% dei climatologi sono d’accordo su questo, no?… E adesso “potrebbe”… “forse”… chi lo sa????

    La figura 1 e’ chiara e nota da anni. Riassume i dati satellitari, dal 1979 in poi… e su questa figura si nota chiaramente l’andamento lineare COSTANTE del rateo di diminuzione del ghiaccio artico, per i valori massimi e minimi separatamente. Non aumenta all’aumentare della concentrazione di CO2, come invece recita il mantra CAGW.

    Quando e’ cominciato questo trend lineare? Con precisione non lo sa nessuno… dato che dati globali semplicemente NON esistono pre-1979!

    Quello che si sa per certo, invece, e’ che i modelli climatologici e le reanalisi basate su essi, reanalisi che INTERPOLANO e riempiono i buchi di segnale dove e quando le misure non sono state possibili (praticamente tutto il circolo polare artico, ci sono pochissime stazioni di misura)… producono risultati che sono “still lagging behind reality by 10 to 20 years”… in ritardo di 10-20 anni rispetto alla realta’.

    Ma dai! E questi qui vorrebbero essere presi sul serio???

  2. Bravo Guido! Lo sappiamo bene che in casi come quelli dei modelli, le medie andrebbero pesate per l’affidabilità (che a casa nostra significa aderenza alle osservazioni) dei singoli elementi. Allora al modello russo diamo un peso 1000 e a tutti gli altri 0.1 (o 0.01) e poi vediamo.
    Franco

  3. Fabrizio Giudici

    Modello russo? Ha stato Putin! Insieme a Trump.

  4. Alessandro2

    Ma come, non erano i Russi i principali creatori e propalatori di fake news? Diceva il buon Arbore: meditate gente, meditate…

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Categorie

Termini di utilizzo

Licenza Creative Commons
Climatemonitor di Guido Guidi è distribuito con Licenza Creative Commons Attribuzione - Non commerciale 4.0 Internazionale.
Permessi ulteriori rispetto alle finalità della presente licenza possono essere disponibili presso info@climatemonitor.it.
scrivi a info@climatemonitor.it
Translate »