L’AGW è tutto intorno a noi

Calma, l’anno nuovo non porterà una nuova linea editoriale per CM. Magari, c’è da augurarselo, porterà nuovi progressi scientifici e tecnologici, aiutandoci a capire e conoscere qualcosa di nuovo.

Le premesse ci sono a quanto pare. Conoscenza scientifica a parte, quel che davvero ha fatto la differenza negli ultimi decenni nel settore della meteorologia è stato l’aumento della capacità di calcolo. Modelli sempre più complessi e performanti, possono girare solo su macchine molto potenti. Ma, quelle che stanno per arrivare, faranno sembrare gli attuali supercomputer dei pallottolieri. Leggiamo da Nature:

Quindi si parla di exascale computing, ovvero, sistemi capaci di compiere almeno un esaflops (un miliardo di miliardi – 1018 ) di operazioni al secondo, mille volte più potente del computer petaflops inaugurato nel 2008  (wikipedia).

Quante cose fantastiche si potrebbero fare con una potenza così grande? Progettare l’esplorazione dello spazio? Sviluppare sistemi di trasporto sempre più efficienti? Lascio a voi la scelta delle possibilità, ma mi preme riportare una parte dell’editoriale di Nature per far capire sino a quale profondità il tormentone del clima sia penetrato:

Scientists anticipate that exascale computers will enable them to solve currently intractable problems in fields as varied as climate science, renewable energy, genomics, geophysics and artificial intelligence. That could include pairing detailed models of fuel chemistry and combustion engines in order to more quickly identify improvements that could lower greenhouse-gas emissions. Or it might allow for simulations of the global climate at a spatial resolution as high as a single kilometre. With the right software in hand, “there will be a lot of science we can then do that we can’t do now”, says Ann Almgren, a computational scientist at the Lawrence Berkeley National Laboratory in California.

Ebbene sì, quello di cui l’umanità ha bisogno è simulare il clima con la risoluzione spaziale di 1km. Piccolo problema, velatamente accennato nel virgolettato: “Con il software giusto”, significa che in quelle simulazioni devi sapere cosa metterci. Ad oggi, il downscaling spaziale dei modelli climatici – già inattendibili con passo di griglia di 50-100 km, ha dimostrato di essere del tutto inservibile, perché quella è la scala spaziale del tempo meteorologico, che abbiamo difficoltà a prevedere a quelle dimensioni spaziali oltre le 72 ore, mentre sappiamo essere impredicibile oltre i 7-10 giorni, per la natura caotica del suo evolvere.

Quindi avremo fantastiche macchine superperformanti che ci diranno che clima farà nel giardino di casa tra 10, 30, 50 anni. Continuerà a non essere vero ma, vui mettere?

Ora, pare che la capacità di calcolo dell’ordine degli esaflops potrebbe eguagliare quella del cervello umano. La domanda sorge spontanea: perché continuare a non usarlo?

PS: sul fatto che per alimentare queste macchine per “studiare come ridurre le emissioni” sia necessaria l’energia di intere centrali dedicate ho sorvolato deliberatamente, perché la dissonanza cognitiva si commenta da se.

Related Posts Plugin for WordPress, Blogger...Facebooktwittergoogle_pluslinkedinmail
Licenza Creative Commons
Quest'opera di www.climatemonitor.it è distribuita con Licenza Creative Commons Attribuzione - Non commerciale 4.0 Internazionale.
Permessi ulteriori rispetto alle finalità della presente licenza possono essere disponibili presso info@climatemonitor.it.

Author: Guido Guidi

Share This Post On

7 Comments

  1. Senza ombra di dubbio e’ colpa del Global warming assassino…

    “In a rare and likely unprecedented step, a peer-reviewed scientific study has definitively concluded that certain extreme weather events could not have occurred without human-caused climate change.”

    goo.gl/c9JHFY

    … tutta roba basata su modelli… modelli che, nel caso dell’interfaccia acqua-ghiaccio…

    “Since the distribution of new ice on open water relies on many uncertain parameters and the knowledge of the detailed processes is currently too crude, it is a challenge to implement the processes realistically into models.
    Based on our sensitivity experiments, we conclude a pronounced uncertainty related to open-water sea ice growth which could significantly affect the climate system sensitivity.”
    http://www.sciencedirect.com/science/article/pii/S0377026517300544?via%3Dihub

    … cioè, in parole povere, i fantastici modelli sono solo goffe approssimazioni imprecise della realtà, e quindi inaffidabili.

    Mentono sapendo di mentire, unica possibilità logica.

    Post a Reply
  2. Buona sera a tutti. Innanzitutto vorrei subito augurare un buon 2018 a tutti i lettori di CM, nonchè a tutti coloro che scrivono, come sempre, articoli interessantissimi, a volte anche di non facile comprensione, tuttavia percepibili. Bravi 🙂
    Avrei anche intenzione di lasciarvi un link, se lo vorrete lo guarderete. Il video mi ha lasciato senza parole. Magari qualcuno di voi l’ha già visto. Un abbraccio a tutti. Ale

    Post a Reply
  3. eguagliare quella del cervello umano.

    … cervello umano… di chi? 😉

    Comunque, sono molto contento: vedi che forse, per l’epoca in cui andrò in pensione, saranno capaci di prevedere che alla tal’ora sulla tal montagna ci sarà una nuvola con la tal forma, e le mie foto sicuramente ne gioveranno. :o)

    Post a Reply
  4. Il fatto è che neanche a colpi di exaflops non riusciranno a prevedere molto più di adesso… non basterebbero neanche i milioni di exaflops… gli yottaflops… 10 elevato alla 24-esima potenza… i famosi 14 ordini di grandezza che mancano in velocità di calcolo per simulare il sistema terra come si deve, come recita il puppet master Modellista Maximus Gavin Schmidt in persona:
    https://www.ted.com/talks/gavin_schmidt_the_emergent_patterns_of_climate_change/transcript

    Si e ci prendono per i fondelli, nulla di più.

    (Mi scuso per la ripetizione, questo link l’ho già citato qui… ma a volte repetita juvant.)

    Post a Reply
  5. Caro Guido,
    un gioco fatto alcuni giorni fa con l’amico Franco Zavatti ha portato prima me a ricavare che oltre il 50% della variabilità delle temperature annue medie europee dal 1850 a oggi (illustrate nel diagramma in alto a desta in questo sito) è spiegata da due indici (l’oceanico AMO e l’atmosferico NAO). Alla fine però Franco mi ha superato raggiungendo il 63% con AMO, NAO e un indice geomagnetico.
    Penso allora che riuscire a precedere tali indici con mesi/anni di anticipo (e qui mi riferisco a AMO e NAO perché l’indice geomagnetico si lega all’attività solare – https://www.ngdc.noaa.gov/stp/geomag/image/aassn07.jpg) avrebbe un impatto enorme sulla nostra capacità di prevedere con mesi/anni di anticipo le temperature a scala continentale. Non mi risulta però che oggi ciò sia possibile e non credo che ciò dipenda dalla capacità di calcolo degli elaboratori ma dalla disponibilità di modelli in grado di descrivere in modo realistico tali fenomeni.
    Con l’augurio dunque che nel prossimo anno anche queste bazzecole vengano se Dio vuole risolte e che la luce della conoscenza ci illumini.
    Luigi

    Post a Reply
    • Ti dirò Luigi, l’articolo di per se non dice nulla di nuovo. Che la capacità di calcolo cresca ad altissima velocità è un fatto assodato. L’unica cosa che mi ha davvero colpito è la frase “con il software giusto”, perché so che non lo abbiamo, quindi saremo invasi come e molto più di ora, di previsioni climatiche sempre più dettagliate e sempre meno vere.
      gg

  6. Caro Guido dalle parti di Berkeley le dissonanze cognitive da un po’ di tempo si sprecano. Basti pensare alla loro nuova interpretazione della “libertà di espressione”. Per non dire del fatto che in California raccogliere generosi fondi per combattere il “climate change” è facile come rubare le caramelle a un bambino…

    Post a Reply

Rispondi a Fabrizio Giudici Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Translate »