Salta al contenuto

L’enigma dell’Olocene

Qualche settimana fa è stato pubblicato, qui su CM, un articolo in cui si commentava un recentissimo studio riguardante la storia climatica dei ghiacciai alpini. La ricerca dimostrava che, intorno a 6000 anni fa, sulle Alpi non erano presenti ghiacciai perenni al di sotto dei 4000 metri. Se ne deduceva che in quel periodo storico, il clima era molto più caldo di quello attuale, in quanto, sostenevano gli autori, il livello dei ghiacciai perenni alpini è determinato principalmente dalle temperature.

E’ altresì ovvio che la presenza dei ghiacciai dipende dalla percentuale di precipitazione che nel corso dell’anno cade in forma nevosa, per cui è più giusto dire che circa 6000 anni fa le condizioni climatiche dell’emisfero nord erano nel loro complesso tali da rendere impossibile l’esistenza dei ghiacciai sulle Alpi a quote inferiori ai 4000 m s.l.m..

Il richiamo si è reso necessario perché nel periodo compreso fra 5000 e 8000 anni fa viene tradizionalmente collocato l’Optimum termico medio-olocenico, periodo cruciale per la storia dell’areale euro-mediterraneo in quanto è in coincidenza con esso che l’agricoltura dalla sua culla posta nella mezzaluna fertile, si espande a colonizzare l’intero bacino del Mediterraneo, raggiungendo la Grecia 8000 anni fa, l’Italia intorno a 6500 anni fa e la penisola iberica fra 5000 e 6000 anni fa.

Alcuni non sono tuttavia convinti della correttezza di tale ricostruzione del clima olocenico e il dubbio si fonda sul fatto che i modelli climatici non sono in grado di replicare un periodo caldo nel bel mezzo dell’Olocene: essi generano tassi più o meno lineari di aumento della temperatura, a partire dall’inizio dell’attuale interglaciale. La discordanza tra gli output modellistici e le serie di temperatura dedotte dai dati di prossimità, è conosciuto anche come “Enigma dell’Olocene” o se preferite “Holocene conundrum”.

Quando i climatologi (non tutti, ma la maggior parte) trovano una differenza tra dati e modelli, difficilmente si pongono il problema che i modelli possano generare risultati erronei: con ogni probabilità sono i dati ad essere interpretati male o ad essere affetti da errori sistematici. Inizia, quindi, la caccia all’errore nei dati. Occorre d’altra parte considerare che le ricostruzioni termiche per periodi che vanno indietro di oltre 350 anni rispetto all’attualità si fondano su proxy data di origine fisica e biologica che possono presentare errori più o meno rilevanti se messi a confronto con le temperature strumentali per i periodi in cui queste sono disponibili.

Da pochi giorni è stato pubblicato su Nature l’articolo a firma di S. Bova, Y. Rosenthal, Z. Liu, S. P. Godad e M. Yan (da ora Bova et al., 2021):

Seasonal origin of the thermal maxima at the Holocene and the last interglacial

Di tale articolo si è occupato qualche giorno fa G. Guidi, pubblicando su CM  un commento.

In questo scritto si intende approfondire lo studio di Bova e colleghi, alla luce delle metodiche utilizzate dai ricercatori. Essi hanno preso in considerazione un sito ben preciso in cui sono stati estratti dei campioni del fondo marino nell’ambito dell’Integrated Ocean Drilling Program (IODP). Tale sito è contraddistinto dalla sigla U 1485 e si trova a sud dell’equatore, poco lontano dalle coste della Papua Nuova Guinea. Dalle carote di sedimenti prelevati nel sito, i ricercatori del progetto IODP hanno desunto una serie di temperature che coprono gli ultimi centotrentamila anni. Bova e colleghi sono partiti da questi dati e li hanno rielaborati allo scopo di dimostrare che le temperature derivate dalle serie di dati di prossimità, estratte dalle carote del fondale marino, sono temperature di tipo stagionale e, quindi, non sono le temperature medie globali su cui sono basate le ricerche moderne, per cui tutte le ricostruzioni di dati paleoclimatiche basate su tali serie di dati, sono affette da un errore sistematico. Ed è questo errore che impedisce ai modelli matematici, di riprodurre le temperature del passato.

Per provare la loro tesi Bova et al., 2021 hanno esaminato i sedimenti risalenti al periodo compreso tra 115000 e 128000 anni fa. Si tratta del periodo interglaciale, noto come Eemiano, che ha una durata paragonabile a quella dell’attuale interglaciale (Olocene), e che al contempo è caratterizzato da situazione climatiche piuttosto diverse da quello attuale.  Si tratta del periodo compreso tra la glaciazione di Riss e quella di Wurm ed è conosciuto anche con la sigla MIS5 (ove MIS sta per Stadio Isotopico Marino). Bova et al., 2021 lo hanno definito, però LIG ovvero “Last InterGlacial period”.

I ricercatori chiariscono subito le ragioni della scelta. Durante il LIG la concentrazione atmosferica di biossido di carbonio, la distribuzione dei ghiacci marini e terrestri e altre forzanti climatiche, avrebbero esercitato un’azione piuttosto blanda su clima terrestre, per cui le temperature superficiali marine (SST) sarebbero state influenzate solo da fattori orbitali, cioè dall’insolazione. Detto in altri termini le SST sarebbero risultate una funzione lineare dell’insolazione e, quindi, temperatura ed insolazione sarebbero state direttamente proporzionali tra loro. A prima vista ci pare un’ipotesi ad hoc, ma andiamo comunque avanti.

Le temperature superficiali del mare sono dedotte dalle serie di sedimenti prelevati mediante carotaggio, utilizzando il dosaggio isotopico magnesio/calcio nei gusci di una particolare specie di foraminiferi (Globigerinoides ruber). Bova et al., 2021 partono dal presupposto che tali temperature debbano essere trasformate in temperature medie annuali, in quanto contengono al loro interno un errore sistematico dovuto alla stagionalità. A questo punto sorge spontanea una domanda. Come diavolo hanno fatto a dedurre che quella restituita dai foraminiferi sia una temperatura caratterizzata da un bias stagionale? Nel testo essi sostengono che il flusso di deposizione dei gusci di foraminiferi, tende ad aumentare nel mese di ottobre e questo fa si che essi abbiano conservato il dato di temperatura relativo a quel particolare mese che, stante la dipendenza lineare delle SST dall’insolazione, risulta essere un mese molto caldo. Pur cercando di trovare conferme a questa loro ipotesi, tali conferme non sono state trovate né in Bova et al., 2021, né altrove. Questo aspetto della questione non è sfuggito neanche al modellista climatico Gavin Schmidt, che si è riproposto di andare a rivedersi le caratteristiche dei foraminiferi.

Pur tra dubbi sempre più numerosi, andiamo a vedere come i ricercatori riescono ad eliminare l’errore sistematico dalle serie di temperature, desunte dai dati di prossimità. Per raggiungere lo scopo, essi elaborano un metodo statistico innovativo detto SAT. Nel paragrafo seguente esamineremo tale metodo, ma chi non è interessato ai particolari analitici, può tranquillamente saltarlo e passare oltre: non perderà il senso del discorso.

Il metodo SAT altro non è che scrivere una funzione di regressione tra le SST derivate dai dati di prossimità e, quindi, contenenti il presunto bias stagionale, e l’insolazione. In altre parole, tale funzione di regressione esprime le temperature superficiali marine in funzione del tempo, legando tali temperature all’insolazione, mediante un’equazione in cui al primo membro compare la funzione SST, contenente il bias stagionale, ed al secondo membro, l’insolazione ed un residuo.  In realtà al secondo membro dell’equazione di regressione non compare la semplice insolazione, ma la differenza tra l’insolazione istantanea e l’insolazione media. In altre parole si tratta della variazione di insolazione stagionale. Un opportuno parametro consente di trasformare la variazione di insolazione stagionale in variazione stagionale delle temperature SST.  Appare ovvio, quindi, che le temperature SST contenenti il bias stagionale, siano somma della variazione stagionale delle temperature più un residuo. Se, pertanto, alle SST così definite, sottraiamo le variazioni di temperatura stagionali, le temperature medie annue della superficie del mare vanno a coincidere con il residuo di cui si parlava all’inizio del paragrafo. Tutto questo marchingegno analitico serve ad esprimere la temperatura media superficiale del mare, come derivata della funzione di regressione che esprime le SST contenenti il bias stagionale. Da un punto di vista teorico il ragionamento non fa una grinza.

Applicando il SAT ai dati di prossimità, si ottengono le temperature medie annue della superficie del mare. Qui sorge, però, un problema.  Il SAT è stato elaborato per analizzare dati a passo mensile (gli autori nei materiali supplementari parlano chiaramente di una finestra mobile di 30 giorni) e nel testo dell’articolo essi fanno continuamente riferimento alle temperature mensili. Nel caso dei dati di prossimità, però, non abbiamo né dati mensili, né dati annuali, ma dati caratterizzati da una risoluzione di ben 500 anni, come è scritto in altra parte dell’articolo. Ha senso, mi chiedo, applicare un sofisticato metodo di analisi statistica, congegnato per dati a passo mensile, a dati con passo plurisecolare? Probabilmente no. Da un punto di vista analitico potremmo dire che se sommo cinquecento dati annuali, otterrò un dato con passo 500 anni e, quindi, il metodo SAT funziona senza problemi. Da un punto di vista fisico però ciò non è corretto. Questo dato ha perso, infatti, tutte le informazioni relative alle stagioni di questi cinque secoli: esso è un dato da cui si deduce la temperatura che, probabilmente, ha caratterizzato quel lungo periodo di tempo e che è quella ricavata dal dosaggio isotopico del guscio dei foraminiferi che sono contenuti in quel particolare tratto della carota.  Poiché i foraminiferi non vivono cento o più anni, ci rendiamo conto di parlare di temperature che si sono verificate in qualche breve periodo di questo lungo arco temporale.

L’idea che da questo dato così parziale, si possa dedurre che esso dipenda dalla stagione, onestamente, sembra un po’ forzata. A meno che con il termine “stagione” non si voglia intendere l’intero periodo di 500 anni che caratterizza la scansione temporale media del sedimento esaminato, ipotizzando che per tutti i cinquecento anni la temperatura registrata dai foraminiferi, si sia sempre verificata lo stesso mese e sia stata sempre la stessa. Sembrerebbe piuttosto improbabile.

Riassumendo, Bova et al., 2021 hanno preso i dati di prossimità della serie di temperature ricavate da una pila di sedimenti e, ad essa, hanno applicato un modello matematico che ha consentito di determinare quella che loro definiscono la temperatura media globale del periodo esaminato. Successivamente hanno sottoposto a verifica la bontà del loro operato, confrontando i risultati delle loro analisi con gli output di un modello di circolazione globale che ha ricostruito le temperature medie globali planetarie nell’Eemiano.  Dal confronto è emerso un grado di correlazione molto alto, per cui essi hanno desunto che il loro metodo aveva ottenuto un grande successo. Sembra, però, che essi abbiano creato un corto circuito logico, per cui hanno convalidato un modello matematico (SAT) con un altro modello matematico (quello di circolazione globale). I dati misurati sono del tutto spariti dalla circolazione, in un classico ragionamento circolare.

Bova et al., 2021 hanno poi applicato questa metodologia ai dati di prossimità dell’Olocene. Secondo i ricercatori nel corso dell’Olocene le condizioni orbitali non sono state le stesse dell’Eemiano, per cui le SST avrebbero dovuto avere un andamento diverso, rispetto a quanto avvenuto nell’interglaciale precedente (LIG).

Dall’esame della fig. 1 di Bova et al., 2021 si vede che durante l’Eemiano le SST sono aumentate velocemente nella fase iniziale dell’interglaciale e, raggiunto un massimo, hanno iniziato a diminuire, fino all’innesco del successivo periodo freddo. Ciò in concomitanza con una riduzione dell’insolazione. Nel corso dell’Olocene le cose dovevano procedere in modo analogo perché l’andamento dell’insolazione è stato qualitativamente lo stesso che nell’Eemiano, salvo che i valori dell’insolazione durante l’Olocene sono inferiori a causa delle differenti condizioni orbitali. Qualcuno sostiene che non è vero, ma facciamo finta che lo sia.  In realtà le SST sono aumentate all’inizio del periodo sia a causa della riduzione della quantità del ghiaccio che a seguito dell’aumento dell’insolazione. Con la riduzione dei valori di insolazione però, le temperature non sarebbero diminuite, come accaduto nell’Eemiano, a causa dell’aumento della concentrazione di anidride carbonica nell’atmosfera, che avrebbe determinato una crescita lineare delle temperature superficiali oceaniche e, quindi, globali. A questa conclusione Bova et al., 2021 giungono estendendo l’applicazione del metodo del SAT ad altre serie di dati sparse un po’ per il globo.

Inutile ribadire che le conclusioni di Bova et al., 2021 non convincono affatto. Già nel corpo dell’articolo sono state evidenziate alcune perplessità che investono le fondamenta fisico-analitiche dello studio. Molte altre sono tuttavia le perplessità che vediamo qui di seguito di elencare.

Anzitutto la serie di dati su cui Bova et al., 2021 operano, deriva da un punto sito in zona equatoriale e, in tale area, le temperature della superficie del mare tendono ad essere  poco sensibili alle ciclicità stagionali e molto più sensibili a quelle indotte da ENSO. Sembra, pertanto, piuttosto improbabile che in tali aree le variazioni di temperatura stagionali siano talmente ampie da lasciare traccia nei foraminiferi. Bova e colleghi sostengono che le SST aumentano nel corso dell’anno a causa della costante insolazione, fino ad ottobre e, poi, diminuiscono. Potrebbe anche essere vero, ma non mi sembra che gli autori abbiano portato prove a favore di questa tesi.

In secondo luogo Bova e colleghi non hanno confrontato i loro risultati con nessuno dei registri paleoclimatici esistenti: si sono limitati solo ad applicare la metodologia SAT alle serie di dati di prossimità legate ai foraminiferi ed agli alchenoni, evitando di paragonare quanto hanno trovato, con dati di prossimità desunti da altre fonti (carote glaciali, fronti glaciali fossili, carote di sedimenti lacustri e palustri, dati desunti da speleotemi e via cantando) che pure sono numerose e ben documentate.

Bova et al., 2021 in altre parole, hanno estrapolato a siti sparsi sull’intera superficie terrestre i risultati desunti da un solo sito senza validare i risultati del loro studio con nessuno dei dati di prossimità esistenti.  Nessuno è inoltre in grado di escludere che il sito in esame sia stato in passato soggetto ad una variabilità a mesoscala o a scala locale che precluderebbero la possibilità di estendere i risultati al resto del globo.

In conclusione Bova et al., 2021 hanno avanzato un’ipotesi circa l’assenza dell’Optimum climatico olocenico, ma non riescono a provarla in modo convincente: hanno solo confermato i risultati di un modello con un altro modello matematico.

Ci pare dunque di poter concludere che l’enigma olocenico permane vivo e vegeto.

Ringraziamenti

A conclusione di questo lavoro piuttosto impegnativo, reputo doveroso esprimere un sentito ringraziamento agli amici F. Zavatti e L. Mariani, sia per la revisione delle bozze dell’articolo, sia per la fruttuosa e preziosa discussione sviluppatasi sui temi trattati da Bova et al., 2021 che ha permesso, di chiarire ed approfondire diversi aspetti della ricerca.

Related Posts Plugin for WordPress, Blogger...Facebooktwitterlinkedinmail
Published inAmbienteAttualitàClimatologia

14 Comments

  1. Gianluca

    …se ci fosse bisogno di altri, nuovi dati che supportano le evidenze di un Olocene piu’ caldo della T attuale https://arcjournals.org/pdfs/ijrg/v7-i1/1.pdf
    Dalle conclusioni:”Megafossils of different tree species are exposed at the forefields of of receding glaciers and snow patches. They range in age between c. 11700 and 4000 cal, yr BP, when temperatures were as most 3 °C higher than present and treelines 500-700 m above current levels.

    • donato b.

      Caro Gianluca,
      grazie per la segnalazione. Personalmente non avevo dubbi in proposito, ovvero che il medio Olocene era più caldo di oggi, ma, come dicevano gli antichi, reperita iuvant.
      Bisognerebbe a Bova & C,, ma credo che sia fatica sprecata.
      Ciao, Donato.

  2. Davide

    Lieto di avervi fatto conoscere Ioannidis, che ha, seppure in altri campi, denunciato le drammatiche dimensioni del problema.
    Non ho, come avete anticipato, avuto modo di leggere l’articolo, per cui posso dire poco, ma ho visto una rappresentazione grafica della serie da loro ricostruita e del relativo errore, così come della ricostruzione precedente, che “confutano”.
    https://www.nature.com/articles/d41586-021-00115-x
    Mi sento però di dire che, quando parlano di errore di +-0.2°, lo fanno, generalmente, in modo fuorviante.
    Il grosso dei (possibili) errori in questo genere di cose non è in quei termini, ma a monte, e non viene colto da questi valori.
    A monte ci sono sempre n ipotesi, in merito alla corretta costruzione del modello, alle distribuzioni, e così via, che *portano* a quel margine di “errore”. Se non sono soddisfatte, lo stesso margine di errore va a farsi benedire. Ed il vero rischio di sbagliare è qui, non nel +-0.2°.
    Discorso che vale anche per la serie ricostruita precedente, ci mancherebbe.
    Per questo, come giustamente osservate, sono fondamentali confronti con altri dati indipendenti, che invece vengono bellamente ignorati, o trattati con “spiegazioni” ad hoc sempre molto discutibili.
    Per fare un esempio terra terra: i sondaggi elettorali parlano sempre di 2-3 punti di margine di errore, ma i risultati reali si collocano al di fuori dell’intervallo molto più spesso di quanto dovrebbero.

  3. Davide

    Condivido le critiche all’abuso di modelli, informatica, e simili, abbinata alla rimozione dell’uso del cervello.
    La tragedia è che la complessità dei problemi statistici che l’uso di questi strumenti comporta è drammaticamente sottovalutata, se non proprio ignorata, da moltissimi che li usano.
    Tanto più gli aspetti statistici si complicano, tanto più vengono non approfonditi, ma bellamente ignorati, prendendo per buoni i “risultati perchè “li ha fatti il computer che non sbaglia”.
    Lo si vede in ogni campo, dall’economia alla medicina, ed è per me una delle principali cause del fatto che, come rilevato da Ioannidis ed altri, gran parte di ciò che viene oggi pubblicato come “scientifico” è spazzatura, nel senso che afferma cose false, o senza supporto.
    Il tutto nascondendosi dietro modelli e tanti numeri, spacciati come “dimostrazioni”, quando non lo sono: solo che spesso ignorano che non lo siano, oppure se ne fregano proprio.

    • donato b.

      Non conoscevo il lavoro di Ioannidis, per cui ho cercato di capire di che cosa si trattasse. Ciò che ho scoperto mi induce a due considerazioni.
      .
      a) Ioannidis ha gettato un macigno nello stagno della ricerca scientifica e le onde sollevate, hanno fatto danni. Nonostante i tentativi di demolizione delle sue tesi, nessuno è riuscito nell’intento: al massimo ne hanno limitato la portata. Alla luce delle critiche e delle revisioni del suo metodo, si può affermare che in campo biomedico (ma ciò vale anche in tutti i campi basati sulla statistica, quindi anche in climatologia), non meno del 14% dei risultati conseguiti sono “poco veritieri”, per usare un eufemismo.
      .
      b) il lavoro di Ioannidis è molto vasto e, soprattutto, complesso, per cui necessita di un approfondimento che in questo momento storico non ho la possibilità di fare, per cui preferisco non entrare nel merito della questione. Probabilmente in un futuro più o meno prossimo cercherò di approfondire il pensiero di questo ricercatore che tanto putiferio ha generato nel campo della ricerca scientifica basata su modelli, meta-dati e via cantando.
      .
      Approfitto dell’assist di Davide per mettere in luce un altro aspetto di Bova et al., 2021 che non ho sottolineato nel post, ma che è legato agli aspetti statistici dello studio. Mi riferisco all’incertezza dei risultati ottenuti dai ricercatori.
      .
      Oggi nell’area interessata dallo studio abbiamo una variazione stagionale delle temperature superficiali dell’oceano di 0,5°C, in media. La variazione stagionale delle SST durante l’Eemiano, possiamo solo immaginarla, ma diciamo che fosse uguale a quella attuale. Ebbene gli autori hanno stimato il margine di incertezza delle loro elaborazioni statistiche in +/- 0,20°C, praticamente la metà del dato. L’errore relativo dei dati su cui essi basano le loro conclusioni si aggira, quindi, tra il 40% ed il 50%.
      .
      E questo solo per il sito oggetto di studio che essi dichiarano essere uno dei più stabili dell’intero Oceano. Cosa succede per gli altri siti a cui hanno esteso i risultati di quello della Papua Nuova Guinea? Credo che l’errore si ampli notevolmente e, alla fine, tutto il clamore che lo studio ha suscitato, può dirsi che è basato su dati affetti da un errore del 50% circa (ad essere buoni).
      Mi chiedo, a questo punto: possibile che nessuno dei revisori si sia accorto di tutto ciò?
      Ciao, Donato.

  4. giovanni geologo

    Caro Donato, hai fatto un’eccellente digressione sul noccilo della questione, sollevando giuste domande e interrogativi su tutta una serie di elementi che dovrebbero essere tenuti in conto e analizzati prima di fare acrobatiche estrapolazioni e correlazioni.
    Sono le riflessioni che si facevano un tempo sul terreno osservando, correlando cercando di capire e facendo sintesti in primis nella propria mente per avere una visione critica di insieme ( un vero modello fatto dalla mente umana). Purtroppo questo approccio richiede tanto tempo e tanta fatica per cui é stato negli anni sostituto dalla mente artificiale dei computer e questo approccio metodologico é diventato via via piu obsoleto. Mi ricordero sempre una critica di un esperto della mia tesi…” lei ha fatto un lavoro come si faceva negli anni 70-80, raccoglie dati li analizza, li combina e fa una sintesi. Non si usa piu, é roba vecchia, oggi si fanno delle ipotesi (dei modelli) e poi si cercano i dati che li confermano…..”.
    I modelli purtroppo correlano e modellizzano tutto quelo che gli proponi senza porsi domande, gatti, pecore, pere, pistoni, meteoriti ricette di cucina, ideologie, tutto puo essere mischiato e modellizato. Per questo serve dietro un essere pensante possibilmente umano. E sicuramente gran parte del mondo scientifico e della ricerca di questi ultimi decenni ha sminuito l’essere pensante e la sua formazione e preparazione scientifica e culturale a favore della macchina. Inoltre, altro punto fondamentale, ha sempre piu promosso la figura dello specialista rispetto al generalista. Lo specialista riesce a perdersi in un cristallo di quarzo o in un foraminifero, passando tutta la sua vita a studiarlo rendendosi conto alla fine di non aver scoperto ancora tutto lo scibile su di esso. Il “generalista” / “multidisciplinare” invece sarebbe quella figura scientifica che riesce a fare la sintesi di piu conoscenze per ottenere una descrizione esaustiva di un fenomeno complesso o di scoprire una nuova dinamica o elemento fino ad allora sconosciuta. Lo specialista e il generalista sono in antitesi fra loro, il primo fa grandi scoperte, il secondo le affina.

  5. giovanni geologo

    Non é difficile , basta fare uno studio di palinologia e confrontare le specie presenti nell’eemiano e nell’olocene ( o nel presente) a differenti latitudini e altitudini. D’altronde esistono già montagne di studi su questo argomento. Ora senza conoscerne i dettagli spazio temporali da quanto ho appreso nei miei studi e nelle mie ricerche i deti palinologici hanno dimostrato che a parità di latitudine e altitudine nell’eemiano erano presenti specie floreali e arbustive tipiche di climi piu caldi dell’attuale. Con buona pace dei modelli.

  6. Luca Rocca

    Adesso diranno che i minoici, i greci ed i romani dipingevano e scolpivano gente seminuda perché gli artisti lavoravano solo in estate

  7. Dopo aver letto (e discusso in anteprima) l’attenta disamina realizzata da Donato Barone in questo articolo e aver guardato i dati pubblicati dagli autori, credo di poter dire:
    l’ipotesi base è che l’Olocene deve comportarsi come l’Eemiano: nella figura allegata il confronto tra Olocene ed Eemiano per tre serie di temperature ricostruite dagli autori. L’Olocene (in rosso) è sempre più basso perché (secondo gli autori) nelle misure dei dati di prossimità oloceniche l’effetto “stagionale” ha di fatto diminuito le temperature.
    Quindi, è necessario inventarsi un algoritmo che riporti in alto le temperature. E lo hanno fatto, egregiamente dal loro punto di vista: ma la validità di un algoritmo dipende dalle premesse: chi lo ha detto che gli interglaciali debbano essere tutti uguali? Certo che debbano esserlo se la dipendenza, come ipotizzato, è solo dall’insolazione, ma è così? Non ci sono altri fattori che su 120-130 mila anni possono aver modificato la crescita dei gusci su cui si basano le temperature da proxy?
    In ogni caso è un bel passo avanti per chi, come i modellisti, considera l’influenza solare ininfluente. Qui il Sole conta davvero molto, direi tutto.

    L’argomento trattato da Bova et al. si inserisce in un filone abbastanza discusso di questi tempi: ad esempio doi:10.1038/s41597-020-0530-7 e doi:10.1029/2020pa004025 affrontano anch’essi il problema dell’Optimum medio olocenico.
    Forse possiamo dire che l’argomento è di moda.

    Se mi è permesso fare lo scettico fanatico, ribadirei il concetto che ci troviamo di fronte ad un nuovo assalto ai dati da parte di chi crede che i modelli abbiano ragione a prescindere, per cui se i dati non vanno d’accordo con i modelli, sono i primi ad avere problemi, vanno (ri)discussi e va trovato il modo di adattarli alla “teoria”. I molti che parlano di “martellamenti” e di “torture” dei dati fanno riferimento allo stesso problema e i non troppo lontani 50 sistemi escogitati per spiegare la pausa delle temperature (per me dal 2002 al 2013, ma per altri più lunga) sono solo l’ultimo atto prima di questa nuova rappresentazione teatrale che potremo chiamare “100 modelli veri in cerca di dati opportuni”.

    Poi, magari, la rappresentazione è proprio vera ma, come scrive Donato, i dati a passo 500 anni o giù di lì nascondono ogni stagionalità. Franco

    Immagine allegata

    • donato b.

      Caro Franco,
      grazie per il tuo contributo: i grafici che hai allegato al tuo commento arricchiscono e completano l’articolo.
      .
      Nel rispondere a Giovanni geologo, ho toccato anche diversi punti che tu hai evidenziato nel tuo commento, per cui evito di ripetermi.
      Concordo, in particolare, nel considerare semplicistico, per non dire irrealistico, il rapporto di dipendenza esclusivo tra lo sviluppo dei foraminiferi e l’insolazione.
      Per Bova e colleghi questo sembra valere, però, solo per l’Eemiano. Nell’Olocene il discorso cambia: poiché l’insolazione è minore e, quindi, l’andamento delle temperature è diverso, come dimostrano i tuoi grafici, entra in gioco la CO2 e tutto torna come nell’Eemiano. Si prendono, in buona sostanza, due piccioni con una fava: il clima è sempre lo stesso e tutto filerebbe liscio come l’olio, se il perfido diossido di carbonio non alterasse questa regolarità, degna di un orologio atomico. 🙂
      Ciao, Donato.

  8. giovanni geologo

    Misono dimenticato di aggiungere questa immagine….

    Immagine allegata

    • donato b.

      Giovanni,
      come darti torto?
      La potenza di calcolo sempre più grande, sta facendo perdere di vista la realtà fisica degli eventi. Questo sta accadendo, purtroppo, in tutti i campi: in geologia, in climatologia, nella statica delle costruzioni, nella progettazione di macchine e di apparati di qualsiasi tipo. Il frutto dell’elaborazione numerica è considerato il santo graal della nostra disgraziatissima epoca, incuranti del fatto che non sempre le è facile individuare il comportamento fisico del sistema nella babele di numeri generati dalle macchine. Una volta per accettare un risultato, si guardava alle unità, oggi si arriva ai centesimi o ai millesimi. Non mi sembra ci si renda conto che simili livelli di “precisione” sono piuttosto opinabili, visto il grado di approssimazione dei modelli fisici. L’immagine dell’individuo che adora il computer, è emblematica di questo stato di cose: abbiamo rinunciato ad usare il cervello, appaltando tutto al computer.
      .
      Nel corso della redazione di questo commento a Bova et al, 2021, sono andato alla ricerca di notizie relative al sito da cui sono stati prelevati i campioni. In questo sito
      http://publications.iodp.org/proceedings/363/106/363_106.html
      è possibile individuare le caratteristiche fisiche del luogo da cui sono state estratte le carote su cui si basa lo studio. Esso si trova a circa 19 km al largo della costa della Papua Nuova Guinea, in corrispondenza della foce di un fiume. Non sono stato in grado di reperire notizie circa le caratteristiche di questo corso d’acqua che si addentra profondamente nell’entroterra. Dando un’occhiata al letto del fiume, non credo di sbagliare se dico che la quantità di sedimenti che il corso d’acqua trasporta, sia notevole, per cui l’apporto di sostanze organiche e minerali di origine terrestre nello specchio d’acqua circostante il sito, non dovrebbe essere trascurabile.
      .
      Il campione è stato prelevato in un fondale marino costituito da argille e sabbie vulcaniche. Entrambe queste specie litologiche mi sembrano di origine terrestre, per cui posso presumere che la loro presenza testimoni la grande influenza che le eruzioni vulcaniche e gli apporti di sedimenti fluviali, hanno nel determinare l’ecologia del luogo.
      In questa matrice è stato individuato un numero “relativamente abbondante” (parole dei ricercatori) di foraminiferi.
      .
      Nell’Eemiano le caratteristiche delle acque circostanti il sito erano le stesse di oggi? L’apporto di sedimenti fluviali e vulcanici odierno e quello verificatosi nel passato è confrontabile? Se le situazioni locali odierne e passate non sono le stesse, è corretto utilizzare modelli matematici tarati sulla situazione odierna, per analizzare situazioni dell’Eemiano? Il regime pluviometrico e termico dell’area erano gli stessi di oggi? Il fiume antistante il sito di prelievo del campione, si trovava nello stesso posto o la sua posizione è cambiata nel corso del tempo?
      Non mi sembra che queste variabili ambientali siano state considerate in Bova et al., 2021. Né sono state considerate le forti influenze che El Nino esercita nell’area.
      .
      I risultati di tale studio, però, sono stati estesi a diversi altri siti sparsi per il mondo, senza curarsi minimamente di verificare le “condizioni al contorno”, allo scopo di accertarsi che fossero confrontabili con quelle del sito studiato. Secondo Bova e colleghi i foraminiferi si comportano nello stesso modo ovunque. Il loro flusso di sviluppo e di deposizione dipenderebbe solo ed esclusivamente dall’insolazione e da null’altro.
      Una semplificazione a mio avviso eccessiva.
      Ciao, Donato.

  9. giovanni geologo

    Ormai sono fuori dal mondo universitario da piu di 10 anni ma vedo che la deriva che già avevo osservato tempo fa diventa sempre

    più netta e preoccupante. Il modello inteso come rielaborazione di dati tramite processori sempre piu’ peformanti dai risultati

    sempre piu’ affascinanti ma a quanto pare meno veritieri é ormai diventato il leitmotiv della ricerca attuale. I computers i suoi

    programmi di calcolo sono diventati come oracoli divinatori ai quali ci si affida per prevedere il futuro e modellare il passato, ormai

    credo quasi con la stessa affidabilità delle interiora di pesce di asterixiana memoria. Si é abdicato alle capacità intellettive e cerebrali per sostituirle con un piu performate processore capace di fare infiniti calcoli ma incapace di avere l’approccio critico proprio dell’essere umano e della scienza. Ricordo bene queste derive gia piu di dieci anni orsono quando i geologi di terreno erano diventati dei topi di laboratorio che uscivano dal loro antro solo per raccogliere velocemente un gran numero di campioni da analizzare e i cui risultati dovevano essere poi rimodellati da programmi di calcolo equazioni algoritmi matrici per spiegare la

    realtà del passato, oppure quando lo geomorfologia ma anche la geologia e la tettonica sono diventate un faticoso compito da

    svolgere non con estenuanti marce e giornate sul terreno ma davanti a schermi multipi a analizzare immagini satellitari o LiDar in 3D o in varie frequenze elettromagnetiche o addirittura con occhali in 3D stile realtà virtuale. Chiaramente sono tutti strumenti che hanno per certi versi semplificato, facilitato e velocizzato il lavoro , hanno permesso di avere un altro punto di vista, quello aereo e

    d’insieme fino ad allora limitato alle foto aeree da osservare con stereo visore. Ma appunto col passare del tempo si é dimenticato

    che questi sono solo mezzi, non sono strumenti divinatori ai quali affidare risposte che a volte l’intelletto umano fatica a elaborare.

    Un modello darà sempre e comunque una risposta e piu’ é complicato e dettagliato piû la risposta sarà verosimile, come un film di

    fantascienza con grandi effeti speciali. E gli effetti speciali odierni sono molto piu accattivanti di quelli di 20-40 anni fa,

    emotivamente colpiscono di piu’ ma non per questo vanno confusi con la realtà. Questo articolo in qualche modo mi conferma il

    livello di questa deriva tecnoratica o infocratica in cui modello si é trasformato da mezzo a oggetto di adorazione. Nel mia formazione ormai obsoleta il modello é una rappresentazione piu o meno semplificata di una certa realtà locale e di una serie di fenomeni nell spazio-tempo. Non puo esistere un unico modello per tutto e ogni modello ha i suoi limiti di applicazione al contesto spazio temporale e locale per il quale é stato creato. Il modello inoltre non é strettamente necessario alla rappresentazione di una realtà o di piu fenomeni, é una possibilita per rendere questa

    rappresentazione di piu facile lettura allo spettatore e soprattutto il modello non da automaticamente la spiegazione e la comprensione di un o o piu fenomeni, ma li rappresenta soltanto. E invece qui si conferma una volta di piu’ come il modello sia diventato il nucleo il fulcro e anche il fine di uno studio e di una ricerca. Tutto viene fatto in funzione del modello, la ricerca, la raccolta dati, l’analisi l’intruduzione dei parametri ecc. Il modello é il nuovo dio il nuovo oracolo al quale la scienza (che ormai chiamo l’ascienzah) si rivolge per avere risposte offrendo al suo altare dati di ogni tipo cosi come si offrivano e sacrificavano cibi e animali in altre epoche. Se ci guardiamo attorno molti elementi di quanto sta succedendo a livello sociale in questo triste periodo ci confermano come siamo in un periodo in cui tutto viene rimesso a modelli previsionali, simulazioni, a modelli che prevedono il futuro, spesso sempre e solo in modo catastrofico. Sembra di essere nel bel mezzo di un periodo di buio tecnologico, di ritorno ad un periodo oscuro in cui non si capisce piu’ cosa sia dato e risultato, causa ed effetto, realtà o finzione e tutto é rimesso in discussione. Un periodo di transizione tra due epoche diferenti come lo fu ad esempio il basso medio evo. L’analisi di questo articolo per me ne é un esempio flagrante dei tanti che ci sono formiti ormai quasi quotidianamente nei piu disparati campi tecnico-scientifici e sociali, ormai da un lato siamo quasi pronti ad andare su Marte ma stiamo distruggendo un intero tessuto sociale, relazionale ed economico per una particella tra le piu semmplici e antiche che popolano questo pianeta, un virus. Questo periodo testimonia la sconfitta dell’eta della ragione e il ritorno ad un tempo in cui dei grandi cambiamenti saranno necessari ed inevitabili, in cui molte cose dovranno essere messe in discussione per permettere all’uomo di avanzare nella
    sua ricerca della verità materiale e spirituale.

  10. Giorgio

    Dai, vuoi mettere la sinteticità ed efficacia di un tweet che dice:
    “Nature: non c’è nessun Optimum Climatico Olocenico, solo dati mal interpretati”

Rispondi a giovanni geologo Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Categorie

Termini di utilizzo

Licenza Creative Commons
Climatemonitor di Guido Guidi è distribuito con Licenza Creative Commons Attribuzione - Non commerciale 4.0 Internazionale.
Permessi ulteriori rispetto alle finalità della presente licenza possono essere disponibili presso info@climatemonitor.it.
scrivi a info@climatemonitor.it
Translate »