Salta al contenuto

Così è (se “gli” pare)

Visto il contenuto dell’interessante articolo “Al di sotto di ogni sospetto” ed i commenti ai miei due precedenti post “Dall’universo della precisione all’epoca dell’illusione”  e “Temperatura media globale: un numero o un dato? Illusione o realtà?“, cercherò di evidenziare un modo di trattare i dati della temperatura che mi lascia perplesso. Sicuramente avrete letto il fondamentale articolo del famoso Phil Jones “Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850” (Jones et al., 2005), ne estraggo la parte a pagina 4 e pagina 6 relativa al trattamento degli errori (vedi allegati pag 4pag 6).

La “temperatura media giornaliera” è prassi che si calcoli come (Tmax+Tmin)/2 (in futuro con un apposito post spiegheremo i vari modi con cui è possibile calcolare la Tmed e le problematiche relative), quindi la temperatura media mensile è indicativamente la media di 60 valori.

“[…] error in a single thermometer reading is about 0.2°C” è scritto nell’articolo di P.Jones, e credo sia l’errore sulla scala del termometro anche se per quello a massima e minima normalmente il valore è superiore. Degli errori sulla misura comunque torneremo a scrivere, per il momento prendiamo per buono lo 0.2°C ben sapendo che nel documento “Recent Changes in Thermometer Screen Designs and their Impact” è scritto così e comincia ad esserci qualche stima.

Sull’articolo è scritto “error in the monthly average will be at most 0.2/?60 =0.03°C “.

E no caro Phil! L’errore sulla misura si propaga nei calcoli, la media sarà affetta dallo stesso errore di 0.2°C. Questa non è la deviazione standard della media, che dovrà essere calcolata mese per mese, e comunque non potrà mai portare ad una scelta di cifre significative che danno l’illusione di un’accuratezza che i termometri non hanno.

Non si possono fare le misure con il centimetro del sarto su 60 persone e poi, dividendo l’errore artificiosamente per ?60 far credere che si sia usato il calibro.

Caro Phil, se fosse tutto così semplice, nessuno comprerebbe la strumentazione di precisione.

PREMESSA PER CHI NON SA NULLA DI MISURA

Nel mondo reale, quando si effettua la misura di una grandezza fisica, questa sarà sicuramente affetta da un errore che indica l’intervallo d’incertezza con cui conosciamo il valore. Per questo i risultati delle misure sempre debbono essere scritti con un numero di cifre significative coerenti con l’accuratezza con cui la misura è stata effettuata, se abbiamo un’accuratezza dei decimi ha senso scrivere (1.1±0.1)m, se dei centesimi (1.10±0.01)m, etc. Se si volesse non riportare l’errore nel primo caso si potrà correttamente scrivere solo 1m indicando in questo modo fino a quale cifra abbiamo la certezza (non 1.0m o 1.00m che darebbero l’illusione di una conoscenza molto più accurata). L’incertezza con cui conosciamo il risultato delle misure è un limite fisico che, per la legge della propagazione degli errori, avrà conseguenze sull’incertezza del risultato dei calcoli successivi. Questa problematica è assente quando si effettuano elaborazioni statistiche in campo economico, demoscopico, demografico, in cui i valori sono “esatti” e quindi presentabili con un numero di cifre significative a piacere, es. 10,000000000 persone.

Quando effettuiamo diverse misure per stimare un certo valore vero, se queste sono diverse tra loro maggiormente dell’errore di misura, possiamo ricorrere ad una elaborazione statistica.

Ad esempio prendiamo 60 misure effettuate con una strumentazione che permette di discernere il decimo dell’unità di misura (20 misure hanno dato risultato 40.0 , 20 hanno dato risultato 20.0 e 20 hanno dato risultato 0.0 ). E’ possibile descrivere il campione statisticamente calcolando la media e la deviazione standard. Il valore medio sulla calcolatrice è 20.000000000 , coerentemente con la precisione della strumentazione si dovrà scrivere <media>=20.0, se avessi avuto a disposizione strumentazione più accurata in grado di discernere il centesimo avrei potuto scrivere <media>=20.00 (la scelta delle cifre significative deve essere coerente con la propagazione dell’errore attraverso il calcolo). La media non potrà mai, con nessuna elaborazione statistica, giungere ad un errore minore di 0.1 o 0.01 dovuta al sistema di misura. Posso calcolare la deviazione standard, il risultato del conto sul video sarà 16,46773939, ma se l’errore sulla misura era il decimo fisicamente devo coerentemente scrivere <deviazione standard>=16.5, se lo l’errore fosse stato del centesimo avrei potuto scrivere <deviazione standard>=16.47 . Con questa notazione chi legge conosce quali sono i limiti d’incertezza su questi valori.

La “deviazione standard della media” (eseguita su 60 prove) è: (16.5/?60) =2.130140, anche in questo caso devo scegliere un numero di cifre significative coerente. Visto che 1.96*2.1= 4.1, il valore vero della media sarà (20.0±4.1). E’ importante notare che la “deviazione standard della media” avendo nella formula la radice del numero delle misure al denominatore, facendo crescere il numero di misure inevitabilmente diminuisce. Però il suo valore non potrà mai essere inferiore all’accuratezza con cui si conosce la media, nel nostro caso 0.1 oppure 0.01.

Se voi utilizzate il centimetro da sarto, errore 0.5 cm, e ripetete la misura di uno stesso banco un milione di volte praticamente ottenendo lo stesso risultato, anche se l’errore statistico è zero alla media dovrete sempre associare l’errore presente per propagazione nel calcolo della media pari a 0.5cm.

Related Posts Plugin for WordPress, Blogger...Facebooktwitterlinkedinmail
Published inAttualitàClimatologia

21 Comments

  1. Bruno Stucchi

    Ma e’ corretto parlare di “deviazione standard” quando non si e’ dimostrato che la distribuzione delle misure e’ gaussiana (normale)?

    • Fabio Spina

      La domanda è molto interessante e meriterebbe un approfondimento. Comunque la risposta tradizionalmente data è che pure se la distribuzione delle misure non è gaussiana, quando il numero di queste cresce si può prendere per buona l’ipotesi che la distribuzione della media divenga gaussiana con “valore vero” e varianza calcolati secondo i teoremi centrali del limite (http://www.iperserver.it/mediawiki/index.php/Teorema_del_limite_centrale che vale per la gaussiana):
      http://it.wikipedia.org/wiki/Teoremi_centrali_del_limite
      Qui però siamo di fronte alla selezione dei valori max e minimi, non sono “semplici” “variabili casuali” risultati di esperimenti, quindi probabilmente è una ipotesi che valga quel teorema è molto forte. Forse ne parleremo in futuro. Saluti.

  2. Filippo Turturici

    Io sono un semplice ingegnere, non un esperto di teoria della misura (anzi è meglio che recuperi quanto prima i miei testi di misure e di collaudi).
    Tuttavia, mi sembra assai improbabile pensare di poter ridurre un errore strumentale solo con un artificio matematico, applicato ad una serie di misure non ripetibili: in sostanza, non vedo proprio come in questo caso potremmo avere un errore inferiore a quello strumentale, e mi sembra che Tore Cocco sbagli il campo di applicazione.
    Il suo metodo, statistico (medianete gaussiana ecc.) andrebbe bene se potessimo effettuare diverse misure dello stesso fenomeno, da cui calcolare un “valore medio” (ma anche in questo caso, nulla ci assicura di poter “abbattere l’errore” dello strumento). Invece, noi abbiamo valori indipendenti di fenomeni unici e non ripetibili, come detto per altro dallo stesso Cocco: ogni massima ed ogni minima, ovvero ogni media giornaliera, di ogni strumento, fa storia a sè, e non ha alcuna correlazione con gli altri valori. Ovviamente questo è implicito se consideriamo che le diverse misure termiche siano tra loro, nel tempo e nello spazio, indipendenti. Ma non è nemmeno vero che sia impossibile fare diverse misurazioni dello stesso fenomeno, come dice sempre Cocco: basterebbe utilizzare più strumenti, nella stessa stazione, che rilevino massime e minime, così che le “30 misure” (forse ne basterebbero 5) si farebbero contemporaneamente senza nessun problema.
    Inoltre, non si tengono in minimo conto tutte le altre possibili fonti d’incertezza della misura: quella strumentale non è un “massimo” dell’erroe, ma bensì un “minimo”, che non tiene conto di manutenzione, condizioni d’installazione e funzionamento ecc. e bisognerebbe anche valutare l’eventuale errore sistematico (nemmeno questo viene usualmente considerato, nonostante numerosi e notevoli casi). Ed ogni strumento dovrebbe essere validato e monitorato (continuamente) singolarmente: e si deve farlo, altrimenti l’intero sistema di misurazioni pecca gravemente in qualità, e l’errore cui è soggetto deve essere ipotizzato come massimo di tutti i possibili fattori (per cui sicuramente superiore all’incertezza strumentale). Questo accenno alla qualità non è accademia, ma è la conditio sine qua non per accettare qualunque cosa: di tutti i miliardi spesi finora nello studio del clima, non mi sembra che molti siano andati alla certificazione ed al controllo delle reti di misura, intendendo sia la strumentazione che il sito, dove invece sembra che basti solo “piantare” una stazione per avere automaticamente misurazioni precisissime per i decenni a venire.
    Faccio infine notare, da un punto di vista meramente tecnico, come, con una strumentazione da migliaia di euro, sia impossibile misurare la temperatura interna d’una stanza (chiusa), pur effettuando diverse misurazioni, con un’incertezza inferiore a quella strumentale (ad esempio quel ±0.1°C).

    • Tore Cocco

      Mi Spiace, ma lei ha totalmente frainteso quanto ho affermato, probabilmente la colpa è in gran parte mia, per via della non brillantezza delle esposizioni, comunque la invto a rileggere quanto ho scritto. Inoltre si ricordi che quel che chiamiamo errore di uno strumento rappresenta una probabilità, per comprenderne il perchè dobbiamo capire cosa è una “misurazione”. E’ questo il motivo per cui la teoria della misura e degli errori si fa essenzialmente con la statistica, e con i suggerimenti che quest’ultima ci dà possiamo, dato uno strumento, ridurre l’errore complessivo che commetiamo, anche se a lei questo pare dar fastidio. Ovviamente questo si applica su un un valor “vero” costante, come lei mi rimprovera, ma come in realtà io ho sempre detto (ecco perche dicevo che è sbagliato il modo in cui Jones la applica, anche se poi l’equazione è giusta) Con questo “nuova” puntualizzazione la invito a rileggere quanto ho gia scritto.
      Un’altra puntualizzazione, di quanto ho scritto nulla è mio, io ho solo citato concetti scritti sui libri che esistono da prima che io e lei nascessimo (a prescindere dalla sua età), mi piacerebbe prendermi meriti e demeriti, ma non posso.
      Saluti

    • Filippo Turturici

      Mi riferivo a Lei perché portava le argomentazioni: nessuna questione personale, per carità! Solo una differenza di opinioni tecniche. E mi dispiace di aver frainteso il senso, se così è stato.

      Però ora, non sono d’accordo che l’errore sia statistica: l’errore può, ma non sempre, essere determinato in via statistica; tuttavia, il considerarlo in sè stesso statistica porta ad un’assunzione errata. Faccio un esempio: stabilisco la fascia d’incertezza mediante una gaussiana, poniamo il limite esterno a 2 o 3 sigma; considerare l’errore come mera statistica, può portare a dire che il valor medio sia il più probabile, e gli estremi meno, come lo definirebbe la suddetta gaussiana; mentre, al contrario, tutti i valori della fascia d’incertezza sono equiprobabili, che sia -X o 0 o +X, per definizione di fascia d’incertezza (e questo è un “assioma”), e la statistica è un mezzo per definirla ma non per interpretarla.
      L’errore non è dunque una probabilità, ma l’impossibilità di misurare con sufficiente precisione un evento fisico, a seconda dello strumento e del metodo impiegati: per definizione, 23.2±0.1 è compatibile, e dunque va considerato “uguale”, a 23.4±0.2, senza alcuna considerazione probabilistica, una volta definita la misura.
      Questo è quello che ho inteso, e spero di non avere ancora frainteso.

      Non mi dà inoltre nessun fastidio il poter ridurre l’errore con un metodo statistico: purché ciò sia fatto correttamente. Se ho una sola misura, di un solo strumento, di un evento “unico” nel tempo e nello spazio, è evidente che ciò non sia possibile; se invece utilizzassi diversi strumenti nello stesso luogo, ottenendo dunque diverse misure dello stesso evento, potrei invece agevolmente ridurre tale errore; ovvero se, con un unico strumento, effettuassi diverse misure nello stesso luogo di un fenomeno tempo-invariante. Questo perché, come detto, considero ogni punto ed ogni istante della superficie terrestre come a sè stante, e non come parte di un unico sistema chiuso che misuro in punti diversi: su questa assunzione, semmai, si potrebbe discutere.

    • Fabio Spina

      Grazie del contributo, verissime tutte le considerazioni sulla qualità e le altre considerazioni sulle fonti d’incertezza che però non inserisco nella discussione altrimenti ci allarghiamo troppo. Verissima l’ultima osservazione, in laboratorio è difficile raggiungere con il termometro incertezze del decimo di grado. L’errore aumenta quando il sistema di misura comprende anche lo shield/screen, avete come sollecitazione del sensore non più solo la temperatura costante (come in laboratorio), ma la combinazione di radiazione solare/temperatura/vento/umidità/pioggia che si modificano continuamente.
      Per ogni strumento esiste un errore strumentale certo, dipende dalla sua sensibilità, questo limite fisico non è superabile con la statistica. Se la sensibilità è bassa ripetendo la stessa misura 100 volte ottengo lo stesso risultato, alla fine scriverò il valore con associata l’incertezza. Se aumento la sensibilità otterrò misure differenti, ma pur applicando teorema limite centrale non potrò mai scendere sotto errore assoluto…questo comporta che è inutile aumentare numero misure.
      L’errore strumentale non è una probabilità, è una certezza che ci dice quanto sono sfumati i contorni con cui conosciamo il Mondo. L’errore statistico è un intervallo conosciuto con un certo livello di probabilità, più facciamo crescere la probabilità e più crescerà l’intervallo.
      La formula è giusta e si può applicare senza limiti inferiore a “misure” senza errore come “somme di denaro”, numero persone, telefonate, etc. Qui sicuramente più è esteso campione e minore sarà errore (statistico che è l’unico presente). Se invece ho un problema di conoscenza della realtà all’origine l’errore statistico non potrà mai essere inferiore all’errore assoluto con cui conosco la media.
      Jones, secondo me sbaglia la formula e poi l’applica male, primo l’errore strumentale non va trattato statisticamente ma con la propagazione degli errori (la media ha lo stesso errore delle singole misure), secondo la standard deviation della media va calcolata ogni mese con tutte le 60 misure mentre lui mette al numeratore sempre e solo l’errore strumentale (0.2°C).
      Se metto 30 strumenti in contemporanea che effettuano la misura, la media per la propagazione dell’errore avrà un errore pari alla media degli errori. Questo è il limite a cui può scendere l’errore statistico. Se voglio farlo scendere ulteriormente debbo comprare strumenti più sensibili.
      Grazie.

  3. Tore Cocco

    Caro Fabio, ormai questo argomento è diventato il nostro punto del contendere, bonariamente ovviamente. Avendoti segnalato io l’articolo la volta scorsa, non mi tiro in dietro per ribadire i concetti espressi.
    Come gia scrissi, il valore misurato è una quantità fisica ed il valore calcolato è una quantità numerica e dobbiamo trattare ciascuna per quello che è.
    Per prima cosa ricordiamoci il conceto di misura ed errore, l’errore come lo chiamiamo in maniera sintetica altro non è che la probabilità di trovare il valore vero X della grandezza in esame, una volta che sia data la misura x segnata dallo strumento. In pratina dato un certo numero di misurazioni n tramiti i corrispettivi x1, x2,…xn, possiamo passare a fare la media che è uguale a: (sommatoria x/n), ebbene ora l’errore con cui conosciamo il valore vero X è semplicemente X-x(medio)=(sommatoria errori/n).
    Questo è quello che ci dice la teoria della misura, inoltre come ben sai ci dice che le varie misure con gli errori si distribuiscono, rispetto al valore vero X che noi cerchiamo di scoprire, come una gaussiana intorno al valore X, pertanto la teoria classica della misura ci dice che se noi eleviamo al quadrato la quantità dell’errore (sommatoria errori/n) allora troviamo che la somma dei quadrati degli errori è sempre positiva, mentre i doppi prodotti tra gli errori sono sia positivi sia negativi, quindi si elidono vicendevolmente. In pratica la teoria della misura ci dice che tramite l’operazione di media noi mediante tante misure noi possiamo conoscere il valor vero X in maniera più accurata di quella che si puo avere con una singola misura. In pratica nel passaggio sucessivo alle formulette che ho riportato si trova che l’errore medio è uguale all’errore della misura diviso la radice del numero di misure, ovvero alla formula che ha riportato Jones.
    Tutte queste cose sono riportate in maniera chiara ed esauriente da pag 897 a pag 902 del libro del Castelfranchi : Fisica sperimentale ed applicata. Hoepli 8va edizione.
    In pratica si, per fare le misure o compriamo un termometro molto accurato e ne facciamo una o poche, o compriamo un termometro meno accurato e facciamo tante misure per poi eseguire la media, dal punto di vista teorico è la stessa cosa.

    Certo mi dirai che tali operazioni sono lecite solo se si sta indaganto lo stesso identico valore vero X e non valori veri differenti, ai quali non si possono applicare rigorosamente tali operazioni matematiche, ma sappiamo entrambi che questo problema “filosofico” si applica a tutte le scienze naturali, cioe reali, quindi se vogliamo fare misure dobbiamo un pò turarci il naso.
    In generale comunque rispetto alla misura fisica che lo strumento compie, con un’accuratezza di certe cifre decimali, il numero fittizio che viene fuori dalle operazioni matematiche DEVE avere più cifre decimali, ma tali cifre decimali in più altro non sono che le cifre decimali che servono per tener conto dell’errore dello strumento, se noi togliessimo quelle cifre decimali che un pò ti indispettiscono, in pratica e come se aggiungessimo un errore aggiuntivo agli strumenti. detto in parole diverse, l’errore dello strumento con diciamo 2 cifre decimali e l’errore della misura dopo l’operazione di media con diciamo 5 cifre decimali, sono una diversa espressione della stessa identica cosa, quindi dobbiamo tenere tutte e 5 le cifre decimali, per poter rappresentare le 2 cifre decimali della misura.
    Anzi ti dirò forse nel lavoro di Jones in esame quella è l’unica formula che ha una qualche base scientifica, io direi di passare ad analizzare le altre.
    Spero di essere stato non troppo pasticcione nelle spiegazioni.
    A presto ciao

    Tore

    • Fabio Spina

      Caro Tore,
      proprio perché i commenti sull’altro post stavano crescendo troppo di estensione ma erano contemporaneamente troppo interessanti per abbandonarli, ho deciso di tornarci con dei post dedicati. Trattiamo le varie misure come singole stime di uno stesso valor vero, come fai Te.
      Nel calcolo del valore medio ho un errore assoluto associato che mi proviene dalla “propagazione dell’errore” http://it.wikipedia.org/wiki/Propagazione_degli_errori , (sommatorio errore misura/n), se ho utilizzato sempre lo stesso strumento questo non è altro che l’errore dello strumento. Se misuro con il centimetro sarto sarà 0.5cm, se invece uso sistema laser arriverò al millimetro. Questa è l’incertezza con cui conosco il valore medio è nessun artificio statistico può farmelo ridurre, questo valore DEV’ESSERE il valore minimo a cui posso stringere l’errore statistico applicando il teorema del limite centrale che mi fa avere radice di N al denominatore. L’errore assoluto sul valore medio è l’incertezza con cui posiziono ipotetica gaussiana, indipendentemente da quanto sei riuscito a stringerla con elaborazioni statistiche. Questo tipo di problematica non esiste con elaborazioni statistiche su somme di denaro, voto elettorale, numeri persone, etc. dove non c’è errore sulla singola misura. Se fosse vero quanto scrivi:“In pratica si, per fare le misure o compriamo un termometro molto accurato e ne facciamo una o poche, o compriamo un termometro meno accurato e facciamo tante misure per poi eseguire la media, dal punto di vista teorico è la stessa cosa.”, nessuno comprerebbe strumentazione accurata e molto costosa, è proprio il livello di incertezza richiesto che determina il tipo di strumentazione da utilizzare.
      Se hai effettuato misure con accuratezza 0.5°C ed esprimi il valore media fino quinta cifra decimale si tratta di un corretto e puro calcolo matematico ma senza alcun nesso con la realtà.
      La discussione sopra va approfondita, ma nell’articolo Jones, se ho ben compreso il testo, al denominatore radice (60 teorema del limite centrale) non l’applica alla standard deviation calcolata ogni mese con le 60 Tmax e Tmin, l’applica all’errore strumentale. Che dice Castelfranchi in questo caso? Spero di aver capito ciò che scrivevi e di essermi spiegato. Buona domenica.

    • Tore Cocco

      La Teria della propagazione degli errori serve, come puoi ben vedere dalla pagina di wikipedia che hai postato, per calcolare la propagazione dell’errore nelle varie procedure matematiche, e mi pare che fino ad ora tu abbia parlato di questo in effetti, ma l’equazione usata da Jones è ricavata dalla teoria della misura che è la base della teoria degli errori, ma è cosa leggermente diversa. Il concetto di misura e misurazione col concetto del come si propagano gli errori attraverso le equazioni son concetti non proprio uguali. Io parlo della teoria della misura ed il motivo per cui si comprano termometri sofisticati e costosi è che non ci possiamo permettere un grosso numero di misure (non posso fare 30 misure per calcolare la temp max, nel frattempo sarebbero cambiate le condizioni meteo). Guarda il Castelfranchi (tanto c’è ovunque è un classico) o un altro testo in cui si tratta dela teoria della misura e che derivi da essa l’equazione di Jones, poi discuteremo sull’applicabilità o meno nel nostro caso.

    • Fabio Spina

      Di libri di teoria della misura ed elaborazione dati ne ho parecchi, cmq se lo trovo prenderò anche Castelfranchi.
      1)Quando effettuo delle misure sul calcolo della media esiste un “errore assoluto”, certo, da cui non posso prescindere, che è l’errore calcolato con la teoria della propagazione degli errori. Questo dipende dall’accuratezza dello strumento.
      2)Se siamo di fronte a risultati della misura relativi a stime dello stesso “valore vero” che differiscono tra loro, allora posso dare una stima dell’errore ricorrendo alla statistica, in questo caso posso calcolare la standard deviation relativa al valor medio. Questa per il teorema del limite centrale, sarà ridotta rispetto alla varianza sul campione perché avrò al denominatore la radice del numero di misure fatte (se misure indipendenti).

      Questo “errore statistico” non potrà MAI essere inferiore al primo, darà inoltre luogo ad intervalli d’incertezza con relativo livello di confidenza (non al 100% come il primo). Se ho uno strumento che ha errore 0.2°C, posso fare quante misure voglio ma l’errore non potrà mai scendere sotto a quello strumentale, posso fare anche 1 miliardo di misure, corrisponderebbe a misurare i microbi con il metro da muratore. Questo è un tipo di errore comune nell’elaborazione dati climatologici.
      Ma Jones ne fa anche un altro, infatti non applica teorema del limite centrale alla standard deviation che andrebbe calcolato ogni mese, ma lo fa sull’errore strumentale 0.2°C, conto che non ha alcun senso fisico e statistico.
      Per quanto riguarda il numero di misure possibili dal termometro, questo dipende dalla prontezza dello strumento non dall’accuratezza. Un termometro a mercurio per darti idea prontezza ricordati che quando misuri la febbre devi attendere 5 minuti (pur non avendo screen/shield), attualmente esistono sistemi elettronici che effettuano molto di più di 30 misure nello stesso periodo, anzi in un secondo. Storicamente si da per scontato che la temperatura sia costante durante il tempo di misura del termometro a HG. Sui tempi di risposta dei termometri possiamo scrivere un altro post.Ciao e grazie delle osservazioni.

    • Tore Cocco

      Guarda, tagliamo la testa al toro, faccio le scansioni e te le mando in privato appena ho tempo, tanto sono poche pagine, cosi vedrai l’equazione che usa Jones e da dove deriva ed il senso che ha, poi se mi dai ragioni per confutare il Castelfranchi (non Jones che applica la formula dove non si potrebbe applicare) allora benissimo cosi. A presto ciao

    • filipporiccio

      Mi sembra però che tutto questo valga:
      1) in assenza di errori di quantizzazione (la scala del termometro che permette di leggere solo il decimo di grado, o del metro che permette di leggere solo il mezzo cm);
      2) in assenza di errori sistematici.
      Ora, escludendo il metro del sarto, spesso l’errore di quantizzazione di uno strumento di misura viene mantenuto più piccolo dell’incertezza della misura: in questo modo possiamo fare tante misure che ci danno valori leggermente diversi, per es. 24.1, 24.3, 24.3, 24.2, 24.4 °C. Se queste misure non fossero affette da un errore sistematico, facendo moltissime misure avremmo effettivamente la possibilità di campionare la distribuzione dei valori e quindi, ammesso di conoscere la distribuzione dell’incertezza (cosa tutta da dimostrare), potremmo trovare il valore vero con un’incertezza minima.
      Tuttavia gli strumenti di misura hanno quasi sempre errori sistematici, e mi aspetto anzi che l’accuratezza di uno strumento di misura come il termometro sia limitata più che altro da errori sistematici, cioé da difetti di costruzione e taratura. Basta vedere a: http://en.wikipedia.org/wiki/Thermometer#Precision.2C_accuracy.2C_and_reproducibility
      E gli errori sistematici non si possono ridurre con la statistica, se non facendo una taratura più accurata, sempre che questo sia praticamente fattibile.
      Ovviamente se ci interessa misurare la variazione di una grandezza nel tempo e non il suo valore in sé, l’errore sistematico conta poco, purché:
      1) l’errore sistematico sia stabile col tempo (cosa anche questa tutta da dimostrare, e su lunghi periodi probabilmente falsa);
      2) la variazione dell’errore sistematico sia piccola nell’intervallo di misure che stiamo considerando (cioé che il termometro non sbagli sempre di +0.1°C a 24°C e di -0.1°C a 25°C);
      3) non si cambi lo strumento di misura…

    • Fabio Spina

      L’ipotesi sono che lo strumento non ha errori sistematici ed è perfettamente funzionante. Riprendendo il tuo esempio con 5 misure es. 24.1, 24.3, 24.3, 24.2, 24.4 °C, se sono scritte in questo modo suppongo l’errore è 0.1°C. Se calcolo la media avrò 24,30000000000°C, scelgo di scrivere 24,3°C perché QUESTO valore ha un ERRORE assoluto certo di 0,1°C, mi viene da come è calcolato. Ora considero le 5 misure come campione statistico, calcolo la standard deviation delle misure ed è 0,114018 °C, anche per questa l’incertezza sui valori iniziali che a questo valore si propaga mi impone che per dargli senso fisico debbo scrivere 0.1°C.
      Questa è la standard deviation del campione, per calcolare quella relativo al valor medio dovrei dividerla per la radice della consistenza del campione, radice di 5, quindi troverei standard deviation della media 0,05099. L’errore statistico, prendendo un livello di confidenza 95% e l’ipotesi gaussiana, sarà pari a (1,96*0,05099)=0,0999. Questo è simile sostanzialmente lo 0.1°C di errore assoluto, l’ho utilizzo nel caso sia maggiore o uguale all’errore assoluto. Nel caso in cui fosse minore, non ha alcun senso fisico utilizzarlo e debbo limitarmi all’errore assoluto. Come nel caso avessi avuto 100 misure con la stessa media e standard deviation del campione precedente (sempre 0,114018°C), avrei avuto una varianza per la media pari a 0,011402, quindi l’incertezza sulla media (liv.conf. 95%) 0,02 (due centesimi di grado). Siamo ad un assurdo perché l’errore assoluto è maggiore di quello statistico e debbo utilizzare il primo.
      Nell’articolo di Jones, vengono mischiate l’elaborazioni, lui prende 0.1°C errore sullo strumento e lo divide per la radice della consistenza del campione come se 0.1°C fosse la standard deviation del campione costante ogni mese. Spero si aver compreso quello che hai scritto.
      Ciao e grazie del contributo

  4. Guido Botteri

    Spesso, nel calcolare la media, “si escludono i valori estremi”, e cioè proprio i soli che vengono presi in considerazione da Phil Jones.

    • Fabio Spina

      Saggia osservazione! Credo che ci torneremo su un prossimo post, vedremo come un processo stocastico di 24 ore possa essere descritto dal valore max e min riuscendo ad evidenziare modifiche globali di 0.6°C/secolo.
      Con strumenti da errori di circa 1°C e “tempi di risposta” mai considerati. Buona domenica

  5. Guido Botteri

    Dice l’esimio Phil Jones che la “temperatura media giornaliera” è prassi che si calcoli come (Tmax+Tmin)/2.
    Bene, allo stesso modo calcolerò la media delle mie spese (immaginarie) di ieri:
    1. Cornetto euro 1
    2. Corso di polacco euro 40
    3. Pane euro 1
    4. Sapone euro 2
    5. Mele euro 2
    6. Scarpe nuove euro 120
    7. Carbonella euro 3
    8. Fiori euro 10
    9. Pranzo euro 21
    10. Assicurazione Auto (la pago in un’unica rata) euro 1.000
    In media, secondo i miei calcoli, ho speso 120 euro (la somma di tutte le spese diviso per il loro numero).
    Secondo Phil Jones ne ho spesi (max+min)/2 cioè (1000 +1)/2 = 500,5
    C’è una bella differenza, 500,5 invece di 120.

    • Tore Cocco

      No guardi anche per Jones la media è 120, la formula somma le misure e poi le divide, che poi tali misure siano la temperatura massima e minima non vuol dire che sta prendendo la misura piu alta e la piu bassa tralasciando le altre, ma semplicemente che sta prendendo le misure per sommarle e poi dividerle per il numero totale.
      Saluti

      Tore

    • Fabio Spina

      Come scrisse anche Paolo Mezzasalma su un commento al post http://www.climatemonitor.it/?p=10726 : “Per cominciare, la temperatura media mensile NON è, in genere, calcolata usando le letture agli orari sinottici (4 o 8). E’ STANDARD COMUNE usare il valor medio delle 30 Tmax e delle 30 Tmin, facendo la media aritmetica dei due valori.” Naturalmente questo comporta degli errori sulla stima della temperatura media che Guido Botteri mette in mostra giustamente. Inoltre la strumentazione tradizionale a massima e minima ha un errore sensibilmente maggiore al semplice termometro, però credo sia l’unico modo per calcolare la temperatura media giornaliera/mensile dalle rilevazioni storiche, così da fare una serie storica. In un post futuro comunque spero di sollevare nuovamente la problematica, in modo che si capiscano gli errori presenti sui valori spesso dati come certezze. Jones credo nel suo articolo prende come esempio il mese di 30 giorni, quindi per calcolare media mensile fa la media di 60 valori (30 Tmax e 30 Tmin), Guido Botteri nel commento lo fa un solo giorno ma il senso resta. Saluti

    • Tore Cocco

      Ma questa è cosa assai diversa, se allora la mettiamo in questo modo dovremmo fare la media delle misure effetuate senza soluzione di continuità temporale, il che sarebbè assurdo, ma prendere le temperature che si reputano possano essere esplicative di una condizione non equivale ad avere dei dati e poi scartartarne alcuni e prenderne altri.

    • Fabio Spina

      La definizione di temperatura media globale non può prescindere dal calcolo dell’integrale della curva Temp(t), non è assurdo, si dovrebbe fare ma poi si fanno delle approssimazioni per motivi storici e operativi. Queste approssimazioni sono legittime a patto che però se ne tenga conto nel calcolo degli errori, cosa che troppo spesso è volutamente trascurata.

Rispondi a Tore Cocco Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Categorie

Termini di utilizzo

Licenza Creative Commons
Climatemonitor di Guido Guidi è distribuito con Licenza Creative Commons Attribuzione - Non commerciale 4.0 Internazionale.
Permessi ulteriori rispetto alle finalità della presente licenza possono essere disponibili presso info@climatemonitor.it.
scrivi a info@climatemonitor.it
Translate »