In Metrologia l’analisi degli errori comprende lo studio delle incertezze nelle misure, in quanto, nessuna misura per quanto essa sia eseguita con cura è completamente libera da incertezze. Dal momento che tutte le scienze e la tecnica dipendono dalle misura, è fondamentale valutare e calcolare con buona approssimazione tali incertezze (errori) per ridurle al minimo possibile.
Table of Contents
La teoria degli errori di misura rappresenta un pilastro fondamentale del metodo scientifico sperimentale. Quando effettuiamo una misurazione, sia essa la più semplice o la più complessa, dobbiamo sempre tenere presente che il valore che otteniamo non sarà mai perfettamente coincidente con il valore “vero” della grandezza che stiamo misurando. Questa differenza inevitabile tra il valore misurato e il valore vero costituisce quello che chiamiamo errore di misura.
Per comprendere a fondo la natura degli errori di misura, dobbiamo innanzitutto accettare un principio fondamentale: l’incertezza è una componente intrinseca e ineliminabile di qualsiasi processo di misurazione. Questo non significa che le nostre misure siano inaffidabili, ma piuttosto che dobbiamo essere consapevoli dei limiti e delle incertezze associate ad esse.
Gli errori sistematici rappresentano una delle categorie più insidiose di errori di misura. Si manifestano come deviazioni costanti dal valore vero e possono persistere per lunghi periodi senza essere notati. Immaginiamo, ad esempio, una bilancia elettronica mal tarata: ogni pesata effettuata mostrerà lo stesso errore, in eccesso o in difetto, rispetto al peso reale. La caratteristica più problematica degli errori sistematici è che non possono essere ridotti semplicemente ripetendo le misurazioni, poiché influenzano tutte le misure allo stesso modo. Per individuarli è necessario un approccio critico e metodico, che può includere il confronto con strumenti diversi o l’utilizzo di metodi di misura alternativi.
Gli errori casuali, d’altra parte, si manifestano in modo più evidente ma sono più facilmente gestibili dal punto di vista statistico. Questi errori fanno sì che misurazioni ripetute nelle stesse condizioni diano risultati leggermente diversi tra loro. Pensate a quando misurate più volte il tempo di caduta di un oggetto: ogni misura sarà leggermente diversa dalle altre a causa di piccole variazioni nelle condizioni sperimentali, nei riflessi dell’operatore, nelle interferenze ambientali. La bellezza degli errori casuali sta nel fatto che seguono leggi statistiche ben definite, in particolare la distribuzione gaussiana o normale.
La sensibilità degli strumenti di misura gioca un ruolo cruciale nella determinazione degli errori. Ogni strumento ha un limite intrinseco di precisione, determinato dalla sua costruzione e dalla sua scala di misura. Quando leggiamo un righello graduato in millimetri, per esempio, non possiamo pretendere di misurare frazioni di millimetro con certezza assoluta. L’errore di sensibilità ci ricorda che esiste sempre un limite oltre il quale non possiamo spingere la precisione delle nostre misure.
Gli errori grossolani rappresentano una categoria particolare, in quanto sono gli unici teoricamente eliminabili completamente. Sono errori dovuti a disattenzione, inesperienza o negligenza dell’operatore. Potrebbe trattarsi di una lettura errata dello strumento, di un errore di trascrizione dei dati o di un calcolo sbagliato. La prevenzione di questi errori richiede attenzione, metodicità e procedure di controllo adeguate.
Gli errori di metodo derivano invece da una comprensione incompleta o errata del fenomeno che stiamo misurando o delle procedure di misura che stiamo utilizzando. Per esempio, se misuriamo la temperatura di un liquido senza considerare l’effetto del termometro stesso sul sistema, introduciamo un errore di metodo. Questi errori possono essere particolarmente subdoli perché spesso richiedono una profonda comprensione teorica del fenomeno per essere identificati e corretti.
La gestione degli errori di misura richiede un approccio sistematico ma flessibile. Non esiste una ricetta universale, ma alcuni principi fondamentali possono guidarci. In primo luogo, è essenziale ripetere le misurazioni quando possibile, per avere una stima della variabilità dei risultati. La scelta degli strumenti deve essere appropriata al tipo di misura che vogliamo effettuare, considerando non solo la precisione necessaria ma anche le condizioni di utilizzo.
L’analisi dei dati raccolti richiede competenze statistiche e spirito critico. Non basta calcolare una media: dobbiamo valutare la dispersione dei dati, identificare eventuali valori anomali, stimare l’incertezza complessiva della misura. La presentazione dei risultati, infine, deve essere chiara e completa, includendo sempre una stima dell’incertezza associata alla misura.
In conclusione, la comprensione degli errori di misura non è solo una questione tecnica, ma rappresenta un aspetto fondamentale del pensiero scientifico. Ci insegna che la precisione assoluta è un ideale irraggiungibile, ma che possiamo comunque ottenere risultati affidabili e significativi se siamo consapevoli dei limiti e delle incertezze delle nostre misurazioni. La teoria degli errori ci fornisce gli strumenti per quantificare queste incertezze e per prendere decisioni informate sulla base dei dati sperimentali.
Classificazione degli Errori di Misura
Gli errori di misura si verificano in qualunque processo di misurazione e possono essere classificati in diverse categorie a seconda della loro natura e origine. Ecco un elenco completo delle principali tipologie:
Errori Sistematici
Gli errori sistematici sono errori costanti o prevedibili che si ripetono in ogni misurazione effettuata nelle stesse condizioni. Questi errori tendono a spostare tutte le misure nella stessa direzione (tutte in eccesso o tutte in difetto) rispetto al valore reale.
Gli errori sistematici si ripresentano sempre con lo stesso segno e la stessa ampiezza, ove ovviamente la misura di una grandezza venga ripetuta più volte con la stessa strumentazione e nelle stesse condizioni operative ed ambientali.
Un errore viene detto sistematico se è nota la relazione funzionale tra l’entità dell’errore e l’intensità della grandezza fisica che ne è la causa.
L’errore sistematico è per sua natura valutabile in modo preciso e la sua conoscenza permette il passaggio dalla misura bruta alla misura corretta, tramite la curva di taratura. Una volta effettuata detta correzione, la misura rimane ancora affetta da un errore residuo dato dalla somma di tutti gli errori casuali.
Questi errori sono generalmente dovuti ad una non corretta taratura degli strumenti oppure a difetti intrinseci degli strumenti stessi (ad esempio, possono esserci dei difetti costruttivi oppure dei malfunzionamenti derivanti dall’aver usato gli strumenti in particolari condizioni operative o ambientali; elevate temperature, forti campi elettromagnetici, sovraccarichi e così via); questo significa, sostanzialmente, che in talune situazioni è possibile correggere tali errori o comunque minimizzarli.
- Cause Principali:
- Errori Strumentali: Imperfezioni o difetti negli strumenti di misura, come una calibrazione errata, usura o difetti di fabbricazione.
- Errori di Metodo: Procedure di misurazione inadeguate o approssimative che introducono un bias sistematico.
- Errori Ambientali: Condizioni ambientali costanti ma sfavorevoli, come temperatura, pressione o umidità che influenzano la misura.
- Errori Personali: Abitudini o inclinazioni dell’operatore che portano a una costante deviazione delle misure.
- Esempi:
- Un termometro mal calibrato che segna sempre 2°C in meno della temperatura reale.
- Un orologio che avanza di 5 secondi al giorno.
- Riduzione degli Errori Sistematici:
- Calibrazione regolare degli strumenti con campioni standard.
- Adozione di metodi di misura più accurati.
- Controllo delle condizioni ambientali durante le misurazioni.
- Formazione dell’operatore per evitare bias personali.
Errori Casuali o Accidentali
Gli errori accidentali (detti anche non sistematici o casuali) sono quelli che permangono anche nell’ipotesi di essere riusciti ad eliminare tutti gli errori grossolani e sistematici. Le cause di tali errori sono tipicamente le imprevedibili fluttuazioni nelle condizioni operative, strumentali ed ambientali.
Gli errori casuali sono dunque variazioni imprevedibili che influenzano le misure in modo aleatorio. A differenza degli errori sistematici, questi errori possono spostare le misure sia in eccesso che in difetto rispetto al valore reale.
- Cause Principali:
- Fluttuazioni Ambientali: Piccole variazioni imprevedibili di temperatura, pressione, umidità o vibrazioni.
- Limiti Strumentali: Risoluzione finita degli strumenti di misura.
- Limiti Umani: Tempi di reazione variabili, capacità percettive limitate.
- Esempi:
- Variazioni nelle letture di una bilancia sensibile a causa di microcorrenti d’aria.
- Differenze minime nelle misure di lunghezza a causa di piccoli tremori manuali.
- Riduzione degli Errori Casuali:
- Esecuzione di più misurazioni e calcolo della media aritmetica.
- Utilizzo di strumenti più precisi e con maggiore risoluzione.
- Isolamento dell’ambiente di misura per ridurre le influenze esterne.
Gli errori accidentali possono essere analizzati statisticamente, in quanto si è visto empiricamente che essi sono generalmente distribuiti secondo leggi semplici. In particolare, si fa spesso l’ipotesi che le cause di tali errori agiscano in modo del tutto aleatorio, determinando perciò scarti, rispetto al valore medio, sia negativi sia positivi. Questo ci autorizza ad aspettarci che gli effetti mediamente si annullino, ossia sostanzialmente che il valore medio degli errori accidentali sia nullo.
Questa considerazione ha una conseguenza fondamentale: se riusciamo a correggere tutti gli errori grossolani e quelli sistematici, per cui avremo a che fare solo con errori accidentali, ci basterà compiere misure ripetute e poi mediare i risultati: quante più misure considereremo, tanto meno il risultato finale (media dei singoli risultati) sarà affetto da errori accidentali.
Quanto più piccoli risultano gli errori accidentali, tanto più si dice che la misura è precisa.
In generale, dunque, nell’ipotesi di aver eliminato ogni tipo di errore grossolano, possiamo affermare che l’errore di una misura è somma di un errore sistematico (che si ripete ogni misura, in uguali condizioni operative) e di un errore accidentale (che invece varia casualmente in ogni misura, anche se le condizioni operative rimangono immutate):
\[E=E_S+E_A\]
Somma degli errori accidentali (o casuali)
I valori degli errori accidentali sono normalmente preceduti dal segno \(+\) o dal segno \(-\); per ottenere la somma totale di questi errori si dovrà valutare la radice quadrata della somma dei quadrati del contributo di ciascun errore:
\[\varepsilon_{tot} = \sqrt{\varepsilon_1^2+\varepsilon_2^2+…+\varepsilon_n^2}\]
La somma di detti errori è chiamata errore residuo. In Metrologia si definisce errore residuo quell’errore di misura dato dalla somma di tutti gli errori casuali riscontrati durante il procedimento di misurazione.
L’errore residuo può essere valutato sia a posteriori che a priori. Il metodo di valutazione dell’errore residuo a posteriori consiste nell’applicare i risultati del calcolo delle probabilità ad una popolazione di misure (affette solo da errori accidentali) onde ricavarne il valore più probabile. Lo svantaggio più evidente di tale metodo è legato alla necessità di effettuare un numero molto grande di osservazioni.
Il metodo di valutazione dell’errore residuo a priori consiste nel valutare singolarmente il contributo fornito dall’errore accidentale da ogni possibile causa sia interna che esterna allo strumento stesso. La validità del metodo a priori è legata alla possibilità di conoscere in modo completo tutte le grandezze che accidentalmente influiscono sulla misura. Nella pratica, la valutazione del contributo di ciascuna di queste grandezze, che per tale motivo vengono dette “grandezze d’influenza”, è possibile a patto di poter annullare l’effetto di tutte le grandezze tranne quella della quale si vuole valutarne l’influenza sulla misura.
Si definisce, invece, errore relativo di una misura il rapporto tra errore assoluto (differenza tra valore misurato e valore vero della grandezza) ed il valore misurato per la grandezza; viene normalmente espresso in percentuale.
Si osserva che nella pratica l’errore relativo è il più utilizzato in quanto fornisce immediatamente l’idea dell’importanza dell’errore commesso nel compiere una misurazione.
Errori Grossolani
Gli errori grossolani sono quelli addebitabili a malfunzionamenti evidenti durante il processo di misurazione, imperizia, negligenze o distrazione dell’operatore che sta compiendo la misura; possono ad esempio derivare da una sbagliata lettura o da un uso improprio degli strumenti, oppure da trascrizioni errate dai dati sperimentali o anche da errate elaborazioni di tali dati.
È evidente perciò che tali errori non si presentano quando si opera con cura e attenzione e comunque possono essere eliminati semplicemente ripetendo la misura.
- Cause Principali:
- Errori dell’Operatore: Letture sbagliate, trascrizioni errate, uso improprio dello strumento.
- Guasti Strumentali: Malfunzionamenti improvvisi o danneggiamenti degli strumenti.
- Eventi Inattesi: Disturbi o interferenze esterne non controllate.
- Esempi:
- Annotare 21 invece di 12 durante la registrazione dei dati.
- Dimenticare di tarare uno strumento prima dell’uso.
- Riduzione degli Errori Grossolani:
- Formazione e attenzione dell’operatore.
- Procedure standardizzate e checklist operative.
- Manutenzione regolare degli strumenti.
Errori statici
Vengono definiti errori statici quegli errori valutati in condizioni statiche, ossia, mediante effettuazione della misurazione di una grandezza costante; essi sono:
Errore di lettura
È quello che si compie nel valutare la posizione relativa dell’indice dello strumento di misura rispetto alla scala; tale errore è in generale dovuto a quattro cause:
- potere risolutivo dell’occhio umano: è definito come l’angolo di minima separazione tra due punti che l’occhio è capace di discernere come due oggetti separati e distinti (è di circa 0,1 mm che corrispondono a 100 μm, tuttavia con molte variabili fisiologiche);
- errore di parallasse: è dovuto al fatto che l’indice e la scala dello strumento si trovano su piani differenti (lo sguardo dell’operatore dovrebbe essere sempre perpendicolare alla scala per una misura corretta);
- incertezza di interpolazione: quando la scala dello strumento è lineare, è dell’ordine del ±10% della distanza tra due successive divisioni. Se la scala non è lineare, tale valore di incertezza può aumentare anche notevolmente. Per ridurre l’errore d’interpolazione si possono usare sistemi di lettura con nonii, viti micrometriche e scale ticoniche;
- rumore di fondo: è l’insieme di tutte quelle cause che impongono movimenti all’indice sovrapponendosi allo spostamento prodotto dal misurando. Per quanto riguarda la stima del valore dell’errore prodotto dal rumore di fondo, nei casi semplici e cioè quando si tratta di apprezzare il valor medio del segnale osservato o registrato, si ammette pari a ±10% calcolato sulla doppia ampiezza dell’oscillazione.
Errore di mobilità
È dovuto principalmente all’attrito che si sviluppa tra gli organi mobili componenti lo strumento ed agli inevitabili giochi tra di essi.
Errore di isteresi
È dovuto al fatto che in generale un materiale, se sollecitato, continua nel tempo a deformarsi anche se la sollecitazione rimane costante; quindi l’indicazione fornita dallo strumento “ricorda” le indicazioni precedenti.
In Metrologia l’errore di isteresi di uno strumento di misura viene definito come la differenza massima tra il valore rilevato dal trasduttore quando viene applicato uno specifico valore della grandezza in ingresso raggiunto imponendo ingressi crescenti, ed il medesimo valore ottenuto imponendo ingressi decrescenti.
In altre parole l’errore di isteresi è dato dalla differenza massima tra il valore misurato in senso crescente ed il rispettivo valore misurato in senso decrescente.
L’effetto dovuto all’isteresi viene espresso in % del fondo scala.
Errore di fedeltà
In Metrologia, si dice che uno strumento di misura è tanto più fedele quanto più esso fornisce indicazioni di valore poco discordante tra di esse nel corso di più misurazioni di una grandezza fisica costante. L’errore di fedeltà viene valutato effettuando un certo numero di misurazioni del medesimo misurando supposto costante: l’errore dunque sarà rappresentato dalla semidifferenza (metà del risultato di una sottrazione) tra il valore massimo e minimo delle corrispondenti misure. L’errore di fedeltà è principalmente dovuto alle grandezze d’influenza esterne: temperatura, campo magnetico, pressione, accelerazione angolare o lineare, eccetera. Queste grandezze agiranno contemporaneamente e con diversa intensità da istante ad istante, per cui lo strumento fornirà nel tempo indicazioni diverse della stessa grandezza; quindi, uno strumento risulterà tanto più fedele quanto più esso è stato costruito in modo da essere insensibile alle grandezze di influenza.
Errore di zero
Per errore di zero si intende quell’errore che si commette quando vengono effettuate misurazioni in genere di lunga durata e si verifica che lo zero dello strumento di misura subisca un fenomeno di deriva, detto deriva di zero. La deriva di zero è lo scostamento dell’indice dalla posizione di zero, ovvero dall’origine della curva di graduazione. L’errore di zero viene valutato in unità della grandezza da misurare.
Errore di giustezza o taratura
L’operazione di taratura può comportare due tipologie di errori:
- quello dovuto alla grandezza di riferimento, oppure allo strumento campione che la sostituisce, indicato con \(\pm\alpha\);
- quello compiuto durante l’operazione di tracciamento della scala dello strumento, indicato con \(\pm\beta\).
Pertanto quando verrà tracciata la curva di taratura dello strumento, si avrà un errore sistematico \(y-y_b\) che rappresenterà la differenza rispetto allo strumento campione e l’altro pari a: \(\varepsilon =\pm\sqrt{\alpha^2+\beta^2}\)
In definitiva l’errore totale dovuto alla taratura è pari a:
\[\varepsilon_{tot}=y-y_b\pm\sqrt{\alpha^2+\beta^2}\]
Ad ogni modo l’errore complessivo compiuto dallo strumento si ottiene sommando l’errore di giustezza a tutti gli altri errori elementari esaminati e viene normalmente espresso come “classe di precisione” dello strumento (definita dal rapporto tra l’ampiezza della somma di detti errori valutata in unità di scala e campo di misura, e viene normalmente espressa in percentuale sul valore di fondo scala).
Errori dinamici
Viceversa, nel caso in cui vengano misurate grandezze “dinamiche” (variabili) si aggiungono le seguenti cause di errore dinamico:
Errore di finezza (o di inserzione)
È dovuto alla presenza dello strumento di misura stesso, all’interno dell’ambiente in cui si effettua la misurazione; in altre parole lo strumento di misura modifica le condizioni di misura e di conseguenza modifica anche il valore finale del misurando. Pertanto si dice che uno strumento di misura è tanto più “fino” quanto meno perturba il fenomeno che si intende misurare; ossia quanto più è piccola l’entità della reazione provocata dalla sua presenza. Questa reazione può essere valutata se sono note le caratteristiche dello strumento ed in particolare del suo sensore (o trasduttore).
Errore di rapidità
È quella qualità metrologica di uno strumento che esprime la sua capacità di seguire le variazioni (dinamiche) nel tempo del misurando; la sua conoscenza è essenziale perché permette di valutare i limiti entro i quali uno strumento di misura può essere idoneo alla misurazioni di grandezze variabili nel tempo (grandezze dinamiche).Un’altra definizione pratica dell’errore di rapidità stabilisce che: esso è tanto più piccolo quanto più è veloce l’indice dello strumento di misura nel cambiare la sua posizione sulla scala graduata dello strumento.La rapidità, limitata dall’inerzia delle parti mobili dello strumento e dallo smorzamento a cui esse sono sottoposte, è caratterizzata in modo diverso dipendentemente dal tipo di variazioni temporali della grandezza.
- Nel caso in cui la grandezza da misurare è costante, la rapidità dello strumento è caratterizzata dal tempo di risposta. Questo è definito dal tempo necessario, per l’indice, per raggiungere la posizione definitiva una volta messo in contatto con il misurando.
- Nel caso in cui la grandezza da misurare sia lentamente variabile nel tempo, la rapidità è caratterizzata dal ritardo con il quale l’indice dello strumento la segue. Questo ritardo è costante se tale è la variazione della grandezza in esame, ed è tanto maggiore quanto maggiore è detta variazione. Se invece la variazione della grandezza è periodica, l’indice dello strumento fornisce una misura il cui valore massimo è inferiore al valore massimo della grandezza: il ritardo dipende dalla frequenza di questa variazione.
- Nel caso infine di grandezze rapidamente variabili nel tempo, la rapidità è definita dal comportamento delle parti mobili dello strumento quando la grandezza varia sinusoidalmente. In generale il rapporto tra l’indicazione fornita dallo strumento ed il valore della grandezza in entrata diminuisce quando la frequenza aumenta.
Banda di errore
Intervallo di deviazione massima dell’output del trasduttore da una curva di riferimento dovuto al trasduttore stesso; detta deviazione (che in generale viene espressa in percento del fondo scala) può essere causata da non linearità, non ripetibilità, isteresi, eccetera; viene determinata mediante più cicli di calibrazione consecutivi così da includere anche la ripetibilità.
Si può anche verificare la circostanza che il trasduttore debba operare solo in un campo di variazione della grandezza in ingresso che è contenuto nel campo di misura; ne consegue che variando il valore dell’errore statico ritenuto accettabile si possono avere diversi campi di utilizzo.
Errori Intrinseci dello Strumento
Questi errori sono legati alla natura costruttiva dello strumento di misura e comprendono:
- Errore di Zero:
- Lo strumento non si azzera correttamente prima di iniziare la misura.
- Errore di Sensibilità:
- La risposta dello strumento non è proporzionale alla grandezza misurata.
- Errore di Scala:
- Divisioni della scala non uniformi o mal calibrate.
Errori di Isteresi
Gli errori di isteresi, noti anche come errori di trascinamento o errori di ritardo, rappresentano una categoria di errori sistematici che si verificano quando uno strumento di misura non risponde immediatamente o in modo identico alle variazioni ascendenti e discendenti della grandezza misurata. Questo fenomeno comporta che la lettura dello strumento dipenda non solo dal valore attuale della grandezza, ma anche dalla sua storia recente.
Cause Principali
- Inerzia Meccanica:
- Attrito Statico e Dinamico: Nei componenti meccanici, l’attrito può impedire movimenti rapidi o precisi, causando ritardi nella risposta.
- Gioco Meccanico: Spazi vuoti tra le parti mobili che provocano movimenti non lineari o ritardati.
- Proprietà Magnetiche e Elettriche:
- Isteresi Magnetica: Nei materiali ferromagnetici, il flusso magnetico non segue immediatamente le variazioni del campo magnetico applicato.
- Capacità e Induttanza: Nei circuiti elettrici, elementi capacitivi o induttivi possono introdurre ritardi nella risposta del segnale.
- Inerzia Termica:
- Massa Termica: I componenti con grande massa termica impiegano tempo per raggiungere l’equilibrio termico, ritardando la risposta a variazioni di temperatura.
- Proprietà Chimiche e Fisiche dei Materiali:
- Assorbimento e Rilascio di Sostanze: Sensori che assorbono gas o liquidi possono avere tempi di risposta lenti.
- Effetti Viscoelastici:
- Deformazioni Ritardate: In materiali elastomerici o polimerici, le deformazioni possono non essere immediate al cambiamento delle forze applicate.
Impatti sugli Esiti delle Misurazioni
- Ridotta Accuratezza: Gli errori di trascinamento possono causare deviazioni sistematiche, compromettendo l’accuratezza delle misure.
- Difficoltà nelle Misure Dinamiche: In processi dove le grandezze variano rapidamente, l’errore di trascinamento può impedire di seguire fedelmente le variazioni.
- Incertezza Aumentata: La differenza tra il percorso in salita e quello in discesa introduce una maggiore incertezza nelle misurazioni.
Metodi per Ridurre o Compensare gli Errori di Trascinamento
- Progettazione e Selezione degli Strumenti Adeguati:
- Strumenti con Bassa Isteresi: Utilizzare materiali e componenti con proprietà che minimizzano l’isteresi.
- Sensori Veloci: Scegliere sensori con tempi di risposta rapidi per misure dinamiche.
- Calibrazione Bidirezionale:
- Curva di Calibrazione Ascendente e Discendente: Eseguire la calibrazione sia in aumento che in diminuzione della grandezza, creando una mappatura dell’isteresi.
- Metodi di Misura Differenziali:
- Eliminazione dell’Isteresi: Utilizzare tecniche che misurano la differenza tra due stati, riducendo l’effetto dell’errore di trascinamento.
- Condizioni Operative Controllate:
- Stabilizzazione delle Variazioni: Ridurre la velocità di variazione della grandezza per permettere allo strumento di adattarsi.
- Manutenzione Regolare:
- Lubrificazione e Pulizia: Ridurre l’attrito nei componenti meccanici attraverso una manutenzione adeguata.
- Compensazione Elettronica o Software:
- Algoritmi di Correzione: Implementare algoritmi che correggono l’errore di trascinamento basandosi su modelli predittivi.
Errori di Approssimazione
Si verificano quando una misura è arrotondata o approssimata per adattarsi al livello di precisione dello strumento. Possono essere suddivisi in:
- Errore di Troncamento:
- Dovuto al taglio di cifre significative nei calcoli numerici.
- Errore di Arrotondamento:
- Legato alla rappresentazione numerica dei dati.
Errori di Taratura
Questi errori derivano da una taratura inadeguata dello strumento rispetto a un campione standard. Si verificano quando:
- Lo strumento non è confrontato con un riferimento adeguato.
- La taratura è eseguita in condizioni diverse da quelle di misura.
Errori Indotti
Sono errori che si generano a causa di interazioni tra lo strumento di misura e il sistema osservato. Esempi:
- Inserire un termometro in un liquido può modificarne la temperatura.
- Collegare un voltmetro a un circuito può alterare la tensione.
Errori Legati alla Risoluzione dello Strumento
Ogni strumento ha una precisione limitata, e l’errore è dato dall’incapacità di distinguere variazioni più piccole di una certa soglia.
Errori di Digitazione o Trascrizione
Si verificano quando i dati misurati vengono registrati o trascritti erroneamente.
Errori Psico-Fisiologici
Dipendono dall’operatore e sono legati a fattori umani, come la stanchezza, il livello di attenzione o il condizionamento psicologico.