­

LA MISURA DELLE GRANDEZZE FISICHE

 

    La rivoluzione nel metodo di studio dei fenomeni naturali fu attuata, agli inizi del diciassettesimo secolo, da Galileo Galilei. Prima di lui, sulla scia degli insegnamenti aristotelici, la scienza era considerata una disciplina sostanzialmente descrittiva e consisteva, in pratica, nell'osservazione dei fenomeni naturali e nella ricerca di un'interpretazione plausibile degli stessi: con lo scienziato toscano invece essa progredì enormemente perché, alle osservazioni di carattere qualitativo si aggiunsero quelle di natura quantitativa, che esigevano la misurazione degli oggetti di studio.

    La misurazione, nell'ambito della ricerca scientifica, rappresentò un fatto di enorme importanza soprattutto per le garanzie di obiettività che essa forniva, tanto che nel secolo scorso il fisico e matematico irlandese William Thomson, più noto con il nome di lord Kelvin, così descriveva l'oscuro lavoro del ricercatore scientifico: "Io affermo che quando voi potete misurare ed esprimere in numeri ciò di cui state parlando, solo allora sapete effettivamente qualcosa relativamente all'oggetto della vostra indagine."

    La ricerca scientifica pone quindi dei limiti alla sua stessa attività in quanto stabilisce che ci si occupi esclusivamente di ciò che è possibile misurare; le entità di cui non è possibile cogliere la misura (come, ad esempio, l'anima, la giustizia o gli UFO) esulano dal campo dell'indagine scientifica. Vediamo quindi in che cosa consista esattamente la misura di un oggetto e come si operi per realizzarla.

    Iniziamo col dire che le proprietà della materia che possono essere determinate quantitativamente si chiamano grandezze (o parametri) e possono essere fisiche o chimiche. Esse sono dette anche variabili, perché appunto possono assumere valori diversi. La massa, il volume e la temperatura di un corpo, sono esempi di grandezze fisiche, mentre il grado di acidità (pH) di una soluzione o il numero di ossidazione di un elemento sono esempi di grandezze chimiche.

    Ora, misurare una grandezza, relativa all'oggetto di studio, significa confrontare quella grandezza con un'altra di riferimento, ad essa omogenea, detta unità di misura. Come risultato dell'operazione si ottiene un numero. Questo numero, considerato singolarmente, non ha alcun significato concreto ma, se è seguito dall'unità di misura, rappresenta l'entità della grandezza considerata. Per fare un esempio, dire che una persona pesa 80 non significa nulla, ma dire che pesa 80 kg significa che pesa 80 volte di più della quantità che è stata presa per convenzione uguale a 1 kg, cioè l'unità di peso.

    Attualmente quasi tutti gli Stati del mondo riconoscono e usano il Sistema Internazionale di Unità, abbreviato in SI (iniziali di Système International). Il vantaggio di avere un sistema di misura internazionale è quello di dare la possibilità a scienziati e tecnici di tutto il mondo di comunicare con facilità i risultati della loro attività. Sappiamo infatti quanto è importante, per il progresso della scienza, che i risultati della ricerca possano venire diffusi, e gli esperimenti ripetuti in luoghi diversi.

    Un aspetto che molto spesso si trascura di chiarire, nello studio delle scienze sperimentali, è che il risultato di una misurazione non può mai essere di assoluta precisione perché qualsiasi misura è sempre gravata da un errore più o meno grande. Questo è una conseguenza del fatto che ad operare la misurazione di una grandezza deve essere necessariamente l'uomo il quale, come ben sappiamo, non è perfetto; così come non è perfetto lo strumento di cui si serve per eseguire la misura.

    Per convincervi che il valore numerico di una grandezza è un'approssimazione provatevi a misurare la lunghezza del foglio di carta che sta sotto i vostri occhi, facendo uso di un doppio decimetro con scala millimetrica. Operando con attenzione si potrebbe ottenere, ad esempio, la misura di 29,68 cm. Ebbene l'ultima cifra di questa misura, l'8, non è un valore sicuro al cento per cento nel senso che, ripetendo più volte la misura o facendola eseguire da altre persone, si potrebbero ottenere valori diversi: per esempio 29,67, 29,69 o anche 29,66 cm. Qual è allora fra tutte le misure ottenute quella più attendibile? O, per essere più espliciti, qual è la misura giusta?

    Evidentemente nessuna di quelle indicate, altrimenti dovremmo dare più credito ad un operatore piuttosto che ad un altro. In effetti tutti noi potremmo essere d'accordo nel dire che la misura del foglio è sicuramente compresa fra 29,6 e 29,7 cm, ma non tutti saremmo invece d'accordo se dovessimo indicare il punto preciso, fra le due tacche del righello, corrispondenti ai valori di 29,6 e 29,7 cm, in cui cade il bordo estremo del foglio.

    Gli scienziati esprimono l'incertezza (o errore) della misura con una notazione particolare che noi riporteremo riferita alla misura del nostro foglio. Nel caso in esame dovremmo scrivere il valore probabile della lunghezza del foglio e quindi, appresso a quel valore, indicare l'incertezza della misura, per esempio nel modo seguente: 29,67 ± 0,02 cm. La notazione suggerisce che il valore reale dovrebbe essere compreso fra 29,67 - 0,02 = 29,65 cm e 29,67 + 0,02 = 29,69 cm. Questa convenzione tuttavia è poco pratica, ragione per cui normalmente se ne adotta un'altra, molto più sbrigativa, che consiste nel prendere per buono il valore medio dei risultati delle singole misure e sottintendere, all'interno di quel valore, l'errore.

    Nell'esempio da noi proposto il valore della misura del foglio verrebbe espresso semplicemente con un numero di quattro cifre e precisamente: 29,67 cm (valore medio probabile della grandezza misurata). Queste quattro cifre sono dette cifre significative: di esse le prime tre rappresentano valori sicuri della misura mentre la quarta contiene un certo grado di incertezza nel senso che quella cifra potrebbe essere anche 8 o 6. Con questa convenzione si assume infatti che l'ultima cifra possa contenere solo l'incertezza di ± 1. 

    Il numero delle cifre significative dipende ovviamente dalla scala dello strumento di misura utilizzato, cioè da quello che viene definito il limite di apprezzabilità (o limite di sensibilità) dell'apparecchio. Questo limite corrisponde alla minima quantità che l'apparecchio riesce ad apprezzare. E' ovvio, ad esempio, che non si possono pretendere misure di lunghezza con cinque o sei cifre significative usando il metro del sarto (uno strumento di misura, come tutti sanno, non molto preciso), perché molte di quelle cifre non avrebbero alcun significato. E' "proibito" infatti, in generale, nell'operazione di misurazione, assumere un numero di cifre significative superiore a quello compatibile con la precisione dello strumento di misura utilizzato (la cosiddetta portata dello strumento di misura, un parametro legato alla sua sensibilità): l'aggiunta di altre cifre sarebbe un'operazione del tutto arbitraria e non rappresenterebbe affatto una maggiore precisione della misura. Nessuno si sognerebbe, ad esempio, usando il doppio decimetro, di attribuire al foglio di carta che ha sotto gli occhi la misura di 29,687524 cm: le ultime quattro cifre che abbiamo scritto, infatti, sono state letteralmente inventate.

 

ERRORI NELLE MISURE

    Le possibilità di errore, durante l'operazione di rilevamento di una misura, sono molteplici, tuttavia, gli errori in sé possono essere classificati in due soli tipi fondamentali: errori sistematici ed errori accidentali.

    Gli errori sistematici sono quelli che compaiono in ogni singola misura e sono dovuti all'impiego di strumenti poco precisi, mal tarati, o inadatti alla misura in questione. Di questo tipo di errori fanno parte anche quelli dovuti all'imperizia o alla negligenza dello sperimentatore o quelli che derivano dall'aver trascurato l'influenza, sul risultato, di fattori esterni come ad esempio la pressione nel caso della misurazione della temperatura dell'acqua.

    Come tutti sanno, infatti, se si volesse misurare la temperatura di ebollizione dell'acqua, bisognerebbe accertarsi innanzitutto che si tratti di acqua distillata (le soluzioni bollono a temperature tanto più alte quanto più sono concentrate) e successivamente che la pressione a cui è sottoposto il liquido sia di 1 atm altrimenti, anche facendo uso di un termometro molto preciso, il risultato non sarebbe mai di 100 °C, perché l'acqua distillata bolle a 100 °C solo se la pressione esterna è di 1 atm.

   Gli errori sistematici influiscono sulla misurazione sempre nello stesso senso e, in genere, con la stessa entità. Possono, tuttavia, essere ridotti, per esempio sostituendo lo strumento di misura o tarando meglio quello in uso, ma non possono, in nessun caso, essere eliminati del tutto.

    Gli errori accidentali (detti anche casuali) sono quelli non prevedibili e di entità variabile. Essi sono dovuti sia allo stato psicofisico dello sperimentatore (mai perfetto), sia alla inevitabile e imprevedibile imprecisione degli strumenti usati. Questi errori possono anche essere dovuti alla variazione casuale e di breve durata di fattori esterni come la pressione, l'umidità o la temperatura dell’aria, di cui lo sperimentatore non ha tenuto conto durante l'esecuzione della misura. Questo tipo di errore può influire sulla misura ora in un senso, ora nell'altro; e può essere ridotto al minimo ripetendo più volte la misura e facendo quindi la media aritmetica dei valori trovati.

    Fra i due tipi di errori, quelli sistematici e quelli accidentali, come si sarà notato, vi è una notevole differenza. Agli errori sistematici è infatti associato il concetto di accuratezza, mentre agli errori accidentali è associato quello di precisione. Diremo allora che una misura è accurata quando è stata eseguita in condizioni sperimentali adatte e facendo uso di strumenti idonei. Diremo invece che una misura è precisa quando l'esecutore della misura stessa è in grado di indicare l'entità degli errori dai quali essa è affetta; potremmo anche dire che una misura è ritenuta precisa quando ripetute esecuzioni della stessa danno valori concordanti. Da quanto abbiamo detto si deduce, quindi, che una misura potrebbe essere precisa, ma non accurata.

    Chiariamo ulteriormente il concetto con un esempio. Consideriamo di nuovo il nostro foglio di carta e supponiamo che sia stato misurato più volte da operatori diversi e molto esperti, e con strumenti ben tarati. Immaginiamo anche che alla fine i nostri sperimentatori abbiano deciso che la misura vera del foglio non dovrebbe essere molto lontana dal valore di 29,67 cm.

    A questo punto chiediamo ad uno studente di effettuare una serie di misure sullo stesso foglio e immaginiamo che i valori in centimetri siano stati i seguenti: 29,68; 29,67; 29,68; 29,68; 29,67. Ebbene, in questo caso, la serie di misure eseguite dal nostro studente deve essere giudicata sia accurata che precisa. Essa è accurata perché è molto vicina alla misura indicata come vera dagli esperti; precisa perché lo studente ha ottenuto valori variabili entro un intervallo molto ristretto.

    Un secondo studente verificando, a sua volta, le misure sullo stesso foglio ottiene i seguenti valori in centimetri: 29,58; 29,58; 29,59; 29,58; 29,59. Il risultato conseguito è ancora molto preciso, ma niente affatto accurato, perché troppo lontani, i valori, dalla misura indicata dagli esperti: la scarsa accuratezza potrebbe essere dipesa, ad esempio, dall'uso di uno strumento mal tarato.

    Infine, un terzo studente, ottiene i seguenti valori, espressi sempre in centimetri: 29,63; 29,67; 29,61; 29,72; 29,68. Questa serie di misure deve essere considerata del tutto inaccettabile in quanto imprecisa e anche poco accurata.

    Stabilito quindi che non vi è modo alcuno di cogliere la misura "vera" di un oggetto fisico, possiamo però chiederci fino a che punto sia possibile pretendere la precisione in una operazione di misurazione. In altre parole, quanto precisa può essere, anche solo in linea di principio, una misurazione? La questione può essere affrontata su due piani diversi: l'uno pratico, l'altro teorico.

    Da un punto di vista pratico, si deve partire dal presupposto che per eseguire una misura esatta si dovrebbe disporre di un apparecchio di misura perfetto. Ma uno strumento perfetto, come abbiamo già avuto modo di dire, è irrealizzabile. Comunque, anche qualora si potesse effettivamente disporre di uno strumento perfetto, questo ancora non sarebbe sufficiente per ottenere una misura esatta perché anche l'operatore dovrebbe essere, a sua volta, perfetto: ma l'operatore è l'uomo.

    Vediamo ora come potrebbero svolgersi le cose da un punto di vista prettamente teorico. Immaginiamo, allora, un esperimento concettuale che ci consenta una misurazione ideale, con uno strumento assolutamente perfetto. Immaginiamo anche l'uomo in perfette condizioni fisiche: vista perfetta, riflessi pronti, mano ferma ecc. Riuscirà questa persona a cogliere la misura esatta dell'oggetto in esame? Prima di rispondere dobbiamo chiederci: "Esiste in realtà il valore esatto di una grandezza fisica?"

    La risposta è negativa e ci viene fornita dalla meccanica quantistica che è una teoria che si occupa del comportamento degli oggetti molto piccoli, come sono ad esempio gli atomi. Ebbene, la teoria insegna che tutte le misure sono soggette ad un tasso più o meno elevato di indeterminazione. Questo significa che è impossibile misurare con precisione assoluta un oggetto fino nei suoi costituenti intimi perché nella costituzione stessa della materia sono insite delle approssimazioni che non dipendono da difetti delle apparecchiature con le quali si procede alla misura, ma dal modo stesso in cui è fatta la materia.

    In altri termini, in base alla teoria della meccanica quantistica, è l'atomo stesso un'entità dai contorni sfumati e quindi non può avere dimensioni esatte. Di esso cioè non sarà mai possibile conoscere l'esatta grandezza, né il suo vero peso, né sarà mai possibile, in generale, compiere su di esso un'operazione di misura perfetta. E' evidente allora che una misura, per quanto precisa la si possa immaginare, non potrebbe, in nessun caso, arrivare al di sotto delle dimensioni di un atomo.

    Per chiarire ulteriormente il concetto possiamo immaginare di misurare la temperatura dell’acqua. Riempiamo allora la vasca da bagno di acqua calda ed immergiamo in essa il bulbo di un termometro che ci fornirà la sua temperatura. Siamo sicuri che quella registrata sia esattamente la temperatura dell’acqua contenuta nella vasca? Il termometro, per cogliere la temperatura, in realtà ha sottratto del calore all’acqua che quindi è diventata un po’ più fredda. Certo, questo piccolo abbassamento della temperatura può essere trascurato anche perché di gran lunga inferiore alla precisione dello strumento usato.

    Ma immaginiamo ora di dovere misurare la temperatura di una goccia d’acqua. Di certo non potremo usare lo stesso termometro di prima, perché in questo caso esso sottrarrebbe dall’acqua una quantità di calore non trascurabile. Per avere un risultato apprezzabile si dovrebbe far uso di un termometro di piccole dimensioni, molto più piccolo della goccia d’acqua. La cosa sarebbe ancora fattibile.

     Se però si volesse misurare la temperatura di un atomo non potremmo disporre di un termometro di più piccole dimensioni. Pertanto, qualunque strumento usassimo, questo modificherebbe in modo decisivo la sua reale temperatura. La meccanica quantistica, come abbiamo visto, suggerisce infatti che è impossibile misurare con precisione assoluta gli oggetti molto piccoli come ad esempio gli elettroni, i protoni, o gli atomi stessi.

 

DETERMINAZIONE DELLE CIFRE SIGNIFICATIVE

    Abbiamo detto che le cifre ottenute da una misurazione si chiamano cifre significative, perché sono quelle che hanno significato in quanto effettivamente registrate dallo strumento utilizzato per compiere la misura. Il numero di tali cifre è dato da quelle note con sicurezza più una incerta. Se, ad esempio, la massa di un oggetto, pesato con una bilancia tecnica che presenta un limite di apprezzabilità di 0,01 g, risultasse di 12,47 g, le cifre significative corrispondenti a questo valore sperimentale sarebbero quattro di cui l'ultima, il 7, si presenterebbe incerta di un valore ± 0,01 g. Lo stesso oggetto, pesato con una bilancia con limite di apprezzabilità maggiore, ad esempio, 0,0001 g (0,1 mg), assumerebbe un valore più preciso, diciamo 12,4739 g. In questo caso le cifre significative sarebbero sei con l'ultima, cioè il 9, incerta di un valore ± 0,1 mg. 

    Quando si ha a che fare con numeri molto grandi o con numeri molto piccoli relativi ad una misura, non è sempre così facile decidere sul numero delle cifre significative. Prendiamo, ad esempio, il numero di Avogadro:

                                                                                    602.200.000.000.000.000.000.000

    Si tratta, come sappiamo, del numero che individua le particelle presenti in una mole di una sostanza qualsiasi. E' un numero di 24 cifre che potrebbe essere letto nel modo seguente: seicentoduemila e duecento miliardi di miliardi.

    Le cifre che lo compongono sono tutte cifre significative? Evidentemente no perché, per quanto precisa e scrupolosa possa essere stata la misura di questa grandezza, nessuno può pensare che la 24ª cifra di quel numero rappresenti un'entità con reale significato. In effetti, la massima precisione che si è potuta realizzare nella determinazione di questa grandezza non si è mai spinta al di là di un valore con quattro cifre significative.

    Pertanto, nei casi in cui devono essere indicati valori sperimentali espressi da numeri molto grandi (cioè con molti zeri, come nel caso del numero di Avogadro), per evitare malintesi, quei numeri devono essere rappresentati in notazione scientifica (detta anche notazione esponenziale, perché usa le potenze del 10).

    Si deve allora dividere il numero in due fattori, di cui il primo fornisce le cifre significative della misura e il secondo indica semplicemente di quanti posti debba essere spostata verso destra la virgola per stabilire i decimali.

    Il numero di Avogadro, per esempio, in notazione scientifica, dovrebbe essere scritto correttamente nel modo seguente:

N = 6,022·1023 particelle

    La stessa regola vale per i numeri molto piccoli, cioè per quei numeri che presentano molti zeri iniziali come, ad esempio, per la seguente grandezza: 0,0002967 km.

    Gli zeri, che compaiono come prime cifre di un numero decimale, non sono considerati cifre significative perché essi servono semplicemente a fissare la posizione della virgola.   Per rendersene conto si provi ad esprimere in kilometri la lunghezza del nostro foglio di carta; essa risulta proprio quella riportata sopra, cioè 0,0002967 km. Questa misura ovviamente non contiene otto cifre significative, ma solo quattro, esattamente come quando era stata espressa in centimetri. Per non creare equivoci si procede, anche in questi casi, a scrivere la misura nella notazione scientifica. Nel nostro esempio essa risulta:

2,967·10-4 km

che, come è facile verificare, comprende solo quattro cifre significative.

    Ricapitolando, per quanto riguarda le cifre significative, si può dire che gli zeri che si trovano a sinistra di una qualsiasi altra cifra, non contano mai come cifre significative. Ad esempio, la grandezza 0,00000012 cm ha solo due cifre significative.

    Se invece gli zeri si trovano a destra di una qualsiasi altra cifra, allora bisogna distinguere: essi potrebbero o no essere considerati cifre significative e ciò dipende, caso per caso, dalla precisione con cui sia stata effettuata la misura. Se ad esempio venisse fornito, del peso di un oggetto, il valore di 1000 g e questo peso fosse stato ottenuto con una bilancia di precisione, in grado di valutare il grammo, allora tutte e quattro le cifre del nostro numero dovrebbero essere considerate cifre significative. Ma se il valore fosse stato ottenuto con una bilancia molto meno precisa (ad esempio del tipo di quelle che si usano in casa), allora le cifre significative sarebbero sicuramente di meno, forse, al massimo, solo due o tre. In tal caso, se il valore, invece che in grammi, venisse espresso in kilogrammi, si eviterebbero contestazioni e dubbi. Se, infatti, il peso del nostro oggetto venisse presentato con la seguente scrittura: «1,00 kg», questo non comporterebbe alcun equivoco in quanto gli zeri, posti dopo la virgola, hanno lo scopo proprio di indicare la precisione con cui è stata eseguita la misura stessa, la quale, in questo caso, si presenta con tre cifre significative. 

 

OPERAZIONI DI CALCOLO CON LE MISURE  

    Vediamo ora come si procede quando si devono eseguire operazioni aritmetiche con le misure sperimentali. Poiché, come abbiamo detto, il valore di una misura non deve essere inteso come fosse un numero matematico (e nemmeno usato come tale), il risultato di un calcolo fra grandezze non potrà contenere un numero di cifre significative superiore a quello dei valori ricavati dalle misurazioni e dai quali si è partiti per eseguire i calcoli.

    Se ad esempio si volesse calcolare la superficie del foglio di carta che abbiamo sotto gli occhi dovremmo moltiplicare i 29,67 cm della sua lunghezza per i 21,08 cm della sua larghezza: si otterrebbe il risultato di 625,4436 cm². Le sette cifre che rappresentano il risultato della moltiplicazione fra lunghezza e larghezza del foglio non possono tuttavia essere considerate tutte cifre degne di significato: essendo solo quattro le cifre significative delle dimensioni lineari del foglio, altrettante dovranno essere quelle della sua superficie e pertanto il risultato valido sarà: 625,4 cm².

    Per ricavare le cifre significative del risultato di un operazione aritmetica, in questo caso sono state semplicemente soppresse le ultime tre cifre a destra del risultato. Molto spesso però l'operazione di arrotondamento del risultato di un'operazione algebrica non consiste nella semplice soppressione delle ultime cifre del valore ottenuto con il calcolo. Poiché, soprattutto con l'uso delle calcolatrici tascabili, i risultati delle operazioni algebriche vengono spesso forniti con un gran numero di cifre, che ovviamente non devono essere prese tutte in considerazione, riportiamo in modo sintetico le regole di arrotondamento dei risultati delle operazioni di calcolo.

    a) Quando l'ultima cifra che deve essere eliminata, partendo da destra, è minore di 5, la prima cifra che viene mantenuta, resta invariata. Ad esempio, per arrotondare il numero 3,74821 a sole due cifre significative, di deve scrivere 3,7 (il 4, ultima cifra eliminata, è minore di 5).   

    b) Quando l'ultima cifra da eliminare, partendo da destra, è maggiore di 5, oppure è proprio 5 (ma allora deve essere seguita da altre cifre che non siano tutti zeri) alla prima cifra che viene mantenuta si deve aggiungere un'unità. Ad esempio, volendo arrotondare il numero 3,67538 a sole due cifre significative, si deve scrivere 3,7; allo stesso modo, per arrotondare il numero 3,65028 sempre a due sole cifre significative, si deve ancora scrivere 3,7.

    c) Quando la cifra da eliminare è esclusivamente il 5, allora si aggiunge un'unità alla cifra che la precede se questa è dispari, mentre la si mantiene invariata se questa è pari.  Esempi: Il numero 3,35, arrotondato a due cifre significative diventa 3,4, mentre il numero 3,85 arrotondato a due cifre significative diventa 3,8. Se però il numero 5 da eliminare è a sua volta seguito da altre cifre (ovviamente anch'esse da eliminare) alcune delle quali diverse da zero, allora la cifra che si conserva viene aumentata di un'unità anche se pari. Esempio: il numero 3,85023 arrotondato a due sole cifre significative assume il valore di 3,9. In ogni caso è buona regola, quando si eseguono i calcoli, portarsi dietro una cifra in più rispetto a quelle significative. Queste poi verranno ridotte al numero esatto una volta completati i calcoli.

    Vediamo ora alcuni esempi concreti di operazioni algebriche.

 

1. ADDIZIONE E SOTTRAZIONE

   Nel risultato di una addizione o di una sottrazione deve comparire lo stesso numero di decimali della misura che ne contiene il minor numero. E' evidente, infatti, che il risultato di un'operazione di somma non potrà essere più preciso di quanto non lo sia l'addendo meno preciso.

Esempi:

                                    5,27 +             175,8     +               24,25 -
                                   24                 12,09    +                0,3  =
                                  ————                0,204  =              ————
                                   29,27               —————                23,95
                                                          188,094

   Nel primo caso il risultato valido è 29; nel secondo caso 188,1; e nel terzo 24,0 (si noti che è stata riportata una grandezza con tre cifre significative).

 

2. MOLTIPLICAZIONE E DIVISIONE

    Il risultato di una moltiplicazione o di una divisione non può avere più cifre significative di quante non ne possegga il termine che ne ha di meno. Fanno eccezione i risultati nei quali la prima cifra significativa è 1 o 2: in tali casi, il numero delle cifre significative deve essere aumentato di un'unità.

    Si noti che mentre per le moltiplicazioni e le divisioni, negli arrotondamenti, si fa riferimento alle cifre significative, per le addizioni e le sottrazioni si erano prese in considerazione le cifre decimali.

Esempi:

    a) 12,4 · 84 = 1041,6. Il risultato valido dovrebbe contenere solo due cifre significative (come il fattore che ne ha di meno). Siccome però la prima cifra del risultato è 1 le cifre significative devono essere aumentate a tre. Il risultato valido è quindi 104, o meglio, scritto in notazione scientifica, 1,04·102.

    b) 9,84 : 9,3 = 1,058064516 (risultato letto sul display della calcolatrice tascabile). In realtà le cifre significative del quoziente dovrebbero essere due sole (quante sono quelle del divisore) e il risultato dovrebbe essere 1,1. Siccome però la prima cifra del quoziente è 1, è lecito assumere una cifra in più; il risultato finale è quindi 1,06.

    c) 13,28 : 0,714 = 20. Si faccia attenzione, in questo caso, che siccome le cifre significative devono essere tre (quante ne contiene il divisore) bisogna aggiungere una cifra al risultato, che correttamente deve essere quindi scritto nel modo seguente: 20,0.

UNITA' DI MISURA DEL SISTEMA INTERNAZIONALE

LUNGHEZZA metro (m) distanza percorsa dalla luce nel vuoto nell'intervallo di tempo
di 1/299.792.458 secondi
MASSA kilogrammo (kg) massa del cilindro prototipo di platino-iridio conservato presso il
Bureau International des Poids et Mesures di Sèvres (Parigi).
TEMPO secondo (s) durata di 9.192.631.770 oscillazioni della radiazione emessa nella transizione tra due particolari livelli energetici iperfini dello stato fondamentale del cesio 133.
CORRENTE ELETTRICA ampere (A) la corrente elettrica costante che fluendo in due conduttori rettilinei, paralleli, indefinitamente lunghi, di sezione circolare trascurabile, posti a distanza di 1 m nel vuoto, determina fra essi una forza di 2·10-7 N per metro di conduttore.
TEMPERATURA kelvin (K) la frazione 1/273,16 della temperatura termodinamica
del punto triplo dell'acqua
QUANTITA' DI SOSTANZA mole (mol) quantità di sostanza di un sistema che contiene tante entità elementari quanti sono gli atomi in 0,012 kg di carbonio 12.
INTENSITA' LUMINOSA candela (cd) l'intensità luminosa, in una data direzione, di una sorgente che emette una radiazione monocromatica di frequenza pari a 540·1012 Hz e la cui intensità energetica in tale direzione è di 1/683 W/sr.

fine
Precedente Home Su Successiva