Vai alla Home Page About me Courseware Federica Living Library Federica Federica Podstudio Virtual Campus 3D Le Miniguide all'orientamento Gli eBook di Federica La Corte in Rete
 
I corsi di Scienze Matematiche Fisiche e Naturali
 
Il Corso Le lezioni del Corso La Cattedra
 
Materiali di approfondimento Risorse Web Il Podcast di questa lezione

Vincenzo Canale » 1.Le grandezze fisiche e la loro misura


Le grandezze e le leggi fisiche

La Fisica studia e descrive i fenomeni naturali, un aspetto fondamentale di questa conoscenza è il suo carattere oggettivo. Per realizzare questa situazione si fornisce una descrizione quantitativa dei fenomeni. Le osservazioni si effettuano tramite delle misure che forniscono dei numeri che vengono elaborati con metodi matematici.
Una grandezza fisica è una quantità alla quale, tramite la misura con uno strumento, si associa un numero reale. L’esempio forse più familiare è quello della distanza fra due oggetti misurata con il metro. Un altro esempio molto comune è quello dell’intervallo di tempo fra due eventi, in questo caso lo strumento è un orologio.
Gli esempi di distanza e tempo sono fra i più semplici ed importanti perché consentono di costruirne altri. Le grandezze fisiche hanno diverse caratteristiche, esistono:

  • grandezze molto intuitive, ma la cui definizione presenta non poche difficoltà concettuali, per esempio la massa o la temperatura
  • grandezze meno intuitive che permettono di descrivere meglio i fenomeni fisici, come per esempio la quantità di moto più appropriata della forza per formulare le leggi della dinamica
  • grandezze ausiliarie che, definite per semplificare alcuni processi, si prestano a generalizzazioni molto importanti come per esempio l’energia

Le grandezze e le leggi fisiche

Per descrivere i processi si usano le leggi fisiche, cioè relazioni matematiche fra le grandezze coinvolte. Seguendo Galileo, la validità della legge dipende dall’accordo fra le sue previsioni e gli esperimenti che misurano le grandezze del fenomeno (metodo sperimentale). Nelle leggi le grandezze sono, in linea di principio, misurabili direttamente (numeri); conseguentemente, nel cercare le leggi, si procede per approssimazioni successive. Due esempi di questo metodo sono la caduta libera o il piano inclinato liscio: due processi, a stretto rigore, inesistenti!
Come conseguenza alcune leggi non hanno validità universale; esse non sono sbagliate ma il campo di applicazione è limitato o per il grado di approssimazione o perché si raggiungono valori delle grandezze (la scala del fenomeno) che comportano profonde modifiche; per esempio:

  • scendendo alla scala microscopica d~10-10m la meccanica classica va sostituita da quella quantistica
  • quando le velocità sono prossime a quella della luce (c≈3.108 m/s), i concetti di spazio e tempo si modificano secondo le leggi della Relatività
  • quando il numero dei costituenti di un sistema (atomi o molecole), raggiunge il numero d’Avogadro (~6.1023) si applica la meccanica statistica che spiega l’irreversibilità dei processi macroscopici

Dimensioni fisiche delle grandezze

L’operazione di misura con uno strumento consiste nel confronto diretto fra la grandezza fisica con una quantità della stessa grandezza scelta come riferimento (l’unità campione). Alcune grandezze, misurabili direttamente, sono dette fondamentali, e da esse si definiscono le altre dette derivate, tramite relazioni algebriche. Disponendo dello strumento di misura, la scelta delle grandezze fondamentali (Fi) è, teoricamente, arbitraria; nello studio della meccanica la scelta è risultata quella delle grandezze più semplici e intuitive: la lunghezza , il tempo e la massa. Un concetto molto importante è quello delle dimensioni fisiche di una grandezza, esse rappresentano il grado di omogeneità rispetto alle grandezze fondamentali. Data una grandezza derivata D, se ne indicano le dimensioni con la notazione fra parentesi quadre e si scrive:

{\mathcal{D}}=~\kappa~\prod_{i} {\mathcal{F}}_i^{\alpha_i} ~\Rightarrow~ [{\mathcal{D}}]\equiv~\prod_{i} \left[{\mathcal{F}}_i\right]^{\alpha_i}

dove k è un coefficiente numerico adimensionale ed i parametri αi fissano il grado di omogeneità rispetto alle grandezze fondamentali ([L], [T] e [M]). Esempi molto semplici e familiari sono:

  • Superficie [S]≡[L]2[T]0[M]0
  • velocità [v]≡[L]1[T]-1[M]0
  • densità [r]≡[L]-3[T]0[M]1

ecc…

Dimensioni fisiche delle grandezze

Le dimensioni fisiche non definiscono completamente la grandezza per esempio per il volume di una sfera V=4/3πR3 ma [V]Ξ[L]3 come per un parallelepipedo; inoltre non si tiene conto di ulteriori caratteristiche, come per esempio la direzione ed il verso dei vettori.
Le leggi fisiche si esprimono come relazioni algebriche fra le grandezze del fenomeno; pertanto esse sono valide solo se i membri delle uguaglianze hanno le stesse dimensioni fisiche (verifica della coerenza dimensionale). Questa tematica si generalizza al metodo dell’analisi dimensionale che, come vedremo in alcuni casi, permette di ottenere importanti risultati semi-quantitativi senza dovere risolvere esattamente il problema.
Esistono grandezze con dimensioni nulle (adimensionali); l’esempio più noto è forse quello dell’angolo definito dal rapporto fra l’arco della circonferenza ed il raggio. Queste grandezze non modificano l’analisi dimensionale delle leggi. Questo concetto è molto importante perché quando, in una legge, ci sono funzioni matematiche non algebriche (sin, cos, log, …) le grandezze fisiche devono comparire nell’argomento in combinazioni adimensionali X; solo in questo modo, sviluppando in serie di potenze la funzione, il risultato può essere omogeneo, e.g.

e^X=1+X+X^2/2!+X^3/3!+....

Le unità di misura

Il valore di una misura dipende dall’unità campione usata nel confronto con la grandezza da misurare; questo fissa l’unità di misura della grandezza (il metro per le lunghezze, il secondo il tempo, ecc…). Le grandezze fondamentali, con le loro unità campione, formano un sistema di unità di misura. L’unità campione è arbitraria, tuttavia dovrebbe soddisfare i seguenti requisiti:

  • essere definita in modo univoco, oggettivo e riproducibile in laboratori avanzati
  • essere costante nel tempo e poco dipendenti dalle condizioni fisiche esterne

Questo spiega l’evoluzione temporale delle unità delle grandezze fondamentali. Il metro è stato definito, nel 1792 come la frazione (1/107) di un meridiano, poi come la lunghezza di una sbarra di platino-iridio conservata a 0oC a Parigi, dopo come multiplo della lunghezza d’onda elettromagnetica di una data transizione atomica ed infine come la distanza percorsa dalla luce nel vuoto in un tempo fissato! Benché non strettamente necessario, la scelta di un’unità di misura è legata anche alla praticità nell’uso, cioè usare unità dell’ordine delle quantità in gioco per limitare l’uso di multipli o sotto multipli.

L’aspetto cruciale è che le grandezze possiedono delle dimensioni e quando se ne riporta un valore si devono sempre specificare le unità di misura.

Multipli e sotto multipli delle unità di misura

Multipli e sotto multipli delle unità di misura


Il Sistema Internazionale di unità di misura

In ambito scientifico si usa il Sistema Internazionale (S.I.) di unità di misura, con sette grandezze fondamentali e rispettive unità campione:

  • il tempo con il secondo (s), la durata di 9.192.631.770 periodi della radiazione elettromagnetica di una transizione fra i livelli del 133Cs
  • la lunghezza con il metro (m), la lunghezza percorsa dalla luce nel vuoto in un tempo 1/299.792.458 s (si assume c=299.279.458 m/s)
  • la massa con il chilogrammo (kg) quella del prototipo in lega di platino-iridio, conservato a Parigi. Su scala microscopica si usa l’unità di massa atomica (u), per convenzione il 12C ha massa 12u , 1u≈1,66.10-27kg
  • la temperatura con il grado Kelvin (K), una frazione 1/273,16 della temperatura del punto triplo dell’acqua
  • la quantità di materia con la mole (mol), quella di un sistema che contiene tanti elementi quanti sono gli atomi di una massa 12g di 12C

Per le misure di tipo elettrico si devono introdurre le ulteriori grandezze: (a) l’intensità di corrente (ampère) e (b) l’intensità di luce (candela).

Le grandezze fondamentali del Sistema Internazionale

Le grandezze fondamentali del Sistema Internazionale


Il Sistema Internazionale di unità di misura

Tutte le altre grandezze si derivano da quelle fondamentali e le unità di misura derivano di conseguenza. In  molti casi queste grandezze sono molto comuni  e dunque per la corrispondente unità di misura si usa un nome specifico anche se il suo significato è sempre riconducibile alle grandezze fondamentali.

Grandezze derivate di uso frequente nel Sistema Internazionale

Grandezze derivate di uso frequente nel Sistema Internazionale


Altri sistemi di unità di misura

Oltre il S.I. si usano ancora altri sistemi per ragioni di abitudine, praticità ed anche storico-geografiche (le unità dei paesi anglosassoni). Questa esigenza è sentita sia nella vita comune (per esempio i falegnami usano i centimetri, i meccanici i millimetri e gli idraulici i pollici!), ma anche nel campo della ricerca dove si scelgono sistemi più adatti alla descrizione dei fenomeni; per esempio nella Fisica subnucleare si usa il sistema naturale in cui la velocità della luce è c=1 e la costante ridotta di Planck ћ=1. Alcune unità non-SI sono così diffuse che si usano ancora in ambiente scientifico.
Succede spesso di dovere convertire una grandezza da un sistema all’altro o con diversi multipli. Questa operazione rappresenta spesso una fonte di errore nelle applicazioni numeriche (per esempio nei problemi di idrostatica con le densità e le pressioni); si devono usare gli opportuni fattori di conversione fra le diverse unità in modo esplicito:

\begin{array}{l}1m/s\equiv\frac{10^{-3}km}{(1/3600)h}\equiv3.6~km/h \\ 1kg/m^3\equiv\frac{10^3g}{10^6cm^3}\equiv10^{-3}g/cm^3 \\ \end{array}

L’operazione diventa complicata se le unità usate non hanno multipli o sottomultipli decimali come per esempio gli angoli misurati in gradi o alcune grandezze del sistema anglosassone.

Unità di misura di uso frequente non comprese nel SI

Unità di misura di uso frequente non comprese nel SI


Operazione di misura con lo strumento

La misura di una grandezza G si effettua con uno strumento, un dispositivo che la confronta con l’unità campione, e fornisce una risposta numerica V rappresentante il valore T della grandezza. Gli strumenti sono molto vari, tuttavia si possono sempre ricondurre allo schema con:

  • un dispositivo sensibile a G
  • un trasduttore che trasforma genera una risposta R più facile da usare
  • un dispositivo che visualizza V

Nei casi più semplici i tre sistemi coincidono, nel metro a nastro vi è il confronto diretto della distanza con la scala graduata; in altri sono disgiunti, in un voltmetro il sensore è lo stadio di amplificazione, il trasduttore è il quadro mobile ed il visualizzatore è l’ago sulla scala. Quando G si confronta direttamente con il campione dell’unità di misura lo strumento è assoluto; se la trasduzione genera una R non omogenea a G, lo strumento è detto secondario. Prima dell’uso si effettua la taratura R=f(T), rilevando la risposta per valori noti di G. In genere l’operazione è effettuata dal costruttore ed è incorporata nel visualizzatore. La realizzazione di uno strumento assoluto o secondario non dipende dal tipo di grandezza, per esempio della bilancia esiste sia il tipo assoluto con i due bracci, che secondario che sfrutta la compressione di una molla.

Schema generale di uno strumento

Schema generale di uno strumento


Operazione di misura con lo strumento

Gli strumenti di misura si dividono in due grandi categorie:

• i dispositivi analogici in cui si opera su grandezze fisiche (elettriche, meccaniche, ecc..) che rappresentano, per analogia, le grandezze da misurare. Si mettono in relazione due fenomeni fisici, anche di natura diversa, tali che le rispettive grandezze coinvolte siano legate dalle stesse equazioni. Il segnale di ingresso è studiato usando meccanismi interni allo strumento e vi è relazione diretta fra segnale e risposta
• i dispositivi digitali, in rapido sviluppo negli ultimi anni, grazie al progresso delle tecniche informatiche computazionali. Lo strumento effettua un passaggio in più: (a) la trasduzione genera, dalla grandezza da misurare, un segnale elettrico analogico, (b) questo viene trasformato da un convertitore analogico-digitale in un segnale digitale (un’informazione numerica binaria corrispondente ad una sequenza di bit 0/1). Il segnale digitale viene elaborato con tecniche informatiche prima di essere visualizzato

Gli strumenti analogici hanno il vantaggio della velocità perché non esiste lo stadio di conversione, tuttavia essi vengono rapidamente soppiantati da quelli digitali, perché l’elaborazione successiva fornisce risultati di qualità migliore (sottrazioni di rumore, correzione di disturbi, ecc…).

Strumenti analogici e digitali

Strumenti analogici e digitali


Incertezza nelle misure

Nel caso ideale la misura fornisce il valore esatto della grandezza (V≡T); tuttavia l’esperienza quotidiana mostra che questo non si verifica. Per esempio ripetendo la misura, apparentemente nelle stesse condizioni, troviamo spesso valori diversi(!); questo avviene per molti motivi, dalla banale inavvertenza dello sperimentatore fino a fluttuazioni intrinseche del fenomeno (e.g. i tempi dei decadimenti radioattivi). L’esperienza prova che la misura di una grandezza è sempre accompagnata da un certo grado d’incertezza (da preferire ad errore usato nel passato) rappresentata con un valore ΔV omogeneo alla grandezza.
Nel 1993 l’Organizzazione Internazionale per la Standardizzazione (ISO) ha pubblicato una Guida che suggerisce le procedure da adottare per la determinazione delle incertezze di misura. Detto misurando la grandezza da determinare, si definisce:

  • valore vero: un valore compatibile con la definizione di una grandezza data
  • incertezza: un valore indice della dispersione del valori attribuibili al misurando
  • errore: la differenza fra il risultato di una misura ed un valore vero del misurando

La guida ISO riporta anche la lista delle cause di incertezza nelle misure e rappresenta un decalogo da seguire quando si cercano le possibili fonti di incertezza di una misura.

La lista ISO 1993 delle possibili cause d’incertezza di misura

La lista ISO 1993 delle possibili cause d'incertezza di misura


Incertezza nella misura

Con riferimento alla lista precedente possiamo fare le seguenti considerazioni:

  • le (1,2,3) sembrano riconducibili alla corretta identificazione del misurando
  • la (4) indica effetti noti ma non sotto controllo
  • le (5,6) sono legate a caratteristiche strumentali
  • le (7,8,9) riguardano tematiche di taratura e di metodo
  • la (10) riassume gli effetti ignoti (concause delle precedenti) che variano da misura a misura

Anche se la distinzione è talvolta arbitraria, è tradizione dividere le fonti di incertezze in due categorie:

  • effetti sistematici che rendere la misura sistematicamente maggiore o minore
  • effetti casuali che influenzano casualmente il risultato per motivi accidentali

Per quelli casuali si usa la trattazione statistica ben consolidata;. per quelli sistematici la situazione è più complessa anche se l’ISO propone di ricondurli sempre nell’ambito della teoria statistica.
Per confrontare diverse misure della stessa grandezza è naturale riferirsi alle rispettive ΔV; un termine di paragone è dato dall’incertezza relativa ε=ΔV/V espressa in %; e valori minori indicano misure migliori.
Lo sperimentatore è parte attiva della misura e dunque l’incertezza dipende dalla sua abilità, esperienza, ecc; è evidente che lo sforzo va nella direzione di ridurre al massimo ΔV.

Caratteristiche degli strumenti

Le caratteristiche degli strumenti sono molteplici; fra quelle più comuni e significative per qualificare il dispositivo abbiamo:

  • l’intervallo di funzionamento corrispondente ai valori minimo Vm (soglia) e massimo VM (portata) della grandezza misurabili con lo strumento. Nei casi più comuni Vm≈0 e VM finito è detto fondo scala VFS
  • la prontezza legata al tempo caratteristico t necessario per dare la risposta. Questa proprietà è importante se la grandezza varia nel tempo δt; se t« δt lo strumento ne segue le variazioni, se t> δt si ottiene una media temporale della grandezza
  • la giustezza che corrisponde ad avere una buona corrispondenza fra il risultato ed il valore vero (limitati effetti sistematici)
  • la ripetibilità ed affidabilità. La ripetibilità (a volte detta precisione) corrisponde alla capacità di fornire lo stesso risultato in condizioni apparentemente uguali ed è collegata all’importanza degli effetti casuali. L’affidabilità dello strumento è intesa come robustezza di funzionamento nel tempo e in condizioni variabili
  • la classe di precisione C=100.ΔVmax/VFS, dove ΔVmax è l’incertezza massima dovuta allo strumento e VFS il fondo scala. Spesso la classe è fornita dal costruttore e si inverte la relazione per avere la massima incertezza sulle misure: ΔVmax=(C/100) VFS

Caratteristiche degli strumenti

La caratteristica più nota è la sensibilità S, che corrisponde alla più piccola variazione della grandezza ΔV che produce una variazione apprezzabile della risposta ΔR : S=ΔR/ΔV con dimensioni fisiche [S]=[R][G]-1.
S può dipendere dai valori di G anche se nel caso, frequente, dei dispositivi lineari, è costante. Poiché esiste una valore minimo ΔR fra due valori della risposta significa che esiste un valore minimo apprezzabile della variazione della grandezza da misurare: ΔVS= S-1.ΔR detto incertezza di sensibilità perché lo strumento non è sensibile in questo intervallo.
La risoluzione r, invece, corrisponde alla minima variazione apprezzabile sul dispositivo di visualizzazione (la suddivisione di una scala o l’ultima cifra di un display digitale); con un abuso di linguaggio si dice di alta (bassa) risoluzione per r piccola (grande)!
Evidentemente r e S sono collegate e non avrebbe senso realizzare dispositivi con r« ΔVS, per questo si tende a realizzare r~S.ΔR; e a volte si confondono queste caratteristiche concettualmente diverse.
Le caratteristiche strumentali sono sia intrinseche che variabili e spesso sono antitetiche (con r grande si è ben ripetibili ma poco sensibili!). Si deve scegliere un compromesso in funzione del tipo di misura senza trascurare il problema dei costi.

Rappresentazione delle grandezze: valori numerici

Dopo la misura le grandezze sono riportate come un numero, un valore dell’incertezza e le opportune unità (V± ΔV)u.m. In matematica un numero reale si può scrivere con un numero arbitrario di cifre, nel caso delle grandezze misurate invece è cruciale il concetto di numero di cifre significative che sono quelle scritte a partire da destra fino all’ultima ≠0 sulla sinistra. L’ultima a destra indica l’accuratezza con cui è noto il risultato, e.g. 5,7≠ 5,70 perché 5,6≤ 5,7≤ 5,8 mentre 5,69≤5,70≤ 5,71!
Un risultato numerico non può contenere un valore arbitrario di cifre perché contrasterebbe con un’incertezza ΔV ≠0; è consuetudine scrivere ΔV con due cifre al massimo; dunque l’ultima cifra del risultato corrisponderà a quella di ΔV ed i valori si troncano di conseguenza. La regola è semplice per le misure dirette in cui le caratteristiche dello strumento forniscono l’incertezza; per le misure derivate, si vedano le regole riportate accanto.

La notazione esponenziale riduce le ambiguità: il valore con una sola cifra significativa prima della virgola e poi la potenza di 10 corrispondente (e.g. 673400→6,734 105). In un risultato mostrato senza incertezze si assume, convenzionalmente, che l’incertezza riguarda l’ultima cifra riportata. A volte si scrive fra parentesi l’incertezza sulle ultime cifre.

Regole delle cifre significative e valori di costanti fondamentali

Regole delle cifre significative e valori di costanti fondamentali


Rappresentazione delle grandezze: istogrammi

Succede di ripetere la misura di una grandezza, sia per evidenziare gli effetti casuali che per studiare eventuali fluttuazioni intrinseche. Una rappresentazione grafica molto utile è l’istogramma. In un grafico, si riporta in ascisse la grandezza suddividendone l’intervallo di variabilità con un dato passo (binning). Sulle ordinate si riporta, in corrispondenza delle divisioni (bin), il numero di misure (eventi) ivi contenute (vedi figura). Gli istogrammi sono anche bidimensionali quando si rappresentano coppie di misure, in questo caso si può ricorrere a visualizzazioni tridimensionali (lego-plot).
Gli istogrammi sono uno strumento fondamentale nell’analisi dei dati sperimentali e permettono di evidenziare i concetti più importanti di statistica (la funzione di distribuzione, la media, la varianza, le correlazioni, ecc…). Una caratteristica importante di un istogramma è la scelta del passo; una suddivisione troppo fitta comporta molti bin vuoti, mentre con un passo ampio non si esalta la struttura della distribuzione. Un criterio ragionevole è quello di scegliere un passo dello stesso ordine di grandezza dell’incertezza di sensibilità degli strumenti che effettuano le misure. In questo modo l’istogramma evidenzia la presenza di significativi effetti casuali o fluttuazioni.

Istogrammazione delle misure

Istogrammazione delle misure


Rappresentazione delle grandezze: grafici

Un modo particolarmente significativo di analizzare le misure è quello grafico. Date delle coppie di grandezze X e Y se ne costruisce il grafico in un sistema di assi cartesiani riportando su ascisse ed ordinate i valori dei punti corrispondenti alle coppie (Xi,Yi) (i=1,..,n); di norma i punti vanno riportati con le loro incertezze (barre di errore) (Xi±ΔXi, Yi±ΔYi). L’andamento grafico è molto utile per dedurre la relazione funzionale Y=f(X).
Sui grafici si devono riportare sugli assi le grandezze e le unità di misura usate; è importante specificare l’intervallo delle grandezze riportando dei valori numerici che evidenziano la corrispondenza fra le distanze sul grafico ed i valori delle grandezze (le scale); conviene ottimizzare lo spazio disponibile scegliendo tuttavia scale di facile lettura ed interpretazione.
In numerosi casi la relazione che collega le due grandezze è lineare, il grafico è una retta con coefficiente angolare (pendenza) ed intercetta con l’asse delle ordinate:
Y~=~a~X~+~b\Rightarrow<br /> \left\{\begin{array}{l}<br /> \left(\frac{\Delta Y}{\Delta X}\right)=a\\Y_0=b\\\end{array}<br /> \right.

I parametri si ricavano sia con tecniche matematiche (fit); sia graficamente interpolando manualmente i punti, un’operazione molto utile in laboratorio che permette di avere un riscontro rapido.

Grafici di grandezze fisiche

Grafici di grandezze fisiche


Rappresentazione delle grandezze: grafici

In generale le scale dei grafici sono lineari, tuttavia si possono usare scale diverse in cui le distanze sul grafico sono proporzionali ad una funzione delle grandezze. Il caso più frequente è quello della scala logaritmica X→log X, una scelta molto utile quando sul grafico l’intervallo comprende diversi ordini di grandezza difficilmente rappresentabili in scala lineare. In questa scala lo zero non esiste, finisce all’infinito dal lato sinistro! La scale non lineari (quadratiche, inverse, ecc…) sono utili quando le relazioni fra le grandezze non sono lineari, ma con un’opportuna scelta della scala sugli assi cartesiani (x-y), gli andamenti si rettificano. In particolare:

- nel caso di andamenti a potenza conviene usare le scale logaritmiche su tutti e due gli assi e l’esponente si ricava dalla pendenza logaritmica:

Y~=~\kappa~X^\alpha~~\Rightarrow~~\log Y~=~\alpha~\log X~+~\log\kappa~\Rightarrow<br /> \alpha=\frac{\Delta\log Y}{\Delta\log X}

- nel caso di andamenti esponenziali conviene usare la scala logaritmica per Y e lineare per X (scale semi-logaritmiche) e la pendenza semilogaritmica fornisce la costante dell’esponenziale:

Y~=~\kappa~e^{\alpha~X}~~\Rightarrow~~\log Y~=~\alpha~X~+~\log\kappa~\Rightarrow<br /> \alpha=\frac{\Delta\log Y}{\Delta X}


Strumentazione per laboratorio in tempo reale

Rimandiamo alla bibliografia la descrizione degli strumenti tradizionali (metro, bilancia, cronometro, ecc) e discutiamo, brevemente, la strumentazione che permette di effettuare le misure di grandezze in tempo reale (Real Time Laboratory o RTL), con i seguenti vantaggi:

  • il non doversi limitare ai fenomeni lenti che consentano misure manuali compatibili con i tempi di reazione umani (vista,ecc)
  • l’acquisizione di molti dati con, la possibilità di registrarli e successivamente analizzarli con software opportuno (grafici, interpolazioni, ecc …)
  • la maggiore accuratezza delle misure permette di studiare fenomeni complessi o di evidenziare le deviazioni dalle usuali schematizzazioni

Strumentazione per laboratorio in tempo reale

Un sistema RTL è costituito essenzialmente da tre sezioni:

  • il sensore, un dispositivo che converte il valore della grandezza fisica in un segnale elettrico che di solito sono differenze di potenziale e variano con continuità fra due estremi (analogici)
  • l’interfaccia, il dispositivo elettronico che riceve i segnali dai sensori, li converte in segnali digitali e li trasferisce al calcolatore (i dati)
  • il calcolatore collegato all’interfaccia, che contiene il software con le applicazioni che permettono l’uso dei diversi sensori, e, generalmente, anche quelle per l’analisi dei dati
Schema di un sistema RTL

Schema di un sistema RTL


Strumentazione per laboratorio in tempo reale

Per riprodurre l’andamento temporale s(t) della grandezza fisica il sistema effettua, con il sensore, delle misure ad intervalli di tempo fissi (campionamento); è importante fissare questo intervallo fra le misure (l’inverso è la frequenza di campionamento νc) per potere riprodurre accuratamente il segnale originale s(t). Intuitivamente se il segnale originale possiede brusche variazioni si deve aumentare νc. Sotto condizioni abbastanza generali la funzione s(t) si può scrivere come una somma di sinusoidi di diverse frequenze ν (serie di Fourier), ed i segnali rapidi ricevono contributi rilevanti da sinusoidi con elevata frequenza; dunque la νc necessaria è collegata alle massime frequenze presenti nella scomposizione del segnale originale. Il teorema di Shanon-Nyquist afferma che, detta νmax la più alta frequenza presente nella scomposizione di s(t), se νc >2 νmax allora il segnale originale può essere ricostruito senza ambiguità dalle misure campionate.

Concetto di campionamento

Concetto di campionamento


Strumentazione per laboratorio in tempo reale

Nelle applicazioni abbiamo usato la strumentazione LabPro© della ditta Vernier con il corrispondente software LoggerPro©, rivelatisi molto adatti per la didattica: (a) l’interfaccia, che si connette ai diversi tipi di sensori, si collega al PC tramite una porta USB; (b) il software di analisi dei dati è molto semplice.

Es. della schermata del software LabPro©

Es. della schermata del software LabPro©


  • Contenuti protetti da Creative Commons
  • Feed RSS
  • Condividi su FriendFeed
  • Condividi su Facebook
  • Segnala su Twitter
  • Condividi su LinkedIn
Progetto "Campus Virtuale" dell'Università degli Studi di Napoli Federico II, realizzato con il cofinanziamento dell'Unione europea. Asse V - Società dell'informazione - Obiettivo Operativo 5.1 e-Government ed e-Inclusion