Calore e temperatura

Nel parlare corrente spesso calore e temperatura vengono considerati la stessa cosa, ma in realtà si tratta di due concetti diversi che non vanno confusi né identificati. Il calore infatti è una forma di energia mentre la temperatura, come vedremo meglio, è una grandezza fisica che ci permette di esprimere numericamente quanto un corpo è “caldo” o “freddo”. Per chiarire il concetto, ricorriamo ad un esempio semplice e comune della nostra esperienza quotidiana. Immaginiamo quindi di scaldare sulla fiamma di una cucina a gas per pochi secondi una grande quantità d’acqua contenuta in una pentola e nello stesso tempo uno spillo d’acciaio. Ora, poiché la fiamma è unica, il calore che viene somministrato ai due corpi è lo stesso, ma mentre la temperatura dell’acqua praticamente non è cambiata rispetto a quella che era all’inizio, lo spillo è diventato rovente, raggiungendo una temperatura molto elevata. Assorbendo la stessa quantità minima di calore, i due oggetti registrano pertanto una temperatura molto diversa e ciò dimostra che calore e temperatura sono due entità ben distinte.

 

I TERMOMETRI

Prima dei tempi moderni, il calore non è stato oggetto di studio, se non qualitativamente: ci si limitava a verificare se un corpo fosse caldo o freddo semplicemente toccandolo, ma ovviamente per misurare la temperatura, cioè per giudicare con metodo scientifico il livello termico di un corpo o di un ambiente, non si poteva continuare a far ricorso ai nostri sensi. Quel criterio infatti non permetteva una valutazione quantitativa del fenomeno e a volte la verifica appariva perfino ambigua.

Vi è un’esperienza notissima che dimostra quanto siano fallaci i giudizi fondati sulle impressioni sensoriali e come esse ci possano anche indurre in errore. L’esperimento è quello dei tre recipienti il primo pieno di acqua fredda, il secondo di acqua calda e il terzo di acqua tiepida. Se si immerge per un paio di minuti una mano nell’acqua fredda e l’altra nella calda, si coglie un messaggio di freddo dalla prima e di caldo dalla seconda. Se successivamente si immergono entrambe le mani nell’acqua tiepida si prova una sensazione di freddo alla mano che prima era stata immersa nell’acqua calda e una di caldo nell’altra. I messaggi che riceviamo, uno per mano, sono quindi contraddittori. Per la stessa ragione se un eschimese e un abitante delle terre equatoriali venissero nella mia città in una tiepida giornata di primavera, giudicherebbero in modo difforme il clima di questo luogo. In seguito ad osservazioni come queste, gli scienziati decisero che per avere una misura quantitativa dei fenomeni termici sarebbe stato necessario sostituire alle impressioni sensoriali quelle fornite da una apparecchiatura tecnica.

Il primo strumento per misurare la temperatura fu opera di Galileo che lo costruì nel 1592. Il fisico toscano aveva notato che, salvo rare eccezioni, i corpi, quando si riscaldano si dilatano e quando si raffreddano si contraggono. Riempì quindi di acqua colorata un’ampolla di vetro che presentava una strozzatura nella parte superiore quindi la capovolse in una vaschetta contenete la stessa acqua colorata. Al variare della temperatura, l’aria contenuta nella parte superiore dell’ampolla subiva un’espansione o una contrazione e il livello dell’acqua seguiva fedelmente tali variazioni alzandosi o abbassandosi. Un inconveniente dell’apparecchio ideato da Galileo era dovuto al fatto che la vaschetta d’acqua in cui era immersa l’ampolla era aperta, e quindi su di essa agiva la pressione atmosferica che, cambiando con il cambiare delle condizioni meteorologiche, spingeva il livello dell’acqua verso l’alto o verso il basso indipendentemente dalla temperatura, confondendo così i risultati. Galileo inoltre non graduò il collo dell’ampolla e pertanto non gli fu possibile alcuna misura quantitativa della temperatura. In pratica egli aveva realizzato un “termoscopio”, cioè uno strumento che registrava le variazioni di livello termico e non un termometro (dal greco thermos = caldo e mètron = misura), cioè un misuratore di temperatura.

Come sostanza termometrica si sarebbero potuti utilizzare tanto i solidi quanto i liquidi o i gas. I solidi sono poco dilatabili e quindi saranno usati solo per la misura di temperature molto elevate. I gas sono molto dilatabili, ma poco utilizzati perché lo stato fisico di un gas dipende anche dalle variazioni della pressione e quindi un termometro a gas prevedeva il contemporaneo impiego di un barometro.

Non rimanevano che i liquidi. Nel 1654 il granduca di Toscana, Ferdinando II, uomo profondamente colto e amante delle scienze, costruì un termometro ad alcol saldando l’estremità del tubo in modo da impedire l’evaporazione della sostanza in esso contenuta. La variazione del volume del liquido al variare della temperatura non è molto grande, ma se si usa un serbatoio abbastanza capiente sormontato da un tubo molto sottile, la variazione di livello del liquido può essere resa evidente anche per variazioni minime di volume.

I primi liquidi usati per la misurazione del calore furono in effetti acqua ed alcol, ma dato che l’acqua aveva un comportamento anomalo nel senso che, raffreddandosi, giunta in prossimità del punto di congelamento, invece che continuare a contrarsi si dilatava e l’alcol evaporava facilmente, alla fine si ricorse al mercurio il quale, essendo opaco e possedendo la classica lucentezza metallica che lo rendeva ben visibile anche all’interno di tubicini molto sottili, si dimostrò il più adatto. Il mercurio inoltre come tutti i metalli è un buon conduttore del calore e quindi si mette rapidamente in equilibrio con l’ambiente di cui si vuole misurare la temperatura. Inoltre quel metallo si mantiene liquido entro un intervallo molto esteso di temperatura.

Attualmente i termometri più comuni sono quelli che utilizzano il fenomeno della dilatazione dei liquidi all’aumentare della temperatura, ma non sono gli unici. I termometri a liquido non danno risultati rigorosamente esatti in quanto l’aumento di volume non è perfettamente in sintonia con l’aumento della temperatura. La legge di proporzionalità fra volume e temperatura si verifica invece in maniera praticamente esatta per i gas perfetti lontani dal punto di liquefazione. I termometri a gas (preferibilmente idrogeno ed elio) sono strumenti molto delicati che trovano impiego, oltre che per prove di laboratorio, per tarare gli strumenti di uso comune come ad esempio proprio i termometri a liquido.

Esistono inoltre i termometri che utilizzano il fenomeno della variazione di volume dei solidi che, a causa dei modestissimi valori dei coefficienti di dilatazione, non sono molto precisi, ma hanno il pregio della solidità e della maneggevolezza. I termometri di questo tipo sono costituiti da una lamina bimetallica che si ottiene saldando insieme, uno sull’altro, due metalli con diverso coefficiente di dilatazione in modo che la lamina dei due metalli sovrapposti si incurvi al variare della temperatura.

 

LE SCALE TERMOMETRICHE

Per misurare la temperatura, come abbiamo visto, occorre utilizzare qualche fenomeno che da essa dipenda così come, ad esempio, per misurare la forza, si valuta la deformazione che essa provoca in una molla. I fenomeni legati alla temperatura e utilizzabili per misurarla sono svariati a cominciare dalla dilatazione che i corpi subiscono quando vengono riscaldati, ma dipendono dalla temperatura anche alcuni fenomeni elettrici e alcune proprietà ottiche.

Una scala termometrica deve soddisfare la condizione essenziale che tutti i termometri ugualmente graduati forniscano la stessa indicazione numerica se sono portati alla stessa temperatura. I primi termometri venivano invece graduati da ogni scienziato a proprio piacimento, e ciò rendeva impossibile qualsiasi correlazione tra due strumenti.

Per la scelta di una unità di misura, il problema si presentava piuttosto complesso in quanto non era possibile costruire un campione di temperatura analogo a quelli ad esempio di lunghezza o di massa. In questo caso si dovette procedere in modo diverso da quello che aveva permesso la scelta delle altre unità di misura. Furono infatti scelti due corpi (ad esempio ghiaccio e acqua bollente) le cui temperature risultano costanti e a ciascuno di essi venne attribuito un valore arbitrario, ad esempio rispettivamente 0 e 100, quindi si suddivise l’intervallo così determinato in un certo numero di parti uguali.

Il commerciante tedesco Gabriel Daniel Fahrenheit (1686-1736) costruttore, per hobby, di strumenti scientifici, stabilì la prima scala universale fissando lo zero alla temperatura minima cui poté giungere, nel suo laboratorio, mescolando sale con ghiaccio in via di fusione e al 212 il punto di ebollizione di questa soluzione molto concentrata. In tal modo risultava fissato a 32 il punto di congelamento dell’acqua distillata. La scala termometrica proposta da Fahrenheit presentava due vantaggi: in primo luogo il campo di temperature nel quale l’acqua era allo stato liquido si estendeva per 180 gradi e, trattandosi appunto di “gradi”, 180 sembrava il numero più ovvio da usare (esso è infatti il numero di gradi di una semicirconferenza). In secondo luogo, in questa scala la temperatura umana era vicina a 100 gradi (per la precisione 98,6 °F). Attualmente questa scala è molto usata nei paesi di lingua inglese.

Quattro anni più tardi lo zoologo francese René-Antoine de Réaumur (1683-1757) fissò una nuova scala tra 0 (congelamento dell’acqua) e 80 (ebollizione) detta “scala ottantigrada” perché l’intervallo era diviso in ottanta parti uguali: questo sistema peraltro è usato molto raramente.

Nel 1741 comparve la scala Celsius. Modificando le scale termometriche di Fahrenheit e Réaumur il fisico svedese Anders Celsius (1701-1744) propose una nuova scala termometrica ponendo uguale a zero la temperatura dei vapori dell’acqua bollente alla pressione di una atmosfera e uguale a 100 quella del ghiaccio fondente. Essa assunse il nome di “scala centigrada” per la sua suddivisione in cento parti del campo di temperatura in cui l’acqua è liquida. L’innovazione fu geniale nella sua semplicità, anche se espressa sottosopra, tanto che, solo dopo la morte dello scienziato, venne ribaltata la scala da lui inventata nel modo in uso oggi.

Nello studio dei fenomeni fisici attualmente si preferisce utilizzare una scala fondata sull’importante principio che non può esistere in natura una temperatura inferiore ad un ben determinato valore. Mentre non esistono limiti superiori teorici all’estensione delle scale termometriche (si può cioè supporre che esista una temperatura elevata quanto si vuole), esiste un limite inferiore pari a circa 273 gradi Celsius sotto lo zero. Questa temperatura limite, per la precisione -273,15 °C al di sotto della quale non è possibile scendere, viene chiamata “zero assoluto”.

La scala termometrica usata in fisica è quindi una scala centigrada in cui lo zero coincide con lo zero assoluto, denominata scala assoluta Kelvin in onore del suo ideatore, il fisico inglese William Thomson (1824-1907), poi divenuto lord Kelvin. Questa scala adotta lo stesso intervallo della scala Celsius ma utilizza una sola temperatura di riferimento, quella dello zero assoluto. I gradi vengono indicati, in questa scala, con la lettera cappa maiuscola omettendo il piccolo zero che compare nei gradi Fahrenheit (°F), Réaumur (°R) e Celsius (°C). Ad esempio si ha: 0 °C = 273,15 K.

Ora è giunto il momento di chiarire il significato del comportamento anomalo dell’acqua a cui avevamo fatto cenno a proposito dell’uso di questo composto come liquido adatto alla costruzione dei termometri. L’acqua presenta il massimo della densità alla temperatura di 4 °C. Al di sopra di questa temperatura, essa presenta un volume maggiore perché si dilata progressivamente, ma, al di sotto dei 4 °C anziché contrarsi continua a dilatarsi e quindi presenta ancora un volume maggiore, tanto è vero che il ghiaccio, appunto perché più leggero dell’acqua, galleggia su di essa. Questo comportamento anomalo dell’acqua rispetto a quasi tutte le altre sostanze genera una conseguenza strana: in un termometro a mercurio 4 °C indica una temperatura superiore a quella di 2 °C, mentre il termometro ad acqua sentirebbe i 2 °C come temperatura maggiore di 4 °C in quanto a 2 °C essa occuperebbe un volume maggiore di quello che avrebbe a 4 °C; infatti alla temperatura di 2 °C la colonnina dell’acqua entro il tubetto capillare raggiungerebbe un livello superiore a quello che si presenta alla temperatura di 4 °C.

 

IL CALORE COME FLUIDO

Anticamente si pensava che il calore fosse qualche cosa di materiale, una specie di fluido tenuissimo e invisibile che aveva la proprietà di passare da un corpo ad un altro: quando un corpo acquistava questo misterioso fluido si riscaldava e quando lo perdeva si raffreddava. Nel Settecento a questa primitiva teoria fluidistica fu dato un taglio scientifico dal medico scozzese appassionato di chimica e di fisica Joseph Black (1728-1799), il quale chiamò calorico il fluido che penetrava in tutti i corpi materiali aumentandone la temperatura. In verità la teoria permetteva di descrivere adeguatamente la mescolanza di due liquidi ovvero, più in generale, l’equilibrio termico fra due corpi.

A questa conclusione Black arrivò mescolando una stessa quantità di acqua bollente e di acqua gelata e notò che la temperatura della miscela era intermedia tra le temperature dei due componenti. Egli interpretò questo fatto affermando che parte del calorico dell’acqua bollente, durante il mescolamento, passava nell’acqua fredda alzandone la temperatura.

In seguito Black pervenne al concetto di calore specifico attraverso l’esperimento che ci apprestiamo a descrivere. Egli riempì due recipienti uguali il primo con una certa quantità di acqua e il secondo con la stessa quantità di mercurio quindi li riscaldò allo stesso modo, vale a dire con fiamme identiche, e rilevò che il mercurio si scaldava molto più rapidamente dell’ acqua. Da questa osservazione pervenne alla definizione di calore specifico come la quantità di calore da fornire all’unità di massa di un corpo per variare di 1 °C la sua temperatura. Ora, più in generale, si può affermare che per innalzare di un grado centigrado la temperatura di masse uguali di sostanze diverse quali acqua, mercurio, ferro, ecc. occorrono quantità di calore differenti.

In seguito Black definì anche l’unità di calore come la misura del calore necessario per elevare di 1 °C la temperatura di un grammo di acqua. Essa venne chiamata caloria (cal) e indicata come la quantità di calore necessaria a portare la temperatura di 1 grammo di acqua distillata da 14,5 °C a 15,5 °C, alla pressione di una atmosfera.

Il medico scozzese infine mescolò due quantità uguali di acqua calda e mercurio freddo ottenendo una miscela la cui temperatura finale era più vicina a quella dell’acqua che a quella del mercurio. L’esperimento metteva in luce che quantità uguali di sostanze diverse portate alla stessa temperatura contengono quantità diverse di calorico. Nacque in tal modo il concetto di capacità termica che può essere così espresso: “Capacità termica di un corpo è la quantità di calore che esso assorbe o cede nel riscaldarsi o raffreddarsi di un grado Celsius di temperatura”. Ma la capacità termica di un corpo, oltre che dalla natura del corpo stesso, dipende anche dalla sua massa e pertanto maggiore è la massa del corpo in esame più elevata deve essere la quantità di calore che occorre fornirgli per elevare di un grado la sua temperatura.

Verso la metà del Settecento l’idea del calorico cominciò tuttavia a vacillare. Fu proprio lo stesso Joseph Black a mettere in dubbio la teoria. Egli aveva notato che in un passaggio di stato, ad esempio nella fusione del ghiaccio, la temperatura non variava e infatti, fino al momento in cui non si fosse trasformato in acqua l’ultimo pezzetto del ghiaccio la temperatura del sistema non variava mentre, secondo la teoria, per tutto quel tempo il calorico sarebbe dovuto passare dal ghiaccio all’acqua la quale avrebbe dovuto riscaldarsi. Per tenere conto di questo comportamento della materia, lo sperimentatore stesso introdusse il concetto di calore latente, definito come la quantità di calore necessaria per modificare lo stato fisico dell’unità di massa di una data sostanza a temperatura costante. Esso è anche la quantità di calore estraibile dall’unità di massa durante il passaggio di stato opposto, ovvero invece che nella fusione di un solido nella solidificazione di un liquido. Pertanto, il calore latente di fusione ha lo stesso valore assoluto del calore latente di solidificazione. Questa osservazione, mentre metteva in crisi il modello esistente, apriva la strada alla ricerca di una forma di energia diversa da quella che si era supposta fino a quel tempo.

 

CALORE COME MOVIMENTO

Verso la fine del XVIII secolo due fondamentali osservazioni diedero origine ad una nuova teoria sulla natura del calore. La prima di esse venne pubblicata da Benjamin Thomson (1753-1814), fisico e avventuriero americano nato nel Massachusetts, che in giovane età partecipò alla Rivoluzione americana con il grado di Ufficiale. Fuggito dal suo Paese alla fine della guerra, riparò in Baviera dove ebbe l’incarico di Ministro della guerra e il titolo di Conte di Rumford per la riorganizzazione dell’esercito tedesco.

Oltre che esperto di arte militare, Thomson aveva anche un grande interesse per i problemi scientifici e in particolare per la natura del calore. Nel 1798 si trovò ad assistere all’alesatura delle canne dei cannoni nella fabbrica di munizioni di Monaco e in quella occasione notò che durante l’operazione venivano generate grandi quantità di calore: si scaldavano sia il cannone sia i trucioli che venivano espulsi dalla canna. Da dove proveniva tutto quel calore? Thomson, analizzando quella osservazione, si convinse che la teoria corrente non era in grado di spiegare il fenomeno poiché era evidente che nella perforazione dei cannoni il calore non poteva essere una sostanza che si trasferiva da un corpo all’altro.

Il Conte di Rumford pertanto si persuase che tutto quel calore doveva essere generato da una vibrazione del metallo che veniva trapanato e intensificato ulteriormente dall’attrito dell’utensile che scheggiava il metallo. Le sue idee incontrarono subito una forte opposizione, ma successivamente, grazie ad ulteriori osservazioni, la comunità scientifica si convinse che il calore doveva derivare dal movimento interno dei corpi solidi e non dal trasferimento del calorico da un corpo ad un altro. Per trovare conferma della sua idea, Rumford misurò accuratamente la capacità termica di un blocco metallico e di un ugual peso di trucioli di tornitura e trovò che erano identiche. Successivamente confrontò il peso di alcuni corpi caldi con quello degli stessi corpi freddi e li trovò ancora uguali mentre avrebbe dovuto riscontrare una certa differenza di peso qualora il calorico fosse stato una sostanza presente solo nei corpi caldi.

I pesi misurati con le bilance più sensibili mettevano in luce che, se la caloria avesse avuto effettivamente un peso, questo doveva essere minore della precisione della bilancia più perfetta disponibile, ossia doveva pesare meno di 1,3·10-8 grammi. Oggi, dalla nota relazione di Einstein, sappiamo che ad ogni energia corrisponde una massa che si può calcolare dividendola per il quadrato della velocità della luce. Una caloria corrisponde ad una massa di 4·10-14 grammi, una quantità ben al di sotto della precisione raggiungibile con qualsiasi bilancia.

L’anno seguente agli esperimenti di Rumford il chimico e letterato autodidatta inglese Humphry Davy (1778-1829) compì un esperimento ancora più significativo. Facendo uso di un attrezzo meccanico strofinò due pezzi di ghiaccio tenuti al di sotto del punto di congelamento riuscendo a fonderne un po’ con il solo attrito e da ciò dedusse che il calore doveva essere effettivamente una vibrazione e non una sostanza materiale. L’esperimento non venne eseguito manualmente proprio per evitare che l’afflusso calorico dalle mani al ghiaccio potesse falsare il risultato.

Nonostante gli esperimenti deponessero a favore dell’idea che il calore dovesse essere una vibrazione e non una sostanza materiale, la teoria del calorico sopravvisse fino alla metà del XIX secolo. Ciò tuttavia non impedì di approfondire i fenomeni riguardanti la trasformazione del calore in lavoro meccanico e del processo inverso, ossia la trasformazione del lavoro in calore.

 

L’EQUIVALENTE MECCANICO DEL CALORE

Nel 1842 il medico tedesco Julius Robert von Mayer (1814-1878) osservò un fatto che si rivelerà molto significativo. In una cartiera il materiale grezzo contenuto in una grande caldaia veniva agitato da un meccanismo messo in moto da un cavallo che trascinava una grande trave in moto circolare. Il lavoro meccanico eseguito dall’animale produceva un aumento di temperatura della carta da macero contenuta nella caldaia. Mayer non fu in grado di completare e approfondire quella osservazione essendo troppo occupato dalla sua professione. Il compito di determinare per la prima volta la corrispondenza matematica tra energia meccanica e calore, (il cosiddetto equivalente meccanico del calore) toccò all’inglese James Prescott Joule (1818-1889) il quale per misurare la temperatura generata da un lavoro meccanico fece cadere da un’altezza di 722 piedi il peso di una libbra agganciato ad un filo collegato con una ruota che faceva girare alcune palette in un recipiente pieno d’acqua. Dalla misura del calore prodotto per attrito nell’acqua dalle palette in movimento, Joule fu in grado di risalire al lavoro eseguito dal peso in caduta libera. Oggi, in quanto forma di energia, il calore nel SI (Sistema Internazionale) viene misurato in joule (J) come è stata chiamata l’unità di misura dell’energia e del lavoro. Per lungo tempo è stata però usata come unità di misura del calore la caloria (cal) corrispondente a 4,186 joule. Ancora oggi, per esprimere il contenuto energetico di un alimento, viene spesso utilizzata la kilocaloria (kcal) pari a 1000 calorie.

Una volta raggiunti questi importantissimi risultati, gli ulteriori progressi furono rapidi. Venne presto riconosciuto che la meccanica e la calorica erano solo due delle molte forme che l’energia poteva assumere. La radiazione emessa dal Sole, ad esempio, è essa stessa energia perché in parte si trasforma in calore quando giunge sulla Terra. La corrente elettrica possiede energia perché genera luce e riscalda il filamento di una stufa elettrica. Il carbone rappresenta energia chimica che si libera come calore quando brucia. E così via.

Il principale risultato degli esperimenti di Joule fu la dimostrazione che con il passaggio dell’energia da una forma all’altra non si creava affatto energia nuova né si distruggeva quella vecchia. Da queste osservazioni derivò quello che è stato chiamato “il primo principio della termodinamica” il quale afferma che l’energia può trasformarsi da una forma all’altra però il suo valore complessivo resta inalterato: l’energia non può essere né creata né distrutta. Si tratta di uno dei fondamenti della fisica moderna, detto anche principio di conservazione dell’energia mai smentito da alcuna osservazione e non intaccato nemmeno dalle teorie fisiche del Ventesimo secolo: la quantistica e le relativistiche di Einstein.

Ora però, mentre una qualsiasi forma di lavoro può essere convertito totalmente in calore, non è possibile il contrario, ossia il calore non può essere convertito completamente in lavoro. In una qualunque trasformazione energetica, per esempio di energia elettrica in energia luminosa, una parte di essa va persa nel riscaldamento della lampadina e dell’aria circostante come è facilmente constatabile avvicinando la mano ad una lampadina accesa. La parte dell’energia che inevitabilmente va perduta in calore inutilizzabile, in realtà non viene eliminata in quanto ciò sarebbe in contraddizione con il primo principio della termodinamica: semplicemente essa si converte in calore che si dissipa nell’ambiente. La parte di energia che si perde in calore inutilizzabile va ad aumentare quella che viene chiamata entropia, ovvero il disordine dell’ambiente. A forza di trasformare una forma di energia in un’altra facendo aumentare il calore disperso nell’ambiente verrà giorno (per nostra fortuna lontano) in cui si arriverà a quella che viene chiamata la morte termica dell’Universo (vi sarà solo calore inutilizzabile). Ciò è conseguenza del cosiddetto “secondo principio della termodinamica” il quale, nella sua forma più intuitiva, afferma che il calore non può passare spontaneamente da un corpo freddo ad uno caldo.

Con la determinazione della natura atomica della materia fu acquisita finalmente una chiara comprensione dell’essenza del calore. Verso la fine del 1800 il fisico austriaco Ludwig Boltzmann (1844-1906) elaborò una serie di equazioni atte a descrivere la continua agitazione delle molecole che caratterizzano il comportamento dei gas. La teoria prese il nome di “teoria cinetica dei gas” e fornì la spiegazione del movimento delle particelle (molecole e atomi) che caratterizzano i gas. Tale teoria dimostrò che il calore corrispondeva al moto frenetico di questi corpuscoli invisibili e con ciò la teoria del calorico ricevette il colpo mortale. Il calore, senza ombra di dubbio, venne definitivamente considerato un fenomeno vibratorio, ossia un movimento dei piccoli costituenti dei gas e dei liquidi o le loro vibrazioni intorno ad una stessa posizione nei solidi.

Quando un solido viene riscaldato, le particelle che lo costituiscono vibrano sempre più e se la temperatura è abbastanza elevata, i legami che le vincolano si spezzano, il solido fonde e diventa un liquido. Quando un solido si converte in liquido l’energia del calore viene utilizzata per spezzare i legami intermolecolari: questa è la ragione per cui il calore assorbito dal ghiaccio fondente non eleva la temperatura dell’acqua che si forma. Allo stato liquido le molecole si muovono più liberamente e se la temperatura continua ad aumentare esse volano via: il liquido evapora e passa allo stato gassoso.

Ora ci è facile distinguere fra calore e temperatura. Il calore è l’energia totale contenuta nei moti molecolari di una data quantità di materia; la temperatura rappresenta invece la velocità media delle molecole del corpo. Per fare un esempio, un litro di acqua a 60 °C contiene il doppio del calore di mezzo litro di acqua alla stessa temperatura perché contiene metà delle molecole in movimento presenti del litro, ma la temperatura del litro e del mezzo litro è la stessa giacché la velocità media delle molecole è la medesima in entrambi i casi.

Possiamo concludere ribadendo che i fenomeni termici attualmente sono interpretati alla luce delle conoscenze sulla struttura atomico-molecolare della materia. Gli atomi e le molecole dei corpi sono incessantemente animati da un moto caotico che ne determina la temperatura. Riscaldare un corpo significa intensificare l’agitazione termica aumentando l’energia cinetica media (cioè l’energia connessa al movimento) dei suoi atomi e delle sue molecole; raffreddarlo significa ridurla.

Prof. Antonio Vecchia

Reply