La struttura atomica


PREMESSA

La materia non può che essere continua o discontinua. Difatti, già nell’antica Grecia, alcuni filosofi pensavano che dividendo un corpo in parti sempre più piccole il processo sarebbe continuato all’infinito, mentre altri ritenevano che ad un certo punto si sarebbe incontrato un frammento di dimensioni minime non più divisibile. I primi erano i seguaci di Aristotele, mentre i secondi erano coloro che aderivano alle idee di Leucippo e del suo discepolo Democrito (colui che “il mondo a caso pone” e che per questo motivo Dante condannerà all’inferno).

Oggi sappiamo che avevano ragione i sostenitori della teoria della struttura discontinua e corpuscolare della materia tuttavia le loro idee, frutto di una geniale intuizione, non avevano il supporto di alcuna prova sperimentale in quanto i filosofi greci pervenivano alle loro conclusioni esclusivamente attraverso il ragionamento.

Colui che dimostrò, senza ombra di dubbio, l’esistenza di quelle particelle elementari e fondamentali della materia, che Democrito aveva chiamato atomi (cioè “indivisibili”), fu lo scienziato inglese John Dalton. Egli, dopo aver preso in esame le prime leggi ponderali della chimica, cioè quella di Antoine Lavoisier sulla conservazione della massa (1785), quella di Joseph-Louis Proust sulle proporzioni definite (1801) e soprattutto la sua sulle proporzioni multiple (1807), concluse che quelle leggi si potevano spiegare solo ammettendo che gli elementi fossero fatti di atomi.

Il ragionamento che portò Dalton alla formulazione della sua teoria fu il seguente. Perché mai – egli si chiese – gli elementi che formano i composti (come mostrava la legge di Proust) partecipano alla reazione secondo valori in peso definiti e interi? L’acqua, ad esempio, si forma facendo reagire esattamente 8 parti in peso di ossigeno e 1 parte in peso di idrogeno e mai si ottiene acqua facendo reagire quantità qualsiasi di quegli stessi elementi (ad esempio 8,1 o 7,9 parti di ossigeno per una di idrogeno). Se la materia fosse continua quest’ultima possibilità dovrebbe verificarsi, mentre solo se la materia fosse di natura atomistica, la legge delle proporzioni definite e costanti troverebbe giustificazione coerente.

La sua idea fu ulteriormente rafforzata dalla scoperta, da lui stesso effettuata, che due elementi erano in grado di combinarsi secondo più proporzioni. Ad esempio, ossigeno e idrogeno, oltre all’acqua, formano anche acqua ossigenata, ma mentre nel primo caso lo fanno combinandosi secondo un rapporto in peso di 8 a 1, nel secondo di 16 a 1. Se quindi si immaginava che la molecola di acqua (cioè il frammento più piccolo di questo composto) era formata dall’unione di un atomo di ossigeno con uno di idrogeno, il peso dell’atomo di ossigeno doveva essere 8 volte quello dell’atomo di idrogeno e quindi nella molecola di acqua ossigenata vi dovevano essere due atomi di ossigeno legati ad uno di idrogeno. (In realtà l’atomo di ossigeno pesa non 8, bensì 16 volte di più dell’atomo di idrogeno, ma il ragionamento che porta alla visione corpuscolare della materia conserva il suo rigore logico.)

Accettato quindi come oggetto esistente, i chimici, tuttavia, si resero subito conto che l’atomo non poteva essere, come immaginava Dalton e come suggeriva anche il nome che gli era stato assegnato, una semplice pallina di materia omogenea e indivisibile. I limiti di tale modello apparvero evidenti non appena ci si chiese come gli atomi potessero stare uniti insieme a formare aggregati, e quali fossero le forze e i meccanismi in grado di determinare la formazione di alcuni legami e la rottura di altri. I fisici, d’altra parte, avevano l’esigenza di spiegare il fenomeno dell’elettricità, una forma di energia la cui origine e natura doveva risiedere necessariamente negli atomi, visto che un corpo materiale poteva venire elettrizzato anche per semplice strofinio.

Si trattava quindi di costruire un modello di atomo, in grado di descrivere con maggiore precisione e dettaglio i fenomeni naturali. Per fare ciò era necessario indagare a fondo la struttura più intima della materia e alla fine gli scienziati riuscirono in effetti a costruire un modello di atomo molto accurato e preciso. Vediamo allora di ripercorrere le tappe fondamentali della lunga e faticosa ricerca sperimentale che ha condotto alla scoperta della struttura dettagliata dell’atomo anche perché si tratta di uno degli esempi più istruttivi di applicazione del metodo scientifico un metodo di indagine della natura guidato dalla intelligenza dell’uomo e fatto di osservazioni, di esperimenti, di ipotesi, di dubbi, di ripensamenti, di intuizioni e di errori.

 

I FENOMENI ELETTROLITICI

Le prime indicazioni che l’atomo non poteva essere una particella omogenea, vennero dall’analisi dei fenomeni di elettrolisi. Con questo termine si indicano quei fenomeni che si osservano quando, in certi liquidi, si immergono due sbarrette metalliche, dette elettrodi, collegate ad un generatore di corrente continua (ad es. una pila). La vaschetta che contiene il liquido con immersi gli elettrodi collegati rispettivamente al polo positivo (anodo) e a quello negativo (catodo) del generatore di corrente continua, si chiama “cella elettrolitica”.

L’interpretazione dei fenomeni di elettrolisi è piuttosto complessa ma a noi interessa solo osservare che durante il passaggio della corrente elettrica nella cella elettrolitica, si ha sempre comparsa o scomparsa di materia agli elettrodi. Michael Faraday, già nel lontano 1834, riassunse gli aspetti quantitativi di questo fenomeno in due leggi che portano il suo nome. Esse sono le seguenti:

I legge di Faraday. La massa della sostanza che compare o scompare ad ogni elettrodo di una cella elettrolitica è proporzionale alla quantità di elettricità che passa attraverso il liquido.
II legge di Faraday. La quantità di carica elettrica che deve fluire in una cella per far comparire o scomparire una mole(*) di sostanza a ciascun elettrodo è di 96.487 coulomb(**), oppure un multiplo intero e piccolo di tale quantità (ad es. il doppio, il triplo, ecc.).

Se ad esempio si facesse passare la corrente elettrica in una soluzione acquosa di nitrato di argento AgNO3, e in una di solfato di rame CuSO4, nel primo caso si noterebbe che al passaggio di 96.487 coulomb di elettricità si deposita al catodo una mole di argento (107,88 g), mentre, nel secondo caso, per fare depositare al catodo una mole di rame (63,54 g), servirebbe una quantità di elettricità doppia, pari cioè a 192.974 coulomb.

Ora, poiché i dati sperimentali mettevano in luce che un numero determinato di particelle, ad esempio quelle presenti in una mole (6,022·1023), trasportava una quantità determinata di elettricità, ad esempio 96.487 coulomb, era plausibile l’interpretazione che il fisico George Johstone Stoney, nel 1874, dette del fenomeno.

Lo scienziato inglese suppose che fossero i singoli atomi o le singole molecole a trasportare un ben preciso frammento di carica elettrica e a queste supposte particelle cariche di elettricità venne anche assegnato un nome. Esse vennero chiamate ioni (un termine che deriva dal verbo greco “hiemi” che vuol dire corro, mi affretto, a sottolineare la caratteristica mobilità di questi corpuscoli). Le cariche elettriche possono essere positive o negative: gli ioni con carica positiva sono detti cationi, perché durante l’elettrolisi si dirigono verso il catodo, quelli con carica negativa anioni, perché sono attratti dall’anodo.

Se l’intuizione di Stoney fosse corretta, la quantità minima di elettricità potrebbe venire determinata dividendo i 96.487 coulomb trasportati da una mole di materia per il numero di particelle contenute in essa, ossia per il numero di Avogadro. Si otterrebbe, in questo modo, il valore di 1,6·10-19 coulomb. Pertanto, un atomo (o un gruppo di atomi uniti insieme) trasporterebbe in soluzione la quantità di carica elettrica indicata sopra, o un suo multiplo. Ad esempio, l’atomo di argento porterebbe su di sé la quantità di carica pari esattamente al valore citato, mentre l’atomo di rame ne porterebbe una quantità doppia. Lo stesso Stoney propose il nome di elettrone per indicare la carica elettrica elementare (positiva o negativa) trasportata dagli ioni, quindi dette ad esso un significato diverso da quello che ha oggi l’elettrone.

Inizialmente si riteneva che fosse il passaggio della corrente elettrica a determinare la separazione (lisi) dei componenti della soluzione, ma successivamente, il chimico svedese Svante Arrhenius (1859-1927), analizzando a fondo i dati sperimentali, intuì che essi potevano anche essere interpretati immaginando che in soluzione, indipendentemente dal passaggio della corrente, fossero già presenti frammenti di materia carichi positivamente e negativamente. Con Arrhenius si faceva quindi strada l’idea che gli atomi non fossero entità indivisibili, ma strutture complesse, scindibili in frammenti più piccoli carichi di elettricità.

La teoria di Arrhenius prese il nome di “dissociazione elettrolitica” e rappresentò, per così dire, l’aspetto chimico dell’ipotesi della natura complessa dell’atomo. I risultati determinanti sarebbero venuti però dal lavoro dei fisici.

(*) La mole è la quantità in grammi di una sostanza pari al suo peso molecolare e corrispondente ad un ben determinato numero di particelle elementari.
(**) Il coulomb è l’unità di carica elettrica nel Sistema Internazionale (SI). Essa corrisponde ad una quantità di elettricità che ne attira o ne respinge (a seconda del segno) un’altra uguale, posta alla distanza di un metro, con la forza di 9·109 newton.

 

LA SCARICA ELETTRICA NEI GAS RAREFATTI

Lo studio del passaggio dell’elettricità in gas rarefatti iniziò verso la metà dell’800. Le osservazioni vennero effettuate in tubi di vetro pieni d’aria o di altri gas, con due piastre metalliche (elettrodi) fissate all’interno e collegate ad un generatore di corrente continua ad alta tensione(*).

Quando il tubo è pieno d’aria, anche applicando agli elettrodi una differenza di potenziale molto elevata (ad es. 10.000 volt) non si osserva alcun fenomeno in quanto l’aria (e più in generale i gas) a pressione normale, non conduce l’elettricità. (Se l’aria conducesse l’elettricità basterebbe un fulmine per mandarci tutti all’altro mondo; la cosa diventa pericolosa quando il fulmine cade in mare perché l’acqua di mare conduce l’elettricità.)

Se però si estrae l’aria dal tubo, per mezzo di una pompa aspirante, fino a ridurre la pressione a pochi millimetri di mercurio, si nota il passaggio della corrente elettrica, prima sotto forma di una scintilla che procede a zigzag, poi sotto forma di una luminosità diffusa che riempie il tubo fino a fargli assumere l’aspetto familiare di quelli al neon. Il colore della luce dipende dal gas con il quale è stato riempito il tubo: rosso per il neon, blu per l’azoto, rosa per l’idrogeno, e così via. Sottraendo ancora aria dall’interno del tubo, fino a raggiungere pressioni dell’ordine del decimo di millimetro di mercurio, la luminosità scompare del tutto, mentre diventa fluorescente la parete di vetro dirimpetto al catodo.

Se ora si volesse dare un’interpretazione a questo fenomeno, è evidente che debba trattarsi di un “quid” che si sprigiona dal catodo eccitando prima la materia che si trova nel tubo e poi, quando questa è stata praticamente eliminata, la zona del tubo posta di fronte ad esso. Nel 1876, il fisico tedesco Eugen Goldstein, nella convinzione di avere a che fare con una qualche forma di energia, dette, alla radiazione che emanava dal catodo, il nome di “raggi catodici”.

Alcuni anni più tardi, il fisico inglese William Crookes, per indagare sulla natura della radiazione catodica, apportò alcune modifiche ai tubi di scarica. Spostando lateralmente l’anodo, egli osservò che la radiazione continuava a procedere in linea retta dal catodo verso la parete di fronte (anticatodo). Se nel tubo veniva introdotto un leggerissimo mulinello, scorrevole su un binario, si osservava che esso, sotto l’effetto della radiazione, rotolava, dalla zona del catodo, verso quella opposta. Inoltre, interrompendo la radiazione catodica con un ostacolo, si poteva osservare, sulla parete di vetro posta di fronte, il formarsi di un’ombra netta, priva di aloni.

Gli esperimenti mettevano in evidenza che la radiazione che usciva dal catodo non poteva essere della stessa natura della luce, perché una forma di energia immateriale non sarebbe stata in grado di spingere un mulinello a pale; essa inoltre, incontrando un ostacolo, avrebbe dovuto generare, oltre all’ombra, un alone di penombra molto ben visibile. Le evidenze sperimentali suggerivano che doveva trattarsi di uno sciame di corpuscoli.

In seguito, Johann Wilhelm Hittorf (1824-1914) dimostrò che i raggi catodici venivano deviati sia da un campo magnetico(**), sia da un campo elettrico, e concluse che non solo doveva trattarsi di particelle, ma che queste dovevano possedere anche una carica elettrica, la quale, tenuto conto del senso della deviazione, doveva essere di segno negativo. Fu infine deciso di riservare a queste particelle, e non alle cariche elettriche, come si era fatto in precedenza, il nome di elettroni.

(*) La tensione, detta anche “differenza di potenziale”, è la forza elettrica di un circuito e rappresenta il lavoro necessario per trasportare una carica elettrica da un punto all’altro del circuito stesso. L’unità di misura della tensione, nel SI, è il volt. Si dice che tra due punti vi è la tensione di 1 volt quando, per trasferire da un punto all’altro la carica di 1 coulomb, occorre compiere il lavoro di 1 joule. La tensione tra i fili elettrici nelle nostre case è di 220 volt, mentre quella tra i poli delle comuni pile è di 1,5 volt.
(**) In fisica, come sarà meglio chiarito in seguito, si chiama “campo” la regione dello spazio che risente l’effetto di una determinata forza. Avvicinando allo schermo del televisore una calamita, si può osservare lo spostamento dell’immagine in quanto il televisore è sostanzialmente un tubo di scarica. Si sconsiglia tuttavia di fare l’esperimento con il televisore di casa: potrebbe, irrimediabilmente, rovinarsi.

 

LA DETERMINAZIONE DEL RAPPORTO CARICA/MASSA DELL’ELETTRONE

I primi esperimenti condotti sui tubi di scarica dettero, dei raggi catodici, solo informazioni di carattere qualitativo. Nel 1897, l’inglese Joseph John Thomson (1856-1940) modificò opportunamente le apparecchiature allo scopo di effettuare la misurazione del percorso seguito dai raggi stessi sotto l’effetto dei campi elettrico e magnetico.

Nel dispositivo usato da Thomson, gli elettroni prodotti dal catodo, vengono costretti a passare attraverso un piccolo foro praticato nell’anodo. L’apparecchio intero viene quindi inserito fra le espansioni di una calamita e, contemporaneamente, fra una coppia di piastre metalliche collegate ad un generatore di elettricità.

In assenza di campo magnetico e di campo elettrico, il pennello di elettroni che proviene dal catodo procede in linea retta fino ad incontrare il vetro del tubo. Quando è in azione il magnete (ma non le piastre elettriche), gli elettroni vengono deviati verso il basso. Disinserendo il magnete, e inserendo le piastre elettriche, si osserva che il pennello di elettroni devia verso la piastra carica di elettricità positiva.

Ora, dalla fisica si sa che un corpo carico di elettricità, in movimento all’interno di un campo magnetico, descrive una circonferenza la cui ampiezza dipende dalla carica elettrica, dalla massa e dalla velocità posseduta dal corpo, oltre che dall’intensità del campo magnetico in cui si muove.

Come è facilmente intuibile massa e velocità di un corpo carico di elettricità sono direttamente proporzionali all’ampiezza della traiettoria percorsa dal corpo stesso. Infatti, quanto più un oggetto è pesante, e quanto più velocemente procede, tanto più difficilmente potrà essere deviato dalla sua traiettoria ad opera di una forza esterna e pertanto più grande sarà il raggio della circonferenza da esso percorsa.

La carica elettrica posseduta dal corpo in movimento e l’intensità del campo magnetico sono invece inversamente proporzionali all’ampiezza della traiettoria: la curva percorsa dal corpo sarà infatti tanto più stretta quanto maggiore sarà la sua carica elettrica e quanto più intenso il campo magnetico che agisce su di esso.

Nel caso dell’elettrone, indicando con m la sua massa, con e la sua carica elettrica, con v la sua velocità e con B l’intensità del campo magnetico entro il quale è costretto a muoversi, si può dimostrare che il raggio r della traiettoria circolare percorsa da questo corpuscolo si calcola applicando la seguente formula:

 

m · v
r = ————
e · B

ossia, anche :

e          1 v
—— =  ——ּ—
m          r B

Tutte le grandezze presenti a secondo membro di quest’ultima equazione possono essere misurate.

In particolare, il valore del campo magnetico (B) si ottiene facendo uso di una elettrocalamita: dalla conoscenza delle sue caratteristiche di costruzione (numero delle spire, intensità della corrente elettrica che attraversa la bobina, ecc.) è possibile risalire all’intensità del campo magnetico da essa generato.

La velocità degli elettroni (v) viene invece determinata per via indiretta. E’ possibile infatti, calibrando la carica elettrica sulle piastre metalliche esterne, in modo tale da controbilanciare esattamente l’effetto del campo magnetico, ottenere il risultato di far procedere gli elettroni in linea retta, verso il punto che sta di fronte al catodo. Ora, poiché il valore della forza elettrica agente sull’elettrone è pari a e∙E (con e=carica dell’elettrone ed E=intensità del campo elettrico), e quello della forza magnetica è uguale a e∙v∙B (con e=carica dell’elettrone, v=velocità dell’elettrone e B=intensità del campo magnetico), nelle condizioni di equilibrio deve  risultare:

e∙E = e∙v∙B,

da cui:

v = E/B

Quindi, misurando l’intensità del campo elettrico, e del campo magnetico che fa equilibrio ad esso, si può conoscere la velocità degli elettroni. Alla fine non rimarrà che prendere la misura del raggio della traiettoria circolare seguita dagli elettroni sotto l’azione del campo magnetico, per ottenere il valore del rapporto e/m. Tale valore risulta 1,76∙108 coulomb/g.

La conoscenza del rapporto e/m dell’elettrone permette quindi di determinare il valore di una delle due grandezze una volta che sia nota l’altra. A quei tempi si conosceva il valore (almeno come ordine di grandezza) della carica elettrica elementare, tuttavia la sua misura precisa e accurata venne ottenuta, nel 1909, dal fisico americano Robert Millikan, insignito poi del premio Nobel nel 1923.

Il dispositivo di cui si servì Millikan per realizzare il suo esperimento è formato da due piastre parallele al terreno e collegate ad un generatore di corrente continua (ad esempio una serie di pile), che produce, fra le due piastre, un campo elettrico la cui intensità può essere variata a piacimento, inserendo o disinserendo alcune pile. Dopo che dell’olio è stato vaporizzato mediante un nebulizzatore, alcune goccioline, che frattanto si sono elettrizzate per strofinio, passano attraverso il forellino praticato nell’elettrodo superiore e scendono verso la piastra sottostante.

Quando gli elettrodi non sono collegati alle pile, le goccioline d’olio scendono in caduta libera. Quando però fra i due elettrodi è applicata una certa differenza di potenziale, si osserva che qualche gocciolina rimane sospesa a mezz’aria, altre scendono più o meno velocemente ed altre ancora salgono. Le goccioline che rimangono immobili fra le piastre cariche di elettricità, devono evidentemente portare su di sé una carica tale da consentire al campo elettrico di bilanciare esattamente la forza di gravità che agisce sulle stesse. Variando opportunamente l’intensità del campo elettrico si può arrestare anche la caduta di altre goccioline.

Millikan osservò che le cariche elettriche portate dalle goccioline d’olio che rimanevano sospese a mezz’aria fra gli elettrodi carichi, pur essendo di diverso valore, tuttavia erano sempre multiple della stessa grandezza. Mai avveniva che una gocciolina portasse su di sé una carica elettrica inferiore al valore di 1,60∙10-19 coulomb. Egli allora considerò questa quantità minima, la carica dell’elettrone.

Una volta misurata la carica, fu possibile determinare la massa dell’elettrone. Infatti, poiché era noto che il rapporto e/m valeva 1,67∙108 coulomb/g, sostituendo ad e il valore di 1,60∙10-19coulomb, si ottenne:

1,60∙10-19 coulomb
m =  ——————————— = 9,11∙10¯28 grammi.
1,76∙108 coulomb/g

L’elettrone diventava così la più piccola particella di materia mai conosciuta. Esso pesa 1836 volte di meno del peso dell’atomo di idrogeno, il più leggero che esista in natura.

 

I “RAGGI CANALE” E I “RAGGI X”

La materia, in condizioni normali, si presenta elettricamente neutra. Era quindi logico pensare che se da essa si era riusciti ad estrarre corpuscoli carichi di elettricità negativa, gli elettroni appunto, dovessero essere presenti residui carichi positivamente. Era altrettanto naturale attendersi che tali frammenti di materia avrebbero dovuto seguire, nell’interno del tubo di scarica, un percorso in senso contrario a quello degli elettroni.

Venne pertanto praticato un foro nel catodo in modo che le particelle, provenienti dalla zona anodica, potessero attraversarlo. Fu così possibile rendere evidente una radiazione, a cui fu assegnato, da Eugen Goldstein (1850-1930), il nome provvisorio di “raggi canale”.

Anche questa radiazione, sottoposta all’azione del campo magnetico, deviava dalla sua traiettoria, ma in direzione opposta a quella dei raggi catodici. Si trattava perciò di particelle cariche di elettricità positiva, per le quali fu possibile determinare il valore del rapporto carica/massa, utilizzando tecniche analoghe a quelle adottate per l’elettrone.

Diversamente dai raggi catodici, però, il rapporto carica/massa dei raggi canale, variava al variare del tipo di gas impiegato per riempire il tubo; inoltre, tale rapporto, risultava sempre migliaia di volte più piccolo di quello ricavato per gli elettroni. Quando fu possibile misurare la carica elettrica di questi nuovi corpuscoli, e risultò essere dello stesso valore di quella trovata per l’elettrone (anche se di segno opposto), fu possibile conoscere la massa di tali particelle: essa risultava praticamente identica a quella degli atomi o delle molecole che riempivano il tubo di scarica. I raggi canale, quindi, non erano altro che ioni positivi.

Se per riempire il tubo veniva impiegato l’idrogeno, la massa delle particelle positive risultava la più piccola di tutte. Il fatto che l’idrogeno formasse uno ione di massa inferiore a quella di qualsiasi altro elemento, fece pensare che lo ione idrogeno potesse essere una particella fondamentale. A questa particella fu assegnato pertanto il nome di protone, parola che in greco significa “di primaria importanza”.

Negli stessi anni in cui venivano compiuti gli studi sui raggi catodici e sui raggi canale, Wilhelm Röntgen (1845-1923) premio Nobel per la fisica nel 1901, scoprì un altro tipo di radiazione.

Egli aveva osservato che i raggi catodici, urtando contro le pareti di vetro del tubo di scarica, o contro un qualsiasi altro ostacolo posto di fronte al catodo (anticatodo), rendevano quella zona fluorescente. Contemporaneamente, da quello stesso punto, usciva una radiazione che rendeva a sua volta fluorescenti alcuni cristalli di platinocianuro di bario (un minerale di colore bianco) posti all’esterno.

Röntgen chiamò, questa nuova misteriosa radiazione, raggi X. I raggi X non sono di natura corpuscolare ma, anche se invisibili, hanno le stesse caratteristiche della luce. Essi possiedono infatti, fra l’altro, la proprietà di impressionare una lastra fotografica avvolta con carta nera. I raggi X assumeranno grande rilevanza per le loro applicazioni in fisica, in chimica e soprattutto in medicina.

Oggi conosciamo il motivo per il quale gli elettroni, quando vanno ad urtare contro un ostacolo emettono radiazioni. Gli elettroni veloci hanno una grande energia cinetica e, quando colpiscono una parete che ne rallenta fortemente la corsa, perdono buona parte della loro energia. Questa energia, però, non va dispersa nel nulla ma semplicemente tramutata in un’altra forma. Nel caso del bombardamento elettronico contro l’anticatodo, l’energia riappare sotto forma di raggi X.

 

GLI ISOTOPI

Lo studio delle radiazioni prodotte nei tubi di scarica riservò, alla fine, un’altra sorpresa. Era convinzione, a quel tempo, che ogni singolo elemento fosse costituito di atomi tutti identici. Pertanto, qualora si fosse riempito il tubo di scarica di un gas di una determinata specie chimica, era da aspettarsi che si formasse, sotto l’azione del campo magnetico, un’unica traccia del pennello dei raggi canale.

J.J. Thomson notò invece, durante un esperimento condotto nel 1912, che riempiendo il tubo di neon, il campo magnetico separava tre tracce distinte, corrispondenti a tre diversi valori del rapporto carica/massa delle particelle del gas in esame. Due di questi valori avrebbero potuto essere attribuiti a particelle di massa identica, ma con carica l’una il doppio dell’altra; il terzo valore era invece quasi sicuramente dovuto alla presenza di particelle di massa diversa. Thomson aveva quindi scoperto che il gas neon non doveva essere costituito di particelle tutte della stessa massa.

Lo strumento usato da Thomson venne successivamente perfezionato e prese il nome di spettrografo di massa. Si tratta essenzialmente di un generatore di ioni positivi sistemato all’interno di un campo magnetico uniforme. Il campo magnetico, come sappiamo, crea l’effetto di far percorrere agli ioni una traiettoria circolare tale che, dopo un percorso di un arco di 180°, gli ioni stessi vadano a cadere su una lastra fotografica, impressionandola.

Usando lo spettrografo di massa si scoprì che praticamente tutti gli elementi chimici sono formati dall’insieme di più specie atomiche di massa diversa. Gli atomi diversi dello stesso elemento chimico vennero chiamati isotopi (*).

Il neon, ad esempio, è costituito di tre isotopi aventi massa atomica rispettivamente 20, 21 e 22, mentre il peso dell’elemento risulta di 20,183. Questo peso medio dipende dalle proporzioni con cui sono mescolati, in natura, i tre tipi di atomi diversi.

Anche l’idrogeno risulta costituito da una pleiade di tre tipi diversi di atomi: il più leggero, di massa unitaria, prende il nome di protio (o prozio), quello di massa doppia si chiama deuterio e il terzo, di massa tripla, tritio (o trizio). Il peso atomico dell’elemento idrogeno è 1,008.

Per indicare gli isotopi si usa scrivere il simbolo dell’elemento con a fianco due numeri; l’uno, scritto in alto, detto numero di massa, indica, in pratica, il peso atomico dell’isotopo e l’altro, scritto in basso, detto numero atomico, individua la specie chimica (ovvero il posto che l’elemento occupa nel sistema periodico di Mendeleev). I tre isotopi dell’idrogeno hanno i seguenti simboli: 1H11H21H3; gli isotopi del neon si indicano invece nel modo seguente: 10Ne2010Ne2110Ne22.

E’ interessante osservare che quando ai tempi di Cannizzaro si decise di assegnare il valore 1 al peso dell’atomo di idrogeno, si assegnò in effetti, tale valore, al peso di un atomo medio dell’idrogeno, e non, come si credeva, a quello di un singolo atomo. Vedremo in seguito come verrà risolto il problema relativo alla definizione dell’unità di massa atomica.

(*) Isotopo deriva dalle parole greche isos e topos che significano “stesso posto”. Ciò si riferisce al fatto che gli isotopi di uno stesso elemento occupano la stessa posizione (cioè la stessa casella) all’interno del Sistema periodico di Mendeleev che, come tutti sanno, è la tabella che raccoglie ordinatamente gli elementi chimici noti.

 

IL MODELLO ATOMICO DI THOMSON

Subito dopo la scoperta degli elettroni, quando ancora non si aveva un’idea precisa di come fosse distribuita la carica positiva, vennero formulati i primi modelli di atomo. Il più noto di questi fu proposto, nel 1904, da Joseph John Thomson.

Si tratta di un modello che potremmo definire pieno a cariche diffuse. Secondo lo scienziato inglese l’atomo doveva essere costituito da una sfera omogenea di elettricità positiva, ma senza peso, nella quale si trovavano disseminati gli elettroni, come si trattasse di uvetta nel panettone. Per questo motivo all’atomo di Thomson venne anche assegnato il nome irriverente (ma efficace) di “modello a panettone”.

Il modello non era, come a volte si vuol far credere, una costruzione ingenua e banale: si trattava, invece, di una struttura fisica perfettamente coerente e sostenuta da rigorosi calcoli matematici. La situazione di equilibrio, all’interno dell’atomo, si realizzava, secondo Thomson, perché le forze di repulsione degli elettroni con carica negativa venivano bilanciate dall’attrazione esercitata dalla carica positiva, diffusa all’interno dell’atomo, sugli elettroni stessi.

Quando l’atomo veniva eccitato, cioè quando riceveva energia dall’esterno, gli elettroni entravano in oscillazione ed emettevano radiazioni di varia natura. Se l’eccitazione era molto intensa, poteva accadere che qualche elettrone venisse espulso, trasformando l’atomo in ione. Un atomo privato di alcuni elettroni conserva praticamente la stessa massa, ma assume carica positiva.

Ora, poiché Thomson pensava (erroneamente) che la massa degli atomi fosse dovuta esclusivamente agli elettroni, e poiché un elettrone pesa 1/1836 della massa dell’atomo di idrogeno, quest’atomo avrebbe dovuto contenere 1836 elettroni. Gli altri atomi, pesano decine e centinaia di volte di più dell’atomo di idrogeno e quindi avrebbero dovuto contenere al loro interno decine e centinaia di migliaia di elettroni. Un atomo con tanti elettroni a muoversi al suo interno pareva, già “ad occhio”, una struttura poco verosimile; fu tuttavia un fondamentale esperimento condotto dal fisico inglese Ernest Rutherford (1871-1937) a dimostrare che il modello di Thomson era del tutto inadeguato.

 

LA RADIOATTIVITA’

Nel 1898 il fisico francese Henry Becquerel (1852-1908), impegnato nello studio del fenomeno della fluorescenza, osservò che alcuni minerali di uranio, sotto l’azione della luce ordinaria, diventavano fluorescenti. Poiché si sapeva, dagli esperimenti che erano stati eseguiti poco tempo prima, che le pareti di vetro dei tubi di scarica, rese fluorescenti dai raggi catodici, generavano a loro volta raggi X, Becquerel pensò che anche i minerali di uranio, dopo essere stati esposti alla luce, potessero emettere raggi X, o qualche altra radiazione simile.

Egli pertanto, dopo aver esposto al Sole i minerali di uranio, li poneva su lastre fotografiche avvolte con carta nera, notando che le stesse rimanevano impressionate. Una fortuita circostanza volle che in una giornata di cattivo tempo, i minerali di uranio finissero riposti in un cassetto sopra alcune lastre fotografiche ancora avvolte nel loro involucro protettivo, in attesa del ritorno del Sole per poter riprendere gli esperimenti. Quando in seguito Becquerel utilizzò quelle lastre fotografiche notò, con sorpresa, che esse presentavano delle macchie nere, come se fossero già state usate.

Egli aveva scoperto, quasi per caso, che le radiazioni capaci di impressionare le lastre fotografiche venivano emesse indipendentemente dall’esposizione dei minerali di uranio alla luce del Sole, e che quindi la proprietà di irradiare era insita nella sostanza stessa, e non dipendeva da fattori esterni.

Successivamente i coniugi Curie (Pierre e Marya Sklodowska, premi Nobel per la fisica nel 1903) dedicarono tutta la loro vita allo studio di questo fenomeno, che da loro venne chiamato “radioattività”.

Fu osservato, fra l’altro, che queste radiazioni ionizzano l’aria. L’aria ionizzata è conduttrice di elettricità e infatti, un elettroscopio carico(*), quando gli si avvicina una sostanza radioattiva, si scarica rapidamente. L’esperienza mostrava inoltre che la velocità di scarica dell’elettroscopio dipendeva direttamente dalla quantità di materia radioattiva presente nel campione di roccia utilizzato.

I coniugi Curie, avendo notato il mancato accordo tra la velocità di scarica dell’elettroscopio ad opera di un campione di pechblenda (minerale di uranio) e la quantità di uranio che esso conteneva, supposero che nel minerale fossero presenti tracce, irrilevabili all’analisi chimica ordinaria, di una sostanza estremamente radioattiva.

Alla fine di un lungo ed impegnativo lavoro, i Curie riuscirono ad estrarre da alcune tonnellate di pechblenda pochi decigrammi di due elementi altamente radioattivi, a cui essi stessi dettero il nome di polonio, per onorare la Polonia, terra natale di Marya Sklodowska, e di radio, sostanza 400 volte più radioattiva dell’uranio.

Lo studio sulla natura di queste radiazioni venne condotto soprattutto dal fisico inglese di origine neozelandese Ernest Rutherford, uno dei più grandi fisici sperimentali che il mondo scientifico abbia mai conosciuto.

Egli pose un pezzetto di una sostanza radioattiva in una cavità ricavata all’interno di un blocchetto di piombo, che aveva la funzione di trattenere la radiazione, ma che presentava un canalicolo attraverso il quale la radiazione stessa poteva uscire. All’esterno venivano poste due piastre elettriche (o anche le espansioni di un magnete) in modo che la radiazione venisse sottoposta all’azione di un campo elettrico (o magnetico).

Si poteva così osservare che la radiazione proveniente dalla sostanza radioattiva si divideva in tre parti: la prima subiva una forte deviazione verso il polo positivo del campo elettrico, la seconda risultava deviata dalla parte opposta, ma in minor misura; la terza, infine, procedeva in linea retta senza risentire dell’effetto del campo. Successivamente si chiarì che le radiazioni deviate dal campo elettrico erano di natura corpuscolare e possedevano carica elettrica, mentre quella che procedeva senza risentire della presenza del campo elettrico era una radiazione simile ai raggi X.

La prima radiazione venne chiamata “raggi β”, ed identificata più tardi con un flusso di elettroni; la seconda venne chiamata “raggi α”, e riconosciuta in seguito come un flusso di ioni elio (cioè atomi di elio privati dei due elettroni periferici); la terza venne chiamata “raggi γ” (raggi gamma).

Il fenomeno della radioattività metteva in luce, fra l’altro, che l’atomo, oltre ad espellere elettroni, emetteva anche particelle positive. In questo modo la struttura uniforme del modello atomico di Thomson veniva ulteriormente messa in dubbio e il termine di “atomo” (nel senso di struttura indivisibile) andava perdendo, con sempre maggiore evidenza, il suo significato primitivo. Tuttavia, l’esperimento decisivo, quello che avrebbe cambiato radicalmente il modello, doveva ancora essere eseguito.

(*) L’elettroscopio è uno strumento, costituito di due foglioline metalliche sospese ad un’asta, che serve per accertare la presenza di una carica elettrica su un corpo. Quando l’elettroscopio è scarico le foglioline sono chiuse, e sistemate in posizione verticale; quando l’elettroscopio è carico, le foglioline divergono perché le loro cariche elettriche hanno lo stesso segno e quindi si respingono.

 

IL MODELLO ATOMICO DI RUTHERFORD

Ernest Rutherford, nel 1908, al conseguimento del premio Nobel per la chimica (e non per la fisica, come sarebbe stato logico attendersi), per le sue ricerche sulla radioattività, aveva commentato: “Nella mia vita di sperimentatore, ho assistito a molte trasformazioni, ma la più stupefacente di tutte è stata quella che mi ha trasformato da fisico in chimico” Queste parole, dette da uno scienziato eclettico, quale fu Rutherford, che fra l’altro operò nelle maggiori Università di tutto il mondo, fanno riflettere sulla interdisciplinarità della ricerca scientifica: una scoperta in un determinato campo del sapere, può condurre a risultati di notevole interesse anche in altri settori.

Rutherford, nel 1911, in uno dei suoi tanti esperimenti divenuti famosi per la semplicità e la genialità dell’impostazione, dimostrò che l’atomo non poteva avere una struttura omogenea, come l’immaginava Thomson, ma doveva possedere un nucleo di dimensioni molto piccole e di carica elettrica positiva, nel quale era concentrata praticamente tutta la sua massa.

L’esperimento di Rutherford, nelle sue linee essenziali, consistette nel lanciare, contro una sottilissima fogliolina d’oro, le particelle α emesse spontaneamente dalle sostanze radioattive ed osservare la loro deviazione (il cosiddetto scattering). Egli così poté notare che la quasi totalità di queste particelle passava indisturbata attraverso la lamina d’oro, ma che una piccola percentuale di esse subiva delle deviazioni. Si trattava normalmente di deviazioni di minima entità ma, cosa sorprendente ed imprevista, alcune particelle deflettevano notevolmente e a volte venivano addirittura respinte all’indietro. “Era l’evento più incredibile che mi fosse mai capitato di vedere; – commentò successivamente lo stesso Rutherford – era come sparare un proiettile contro un foglio di carta velina e vederselo tornare indietro, a colpire chi l’aveva sparato”.

Questa osservazione non poteva che avere un’unica spiegazione: l’atomo, nel suo complesso, era un edificio vuoto, con tutta la massa concentrata in un nucleo centrale carico positivamente, molto piccolo e di conseguenza anche molto denso. Gli elettroni, necessariamente, dovevano muoversi su ampie orbite, intorno al nucleo, come i pianeti ruotano intorno al Sole. Per questo motivo, il modello atomico di Rutherford, venne anche detto modello planetario.

I fatti sperimentali mostravano che il nucleo doveva possedere dimensioni di circa 10.000 volte minori di quelle dell’atomo intero. Per farci un’idea di queste dimensioni possiamo immaginare di ingrandire un atomo fino a fargli assumere le dimensioni di un ampio salone: il nucleo, al centro, non sarebbe più grande della capocchia di uno spillo.

Tuttavia, nonostante che il modello di Rutherford fosse molto seducente, soprattutto per la descrizione unitaria che dava della struttura del micro- e del macrocosmo, esso aveva il difetto di essere assolutamente incompatibile con le leggi della meccanica e dell’elettrodinamica. Secondo queste leggi infatti, un corpo carico di elettricità che si muova con moto che non sia rettilineo ed uniforme, irradia energia a scapito della propria. L’elettrone pertanto, nel suo moto circolare intorno al nucleo, poiché è soggetto ad una continua accelerazione centripeta, e cambia quindi velocità ad ogni istante, dovrebbe irradiare e subire una progressiva diminuzione della propria energia. Ciò lo porterebbe a cadere, seguendo una traiettoria a spirale, sul nucleo. Si ricordi a questo proposito ciò che accadeva agli elettroni quando, urtando contro le pareti del tubo di scarica, emettevano radiazioni elettromagnetiche sotto forma di raggi X, proprio a seguito della decelerazione che subivano penetrando nel vetro.

E’ stato calcolato che l’atomo, se fosse costruito secondo il modello proposto da Rutherford, sarebbe destinato a disintegrarsi in una frazione di secondo. L’atomo, invece, per nostra fortuna, è stabile.

C’era, evidentemente, qualche cosa che non funzionava nel modello proposto da Rutherford: non rimaneva che cambiare modello, a meno che non si volesse cambiare le leggi della fisica.

 

LA SPETTROSCOPIA OTTICA

I fisici, caparbiamente impegnati nella ricerca di un modello atomico soddisfacente, dopo averle tentate tutte, rivolsero alla fine la loro attenzione alla luce. La luce è una forma di energia, la cui origine deve risiedere nell’atomo, visto che corpi eccitati termicamente o elettricamente emettono luce (si pensi ad esempio al filamento incandescente di una lampadina).

Vi è un fenomeno luminoso che già Newton, verso la metà del ‘600, aveva osservato e descritto: quando un raggio di luce solare attraversa un prisma di vetro, si scompone in una fascia continua di colori diversi, alla quale si è dato il nome di “spettro”. Il fenomeno prende il nome di dispersione della luce, e i colori presenti nello spettro sono quelli dell’arcobaleno: rosso, arancione, giallo, verde, azzurro, indaco e viola. La luce bianca è pertanto una mescolanza di luce di diversi colori.

Nel 1814 il fisico tedesco Joseph Fraunhofer, osservando attentamente lo spettro solare, ottenuto facendo passare la luce attraverso una sottile fessura posta davanti al prisma, notò che era solcato da numerose righe scure, delle quali però non seppe dare una giustificazione.

L’esperienza insegna che gli spettri possono essere continui o discontinui. I primi sono emessi da corpi solidi o liquidi resi incandescenti, mentre i secondi sono prodotti da gas portati ad alta temperatura o eccitati da scariche elettriche. Più precisamente, gli spettri discontinui possono essere a bande o a righe; se i gas sono allo stato molecolare, gli spettri sono a bande, mentre se sono allo stato atomico, gli spettri sono a righe.

Si osserva inoltre che ogni elemento chimico produce un proprio spettro di righe, caratteristico per colore e per posizione delle righe stesse, e che mai si verifica che due elementi di natura diversa diano origine a righe coincidenti.

Uno spettro a righe luminose è detto spettro di emissione. Viceversa, è detto spettro di assorbimento lo spettro che si forma quando un gas freddo viene attraversato da un fascio di luce bianca: al di là del prisma si vedrà apparire uno spettro luminoso continuo (cioè comprendente tutti i colori) solcato da alcune righe nere.

Per uno stesso gas si osserva che le righe nere dello spettro di assorbimento corrispondono esattamente alle righe luminose dello spettro di emissione. Tutte le sostanze assorbono infatti le stesse radiazioni che sono in grado di emettere (legge di Kirchoff). Il problema è ora quello di dare un’interpretazione coerente ai fenomeni che abbiamo illustrato.

Fino a tutto il XIX secolo i fenomeni luminosi erano descritti da due teorie fra loro antitetiche: quella di Isaac Newton (1642-1727) e quella di Christiaan Huygens (1629-1695). Secondo l’idea di Newton la luce era costituita di corpuscoli di vari colori, mentre, secondo Huygens, la luce si propagava per onde. In realtà, alcuni fenomeni luminosi come quello della riflessione, della rifrazione e della stessa dispersione di cui abbiamo appena riferito, potrebbero essere spiegati con la teoria corpuscolare di Newton, immaginando uno sciame di corpuscoli che, emessi dalla sorgente luminosa, rimbalza e devia per gli ostacoli interposti finendo poi per colpire il nostro occhio. Altri fenomeni, però, come la diffrazione e l’interferenza trovano spiegazione coerente solamente se inquadrati all’interno della teoria ondulatoria.

Diffrazione e interferenza sono due fenomeni per i quali, quando la luce passa attraverso forellini molto piccoli o attraverso fessure molto strette, l’immagine che si raccoglie su uno schermo appare formata da una serie di anelli o di fasce chiare e scure che sfumano gradualmente verso l’esterno.

Ora, poiché la diffrazione e l’interferenza potevano essere spiegate solo immaginando la luce come un fenomeno ondulatorio, mentre tutti i fenomeni giustificabili con la teoria corpuscolare di Newton, potevano, con altrettanta coerenza essere interpretati con la teoria ondulatoria, quest’ultima finì per prevalere sull’altra.

 

LA RADIAZIONE ELETTROMAGNETICA

Gli antichi pensavano che le uniche forze reali operanti in natura fossero quelle che si esercitavano attraverso il contatto diretto fra i corpi (ad esempio attraverso una spinta). Essi pertanto non potevano immaginare che un corpo lontano, come potrebbe essere ad esempio il Sole, fosse in grado di esercitare una forza su un altro corpo col quale non era a contatto, ad esempio la Terra. Questa opinione persistette fino ai tempi di Newton quando i pianeti vennero tolti dalle sfere di cristallo nelle quali erano stati incastonati dai filosofi greci.

Con Newton le cose cambiarono perché lo scienziato inglese scoprì la legge di gravitazione universale secondo la quale i corpi si attraggono anche senza essere a diretto contatto. Per descrivere l’interazione gravitazionale (e in seguito anche l’interazione fra cariche elettriche e magnetiche) fu usata l’espressione “azione a distanza”.

Anche se non era più indispensabile il contatto diretto, si riteneva tuttavia che fosse comunque essenziale la presenza di un mezzo attraverso il quale si potesse propagare la forza dall’uno all’altro corpo. Fu allora necessario ammettere l’esistenza di una sostanza invisibile che doveva permeare di sé tutto l’Universo, e garantire il collegamento fra i corpi. A questa sostanza venne dato il nome di “etere”, in omaggio ad Aristotele, secondo il quale di etere erano formati i corpi celesti.

Per quanto riguarda la luce, scartata la teoria corpuscolare di Newton, non rimaneva che quella ondulatoria a spiegare tutti i fenomeni luminosi noti a quel tempo. Si sapeva però che le onde, per potersi trasmettere, avevano bisogno di un mezzo. Le onde sonore, ad esempio, si propagano nell’aria e quelle del mare nell’acqua; nel vuoto le onde sonore non si trasmettono e senza il mare non ha senso parlare di onde del mare. Le onde luminose pertanto si propagherebbero anch’esse attraverso un mezzo materiale che sarebbe potuto essere l’etere o un altro mezzo simile all’etere.

Prima di analizzare le caratteristiche di quello che potremmo chiamare “etere luminifero”, vediamo di chiarire che tipo di onda dovrebbe essere quella luminosa. Le onde, come tutti sanno, possono essere longitudinali o trasversali. Le onde longitudinali sono quelle in cui l’oscillazione delle particelle del mezzo nel quale si trasmettono si effettua nella stessa direzione di propagazione dell’onda: le onde sonore sono onde di questo tipo. Le onde trasversali sono quelle onde in cui le oscillazioni del mezzo in cui si propagano avvengono in direzione perpendicolare a quella di propagazione dell’onda stessa: le onde del mare sono onde di questo tipo.

Le onde luminose sono simili alle onde del suono o a quelle del mare? Vi sono molte evidenze sperimentali che depongono a favore della seconda ipotesi. Accenniamo ad una di esse. Se si disponesse di una sottile lamina ricavata tagliando opportunamente un cristallo di tormalina, si potrebbe vedere, attraverso di essa, una sorgente luminosa. Se ora si ponesse una seconda lamina, sopra alla prima, questa potrebbe risultare sistemata in modo tale da lasciare ancora intravedere la sorgente luminosa. Se, però, a questo punto, si ruotasse una delle due lamine sull’altra, si noterebbe la luce affievolirsi sempre più fino a spegnersi del tutto.

Se l’onda della luce fosse di tipo longitudinale, non si dovrebbe osservare questo fenomeno. Nel caso di onde longitudinali, infatti, le oscillazioni del mezzo avvengono nello stesso senso in cui si propaga il raggio luminoso, per cui la rotazione del cristallo non dovrebbe produrre alcun effetto lungo l’asse. Un cambiamento radicale come la sparizione e la riapparizione della luce potrebbe verificarsi solo nel caso in cui l’onda fosse trasversale e le oscillazioni avvenissero fra i filari degli atomi del cristallo regolarmente disposti, come si trattasse dei ferri di una cancellata.

Torniamo ora al problema dell’etere. Si pensava, a quel tempo, che qualora l’etere fosse veramente esistito, esso sarebbe dovuto essere una sostanza immobile diffusa in ogni luogo; al suo interno si sarebbero dovuti muovere i corpi celesti, come si muovono i pesci in mare, viaggiare le onde luminose e propagarsi le forze da un corpo all’altro.

Nel 1887 il fisico statunitense Albert Michelson (1852-1931) ideò un ingegnoso dispositivo che avrebbe consentito di misurare lo spostamento della nostra Terra attraverso l’etere immobile. L’esperimento tuttavia non riuscì e questo insuccesso lasciò perplesso il mondo dei fisici. Alcuni anni più tardi, nel 1906, l’allora ventiseienne Albert Einstein dedusse, dal fallimento dell’esperimento di Michelson, che nell’Universo non poteva esserci nulla di assolutamente fermo. Il concetto di quiete e di moto potevano essere definiti solamente per confronto fra oggetti che erano comunque tutti in movimento. Pertanto l’etere, quale mezzo immobile entro il quale gli altri corpi si sarebbero dovuti muovere, non poteva esistere. In realtà Einstein non rigettò pregiudizialmente l’idea dell’etere, egli affermò semplicemente che non era tecnicamente possibile condurre un qualsiasi esperimento capace di rendere manifesta questa particolare sostanza. E poiché nella scienza conta solo ciò che può essere sperimentato, era illogico voler insistere sulla presenza dell’etere, anche in considerazione del fatto che nel frattempo si stava facendo strada l’idea dell’esistenza di onde elettromagnetiche, cioè di onde che, come vedremo meglio in seguito, potrebbero non aver bisogno di alcun sostegno per propagarsi.

Vediamo innanzitutto cosa sono le onde elettromagnetiche. Immaginiamo allora di eseguire il seguente esperimento. Avviciniamo il polo sud di una calamita a forma di sbarra, al polo nord di un ago magnetico, vedremo che questo gli si avvicina. Ruotando ora la calamita di 180° in modo che sia il polo nord di essa ad avvicinarsi al polo sud dell’ago calamitato, noteremo che questo gli si allontana. Continuando a ruotare la calamita, si osserva che la punta dell’ago magnetico continua ad andare avanti e indietro.

Un tempo, anche questo fenomeno veniva interpretato come il risultato di un’azione a distanza della calamita sull’ago magnetico, immaginando un mezzo interposto fra ago magnetico e calamita, ma in seguito si intuì che il fenomeno poteva essere spiegato in modo più lineare facendo ricorso al concetto di campo.

Con il termine di campo, o meglio, di “campo di una grandezza” si indica, in fisica, l’insieme dei valori che una determinata grandezza assume in ogni punto di una certa regione dello spazio, in conseguenza dell’esistenza di una fonte energetica.

Il campo gravitazionale del Sole, ad esempio, è quella zona dello spazio intorno al Sole in cui il vettore forza gravitazionale ha un valore definito in ogni punto. Un corpo (per esempio la nostra Terra), collocato entro questo spazio, sarà soggetto ad una forza che dipende dal valore del campo gravitazionale creato dal Sole in quel determinato punto.

Analogamente si dice che esiste un campo magnetico (ad esempio fra le espansioni polari di una calamita) nello spazio in cui un opportuno rivelatore (ad esempio l’ago calamitato di una bussola) subisce una forza che tende a spostarlo. La calamita quindi, crea intorno a sé una certa condizione alla quale l’ago magnetico reagisce.

Se ora riportassimo su un piano cartesiano la posizione della punta dell’ago magnetico oscillante nel tempo per effetto della rotazione della nostra calamita, otterremmo il diagramma di un’onda. Possiamo quindi immaginare che la rotazione della calamita produca un’onda di energia nello spazio. La punta dell’ago magnetico, che si trova sistemata in questo spazio, subisce alternativamente l’azione della cresta e del ventre dell’onda di energia che la calamita produce ruotando, comportandosi come si comporterebbe un galleggiante che venisse spostato in su e in giù dall’onda del mare.

Si potrebbe dimostrare che cariche elettriche in movimento, per esempio all’interno di un filo metallico, producono, oltre ad un campo elettrico, anche  un campo magnetico esattamente identico a quello prodotto da una calamita. D’altra parte, anche una calamita in movimento, produce intorno a sé oltre ad un campo magnetico, un campo elettrico. E’ evidente allora che fra campo elettrico e campo magnetico debbano esistere relazioni molto strette che si manifestano, fra l’altro, nella possibilità di generare il primo mediante il secondo, e viceversa.

Nel 1865, il fisico scozzese James Clerk Maxwell (1831-1879), sintetizzò, in alcune celebri equazioni, i risultati sperimentali relativi ai fenomeni elettrici e magnetici alla luce del concetto di campo. Queste equazioni lasciavano prevedere che i campi elettrico e magnetico potessero distaccarsi dai mezzi materiali che li avevano generati e viaggiare nello spazio sotto forma di onde elettromagnetiche.

L’analisi di questo ipotetico fenomeno, condotta alla luce delle equazioni che descrivevano il comportamento dei campi elettrici e magnetici portò alla conclusione che le onde elettromagnetiche dovevano possedere una velocità di propagazione identica a quella della luce (300.000 Km/s). Maxwell non considerò tale corrispondenza come un fatto fortuito e avanzò l’ipotesi che la luce non fosse altro che un insieme di onde elettromagnetiche. Le onde elettromagnetiche, come abbiamo visto, sono generate da cariche elettriche in movimento; pertanto è da ritenere che là dove vi è una sorgente luminosa, per esempio materia incandescente, debbano esserci cariche elettriche in movimento.

Come abbiamo visto, con l’introduzione del concetto di “campo” diviene superfluo quello di “etere” nel senso che non è più necessario immaginare una sostanza per far oscillare le onde elettromagnetiche in quanto ora è lo spazio stesso a possedere la proprietà fisica di trasmettere questa forma di energia. Si può ancora, se si vuole, continuare a parlare di etere, ma solo per designare questa particolare proprietà dello spazio.

I risultati raggiunti da Maxwell, tuttavia, avevano solo validità teorica, ma qualche anno più tardi, il fisico tedesco Heinrich Rudolf Hertz (1857-1894) riuscì a registrare la presenza di onde elettromagnetiche facendo scoccare delle scintille fra due sfere metalliche cariche di elettricità. Queste onde erano di notevole lunghezza. In seguito si è potuto appurare che le onde elettromagnetiche possono avere lunghezze molto variabili e, a seconda di queste, esse corrispondono a radiazioni di natura diversa.

Le onde elettromagnetiche con lunghezze notevoli (fino a decine di kilometri) sono dette onde radio o onde herziane; quelle con lunghezze di frazioni di millimetro sono i cosiddetti raggi infrarossi, quindi, quelle con lunghezza compresa fra 0,8 mm e 0,4 mm (mm, micrometro=10-6 m) sono le onde luminose, infine, con lunghezze ancora più piccole, seguono i raggi ultravioletti, i raggi X e i  raggi gamma.

Poiché abbiamo visto che le onde elettromagnetiche sono onde trasversali, prima di procedere, forse è opportuno ricordare le grandezze fondamentali che caratterizzano questo tipo di onde:

  • l’ampiezza di un onda (A) è la distanza, misurata lungo la verticale, dal punto medio dell’onda alla cresta (massimo).
  • la lunghezza d’onda (λ) è la distanza che separa orizzontalmente due creste successive. Le lunghezze d’onda della luce si esprimono spesso in ångström (Å) (1Å = 10-7mm).
  • il periodo (T) è il tempo impiegato da un punto qualsiasi dell’onda a compiere un’oscillazione completa, cioè a tornare al punto di partenza.
  • la frequenza () è il numero delle creste che, in un dato punto, vengono contate nell’unità di tempo. La frequenza è detta anche vibrazioni o cicli al secondo. Essa si misura in hertz (Hz): 1 hertz = 1 ciclo al secondo, o s-1. Fra frequenza e periodo esiste la relazione:= 1/T.
  • Poiché λ è la lunghezza dell’onda, la sua velocità (spazio diviso tempo) è data da:

    v = λ /T

    ovvero, ricordando la definizione di frequenza, possiamo anche scrivere:

    v = ﹒λ

    Nel caso della luce, se con c si indica la sua velocità, avremo:

    c = λ /T,

    ovvero:

    c = λ﹒

     

    LE SERIE SPETTRALI DELL’ATOMO DI IDROGENO

    Lo spettro di emissione dell’idrogeno (allo stato atomico) è uno spettro a righe di colori diversi. Le righe osservabili direttamente attraverso lo spettroscopio, quando questo gas viene eccitato ad emettere luce, all’interno di un tubo di scarica, sono 4. Ogni riga corrisponde ad una radiazione elettromagnetica di ben determinata lunghezza d’onda.

    Nel 1885, J. Jacob Balmer, un insegnante svizzero di scuola media, notò che le righe spettrali dell’idrogeno non erano poste a caso, ma secondo un preciso ordine esprimibile con la seguente formula:

                        n²
    λ = 3.645,6 ∙ ──── Å
    n² – 4

    dove n è un numero intero. Dando ad n i valori 3, 4, 5 e 6 si ottengono le lunghezze d’onda ( λ), espresse in ångström, delle quattro righe visibili dello spettro.

    La formula di Balmer, in seguito, fu modificata dal fisico svedese Robert Rydberg, per renderla più significativa, nel modo seguente:

    1                1          1
    ── = R ∙ (──  –  ── )           con n = 3, 4, 5, 6…
    λ                2²        n²

     

    Sostituendo ad n il numero 3 si ottiene λ = 6.565 Å, valore corrispondente alla lunghezza d’onda della riga di colore rosso-arancio; per valori di n uguali a 4, 5 e 6 si ottengono le lunghezze d’onda delle altre righe osservabili dello spettro; per valori maggiori di 6 si ottengono invece righe non visibili direttamente perché sistemate nella zona ultravioletta dello spettro.

    L’equazione di Balmer, modificata, lasciava prevedere l’esistenza anche di altri gruppi di righe, nella zona dell’ultravioletto e dell’infrarosso. Queste serie di righe successivamente vennero effettivamente identificate nelle zone non visibili dello spettro. La forma generalizzata dell’equazione di Balmer è la seguente:

    1                   1        1
    ──  =  R ∙ ( ── – ── )
    λ                  m²      n²

    dove m e n sono numeri interi, con n > m. Assegnando ad m il valore 1 e ad n i valori 2, 3, 4, ecc. si ottengono le lunghezze d’onda di una serie di righe scoperte dal fisico statunitense Theodore Lyman, nel 1906, nella regione dello spettro ultravioletto dell’idrogeno. Assegnando ad m il valore 3 e ad n i valori 4, 5, 6, ecc. si ottiene un’altra serie di righe che venne individuata dal fisico tedesco Heinrich Friedrich Paschen, nel 1908, nella zona dell’infrarosso sempre dello spettro prodotto da una scarica elettrica in idrogeno rarefatto.

    Per ogni valore di m esiste quindi una serie praticamente infinita di righe. Oltre a quelle di Balmer, di Lyman e di Paschen, a cui abbiamo accennato, vennero osservate, nell’estremo infrarosso, per valori di m=4 e m=5, da Brackett nel 1922, da Pfund nel 1924, altre due serie di righe.

     

    LO SPETTRO DEL “CORPO NERO”.

    Verso la fine del 1800, molti fisici erano interessati allo studio delle radiazioni emesse da corpi incandescenti. Fra le altre cose, si era osservato che un corpo, reso incandescente, assumeva colori diversi a seconda della temperatura a cui veniva portato. Il filamento di una lampadina, ad esempio, assume colori sempre più chiari, passando dal rosso cupo, all’arancione, al giallo e al bianco, a mano a mano che aumenta la sua temperatura, per effetto del passaggio della corrente elettrica. A che cosa corrispondono questi colori?

    Come abbiamo già spiegato, ciò che il nostro occhio percepisce è una luce che equivale alla sovrapposizione di radiazioni di diverso colore (cioè di diversa lunghezza d’onda), emesse dall’oggetto che irradia. L’insieme di queste radiazioni costituisce lo spettro del corpo relativo alla temperatura a cui si trova. Se l’intensità di una di queste radiazioni è nettamente superiore alle altre, il nostro occhio percepisce preferibilmente questa particolare radiazione.

    Il filamento della lampadina, ad esempio, appare rosso attorno ai 500 °C, perché a quella temperatura domina, su tutti gli altri, il colore rosso della radiazione; a 2000 °C il filamento appare invece bianco perché, a quella temperatura, tutte le componenti della luce visibile si assommano. Un corpo irraggia anche alle basse e alle altissime temperature, solo che in questi casi il nostro occhio non è in grado di vedere alcunché perché esso non è sensibile alla radiazione infrarossa né a quella ultravioletta.

    Tutte queste osservazioni servirono di base per un lavoro sistematico condotto, a partire dal 1893, dai fisici tedeschi H. F. Paschen e Wilhelm Wien. Gli esperimenti vennero effettuati sul cosiddetto “corpo nero”.

    Il corpo nero è un oggetto teorico capace di assorbire tutte le radiazioni che lo investono: esso quindi non riflette alcuna radiazione. Un corpo siffatto, pertanto, quando viene riscaldato, emette radiazioni che sono solo quelle che esso stesso produce, come conseguenza del riscaldamento cui è stato sottoposto.

    Un corpo nero, nella pratica, come abbiamo detto, non esiste; tuttavia, con buona approssimazione può essere considerato tale una cavità, annerita di fuliggine, fatta comunicare con l’esterno attraverso una minuscola finestrella. Riscaldando notevolmente questo corpo, i fisici osservarono che, all’aumentare della temperatura, mentre aumentava l’intensità dell’emissione, diminuiva la lunghezza d’onda della radiazione corrispondente al massimo di energia (è il fenomeno di cui si è parlato all’inizio facendo riferimento al filo della lampadina che veniva portato a temperature sempre più alte).

    Si otteneva in pratica un diagramma nel quale si poteva osservare che, a temperature sempre più elevate, si originano curve a campana sempre più alte e, contemporaneamente, le sommità di tali curve si spostano verso valori di lunghezza d’onda sempre più bassi, cioè verso radiazioni di colore viola.

    Quando si trattò di interpretare i risultati relativi all’emissione del corpo nero, ci si rese conto che la teoria ondulatoria della luce era del tutto inadeguata. In altre parole, i fatti sperimentali non potevano essere giustificati ammettendo che la luce si propaghi per onde. Da Galilei in poi, ogni volta che una teoria si è trovata in disaccordo con i fatti sperimentali, la teoria ha dovuto essere abbandonata. Così avvenne anche in questo caso.

    Nel 1900, il fisico tedesco Max Planck (1858-1947), considerato a ragione uno dei padri della fisica moderna, propose un artifizio matematico attraverso il quale era possibile elaborare una formula in grado di spiegare i dati sperimentali. L’artifizio era quello di immaginare che l’energia radiante che esce dal corpo riscaldato, non venga emessa in modo continuo, come fosse un fluido, ma per quantità discrete, come si trattasse di corpuscoli energetici che escono, uno per volta, ad intervalli regolari di tempo. In un certo senso Planck riesumò la vecchia teoria di Newton dei corpuscoli di luce.

    Il fisico tedesco dette il nome di quantum (“quanto”), al minimo pacchetto di energia che può uscire da un corpo incandescente. L’energia E di un quanto è legata alla frequenza () della radiazione dalla relazione seguente:

    E = h ∙

    dove h è una costante, detta costante di Planck (o quanto d’azione) ed ha il valore di 6,63∙10-34 joule∙s. Si chiama quanto d’azione perché in effetti si tratta proprio di un’azione, ossia di una grandezza fisica che corrisponde per l’appunto al prodotto di un’energia per un tempo.

    Usando la grandezza h∙, lo scienziato tedesco riuscì ad elaborare un’equazione matematica che descriveva perfettamente i risultati sperimentali. Egli tuttavia era convinto di aver adottato semplicemente un artifizio matematico, e che pertanto la sua idea non doveva trovare un riscontro effettivo in natura.

    Ben presto però si accorse che riducendo h∙ ad un valore sempre più piccolo, in modo da far riassumere alla radiazione l’aspetto continuo che le attribuiva la teoria elettromagnetica, la sua equazione prendeva le sembianze della formula classica, cioè di quella formula che non era in grado di descrivere i fatti sperimentali.

    A questo punto, vincendo la sua innata prudenza, Planck dovette convincersi che, ben lungi dal rappresentare un semplice espediente di calcolo, il suo postulato doveva avere un’effettiva rispondenza in natura: l’energia elettromagnetica esce ed entra nella materia a “pacchetti”, cioè in quantità discrete, come si trattasse di corpuscoli.

    Il quantum di energia, venne riscoperto, alcuni anni più tardi, da Einstein, il quale se ne servì per interpretare il fenomeno fotoelettrico, cioè quel fenomeno per il quale, alcuni metalli, quando vengono investiti da luce di elevata frequenza (ad esempio da luce ultravioletta), emettono elettroni, caricandosi di elettricità positiva. Il quanto di energia luminosa venne chiamato da Einstein “fotone”.

    E’ importante chiarire bene che il quanto d’azione h∙, non ha un unico valore fisso, ma varia, e anche di molto, in dipendenza della frequenza della radiazione. Valore fisso, e molto piccolo, ha invece la costante h. Poiché le lunghezze d’onda delle radiazioni possono assumere dimensioni che vanno dai kilometri delle onde radio, alle frazioni di ångström dei raggi gamma, anche le corrispondenti energie possono variare in modo rilevante: un fotone della radiazione ultravioletta, ad esempio, possiede un’energia centinaia di volte superiore a quella di un fotone della radiazione infrarossa. Pertanto le radiazioni ultraviolette di una lampada abbronzante, come tutti sanno, sono più pericolose di quelle infrarosse che escono dal termosifone.

     

    L’ATOMO DI BOHR

    Applicando, come già si è detto, le leggi dell’elettromagnetismo al modello planetario di Rutherford, l’elettrone, muovendosi di moto non rettilineo ed uniforme, avrebbe dovuto irradiare energia e, seguendo un percorso a spirale, cadere sul nucleo. L’atomo quindi, in teoria, non solo avrebbe dovuto essere instabile, ma anche emettere radiazioni di tutte le lunghezze d’onda (quindi formare uno spettro continuo), corrispondenti alle infinite posizioni occupate dall’elettrone nella sua traiettoria a spirale verso il nucleo.

    L’atomo invece, nella realtà, è stabile ed emette solo alcune radiazioni di determinate lunghezze d’onda, come si può osservare dallo spettro di emissione a righe. Il modello di Rutherford era quindi in contrasto sia con le leggi della fisica note a quel tempo (quelle che in seguito verranno chiamate “classiche”), sia con i dati sperimentali.

    Nel 1913 il fisico danese Niels Bohr si prefisse l’obiettivo di modificare il modello atomico di Rutherford per eliminarne l’aspetto contraddittorio. Egli inizialmente accettò per buona l’idea del nucleo centrale con gli elettroni esterni, proposto da Rutherford, anche perché quel modello era il risultato di un fatto sperimentale inconfutabile. Poi però vi apportò delle modifiche sostanziali avvalendosi della teoria dei quanti di Planck.

    Bohr affrontò il problema nella sua forma più elementare: la costruzione del modello dell’atomo dell’idrogeno. Scelse l’idrogeno sia perché si trattava dell’atomo più semplice di tutti (un nucleo centrale con carica positiva con un unico elettrone che gli gira intorno), sia perché lo spettro di quell’elemento si presentava anch’esso in forma molto semplice, con pochissime righe ben distanziate fra loro.

    Bohr ragionò nel modo seguente: se la materia assorbe ed emette energia in modo discontinuo significa che l’atomo, che è il suo costituente fondamentale, può esistere solo in determinate configurazioni ciascuna con un proprio contenuto energetico. Quando l’atomo passa da una configurazione con un certo contenuto energetico ad un’altra con contenuto energetico diverso, esso assorbe o emette energia sotto forma di fotoni e per tale motivo lo spettro appare con una linea scura o con una linea colorata in corrispondenza di quel determinato valore dell’energia. Lo spettro dell’idrogeno pertanto, non è altro che la rappresentazione visiva del passaggio da atomi con un certo contenuto energetico ad altri con diverso contenuto energetico.

    Bohr riuscì a dimostrare matematicamente che per ottenere configurazioni dell’atomo di idrogeno a contenuto energetico diverso bisognava ipotizzare che il momento angolare dell’elettrone che gira intorno al nucleo, fosse quantizzato. Più precisamente, egli suppose che la quantità di moto (m∙v) dell’elettrone in rotazione intorno al nucleo, moltiplicata per la lunghezza dell’orbita (2π∙r) dovesse essere un multiplo intero del quanto di azione (h) di Planck. Ossia:

    m ∙ v∙2∙π∙r = n∙h     con n = 1, 2, 3, …

    Raggruppando le costanti, l’equazione diventa:

    h
    m∙v∙r = n ∙ ───

    Il prodotto m∙v∙r (massa dell’elettrone per la sua velocità e per il raggio dell’orbita circolare da esso percorsa) rappresenta il momento angolare dell’elettrone. Esso è quantizzato in quanto non può assumere valori qualsiasi, ma solo valori che sono multipli interi di h/2π; cioè ad esempio il valore h/2π stesso, oppure il valore 2(h/2π), oppure 3(h/2π), e così via. Il numero intero n venne chiamato da Bohr “numero quantico dell’elettrone”.

    La conseguenza dell’ipotesi avanzata da Bohr era che l’elettrone dell’atomo di idrogeno poteva muoversi solo su orbite preferenziali, dette orbite stazionarie, e che movendosi su tali orbite non emetteva energia. Questa limitazione corrispondeva, in un certo senso, a considerare l’elettrone come qualche cosa di speciale e comunque qualche cosa di diverso da un corpo carico di elettricità che, girando su un’orbita circolare, è tenuto a rispettare le leggi dell’elettromagnetismo.

    L’elettrone emetteva energia solo quando passava spontaneamente da un’orbita più esterna verso una più interna. Viceversa l’elettrone poteva passare da un’orbita più interna (a minore contenuto energetico) ad una più esterna solo se assorbiva dall’ambiente l’energia necessaria.

    La quantizzazione del momento angolare permise di determinare, in funzione di n, i raggi delle orbite permesse, nonché i valori dell’energia posseduta dall’elettrone in movimento su dette orbite. L’elettrone poteva quindi venirsi a trovare solo a determinate distanze dal nucleo (fra l’altro mai al di sotto di una distanza minima rappresentata da quella che viene chiamata “orbita fondamentale”), e poteva inoltre assumere solo determinati valori dell’energia, il cui minimo era, per l’appunto, quello relativo all’orbita fondamentale.

    Senza entrare nei dettagli della teoria, ed evitando i calcoli che comunque esulerebbero dalla nostra trattazione, possiamo farci un’idea del modello atomico di Bohr ricorrendo ad un esempio macroscopico. Consideriamo allora un piano inclinato perfettamente liscio, con a fianco un altro simile, ma a gradini. Immaginiamo ora di far rotolare sul piano inclinato liscio una pallina. Essa, nel suo moto, potrà assumere tutte le posizioni possibili lungo il piano e quindi anche tutti i valori possibili di energia potenziale. Se invece facessimo rotolare la pallina lungo il piano a scale, questa non potrebbe fermarsi in tutte le possibili quote rispetto al livello di riferimento (livello 0), ma solo in corrispondenza dei vari scalini; anche l’energia potenziale che la pallina potrà assumere lungo la strada avrà solo determinati valori e precisamente quelli corrispondenti all’altezza dei diversi scalini.

    Il raggio della prima orbita percorsa dall’elettrone dell’atomo d’idrogeno, quella corrispondente al  valore n=1, calcolata utilizzando i postulati imposti da Bohr, è pari a:

    r = 0,53·10-10 m = 0,53 Å

    mentre la corrispondente energia risulta:

    E  = – 5,21·10-19 cal

    L’elettrone con n=1 percorre quindi l’orbita che si trova più vicina al nucleo (orbita fondamentale) e possiede il valore minimo di energia (il valore più negativo). Sostituendo ad n i successivi valori interi (2, 3, 4, ecc.), si ottengono i raggi e le energie dei livelli più esterni.

    Il valore riportato sopra (ma con segno cambiato) rappresenta l’energia necessaria per allontanare l’elettrone dalla prima orbita e portarlo a distanza infinita (praticamente fuori dall’influenza del nucleo). L’atomo, privato di uno o più elettroni, come già sappiamo, è un sistema con carica positiva che prende il nome di ione; l’energia spesa per l’allontanamento degli elettroni viene detta energia di ionizzazione.

    Se moltiplichiamo per il numero di Avogadro (6,022·1023) il valore dell’energia necessaria per allontanare l’elettrone dalla prima orbita dell’atomo di idrogeno e portarlo all’infinito, otteniamo il valore dell’energia necessaria per allontanare tutti gli elettroni di una mole di atomi di idrogeno (cioè per allontanare una mole di elettroni), dalla prima orbita all’infinito. Tale valore risulta di 313,6 Kcal. Pertanto possiamo dire che l’energia corrispondente alla prima orbita dell’atomo di idrogeno è -313,6 Kcal/mol.

    I valori dell’energia relativi alle orbite più esterne percorse dall’elettrone, possono essere calcolati con la seguente formula:

    1
    E  = – ── · 313,6 Kcal/mol
                                 n²

    L’energia della seconda orbita (n=2) vale quindi 1/4 di quella della prima, quella della terza (n=3), vale 1/9 della prima, e così via. I valori dell’energia relativa ad alcuni livelli dell’atomo di idrogeno crescono all’aumentare del numero quantico n, cioè a mano a mano che gli elettroni occupano orbite più lontane dal nucleo. Il valore massimo (cioè il valore zero) si ha quando la distanza dal nucleo è infinita.

    Il modello atomico di Bohr permette di dare un’interpretazione chiara e convincente dello spettro a righe dell’idrogeno. Possiamo infatti immaginare che quando all’idrogeno viene fornita energia, ad esempio all’interno di un tubo di scarica, gli elettroni, dal livello fondamentale, passino ai livelli energetici più esterni; dalle orbite più elevate gli elettroni ritornano quindi immediatamente (e spontaneamente) a quelle più basse.

    Nella caduta spontanea degli elettroni vengono emessi fotoni. L’energia posseduta da questi fotoni corrisponde alla differenza energetica degli stati stazionari tra i quali è avvenuta la transizione. Quando gli elettroni, dalle orbite più elevate, ritornano a quella fondamentale (la più bassa di tutte), si ha emissione di fotoni molto energetici, corrispondenti alle righe dell’ultravioletto (serie di Lyman). Quando gli elettroni ricadono, dalle orbite periferiche, sulla seconda orbita stazionaria, si ha emissione di fotoni la cui energia corrisponde alle righe dello spettro visibile (serie di Balmer). Un discorso analogo vale per gli spostamenti sulla terza, sulla quarta orbita, e così via. Gli spettri che si ottengono in questi casi sono spettri di emissione.

    Gli spettri di assorbimento si ottengono invece quando gli atomi di idrogeno vengono illuminati con luce di tutte le lunghezze d’onda. Tutti i fotoni in questo caso passano indisturbati, tranne alcuni. Non passano quei fotoni che, possedendo una quantità di energia esattamente uguale a quella necessaria per far saltare l’elettrone su un’orbita più esterna, vengono utilizzati per questa operazione. Questi fotoni scompaiono quindi dalla scena e pertanto avremo uno spettro continuo di luce di tutti i colori, solcato da alcune linee scure.

     

    L’ATOMO DI SOMMERFELD

    Con l’aiuto di spettroscopi molto perfezionati, si era potuto osservare che molte delle righe dello spettro dell’idrogeno erano in realtà costituite da un certo numero di altre righe molto vicine fra loro, corrispondenti a piccolissime variazioni dell’energia. Il modello di Bohr non era in grado di giustificare questa struttura fine dello spettro dell’idrogeno.

    D’altra parte, anche il fatto di prendere in considerazione, per il moto dell’elettrone, solo orbite circolari, veniva considerata una limitazione artificiosa. L’orbita circolare di un corpo che si muove intorno ad un altro è infatti un caso particolare delle più generali orbite ellittiche (si pensi ad esempio ai pianeti che girano intorno al Sole). L’elettrone quindi, girando intorno al nucleo, avrebbe dovuto percorrere, oltre all’orbita circolare, un’infinità di altre orbite ellittiche.

    Nel 1916, il fisico tedesco Arnold Sommerfeld, tentò di dare un significato alla struttura fine dell’idrogeno introducendo anche le traiettorie ellittiche per il moto degli elettroni. Innanzitutto egli ipotizzò che, poiché i fatti sperimentali mostravano che le righe della struttura fine erano in numero limitato, anche il numero delle orbite possibili sarebbe dovuto essere limitato: l’obiettivo di limitare questo numero poteva essere raggiunto applicando le stesse condizioni di quantizzazione introdotte da Bohr.

    Sommerfeld dimostrò che per ciascun valore del numero quantico n doveva esistere un numero determinato di orbite ellittiche (oltre a quella circolare), di eccentricità variabile (cioè più o meno schiacciate), ma aventi tutte l’asse maggiore uguale al diametro della circonferenza presente in quel determinato livello energetico.

    Per descrivere il momento angolare dell’elettrone che viaggia su orbite ellittiche, Sommerfeld introdusse un nuovo numero quantico, , detto numero quantico azimutale. Il numero quantico n, di conseguenza, veniva a perdere la sua funzione originaria di individuare esso stesso il momento angolare dell’elettrone; ad n, nel modello ad orbite ellittiche, venne quindi riservato il compito di determinare semplicemente l’energia di uno stato stazionario, ed assunse la denominazione di numero quantico principale.

    Si potrebbe dimostrare che, anche ammettendo la presenza di una serie di orbite ellittiche per ogni stato stazionario, la struttura fine dello spettro dell’idrogeno, non troverebbe comunque spiegazione. Queste orbite infatti, pur di eccentricità diversa, presentano tutte la stessa energia perché posseggono tutte la stessa lunghezza dell’asse maggiore. Pertanto non si potrà avere emissione o assorbimento di energia nel passaggio dell’elettrone dall’una all’altra di esse.

    Sommerfeld pensò allora che la soluzione del problema risiedesse nell’alta velocità posseduta dagli elettroni. Ai corpi che si muovono a grandissima velocità diventa infatti indispensabile, per descriverne correttamente il movimento, applicare le leggi della relatività. Queste leggi prevedono che quando un corpo viaggia a velocità elevatissima la sua massa debba variare in modo significativo.

    Se un elettrone si muove a notevole velocità su un’orbita circolare, esso conserva, lungo tutto il percorso, la stessa velocità e quindi anche la stessa massa; se l’elettrone però si muove, sempre a velocità elevatissima, lungo un’orbita ellittica molto eccentrica, nel tempo in cui percorre il tratto più vicino al nucleo (perielio) viaggia più velocemente e, per effetto di questa accelerazione, aumenta di massa. (Naturalmente, quando si trova a viaggiare in prossimità del punto più lontano, decelera e quindi perde massa.)

    Se ora noi ammettiamo che per un certo valore del numero quantico principale n possano esistere, oltre all’orbita circolare, anche alcune orbite ellittiche più o meno eccentriche, l’elettrone che le percorre, cambiando massa lungo il percorso, dovrà cambiare anche contenuto energetico. Pertanto gli elettroni che percorrono l’una o l’altra orbita avranno energia diversa (ma non di molto), e il passaggio da un’orbita all’altra comporterà l’apparire di una serie di righe, anche se molto vicine fra loro, e non di una sola. In questo modo veniva spiegato il fatto che una riga dello spettro era in realtà composta da un insieme di altre righe.

    La teoria di Sommerfeld prevedeva che, al crescere di n, aumentasse il numero delle orbite ellittiche possibili e quindi aumentasse anche il numero delle suddivisioni delle righe spettrali. Si dimostra che  può assumere tutti i valori interi positivi compresi fra 0 ed n-1. Questo numero oggi viene anche detto numero quantico secondario e determina, come abbiamo spiegato sopra, la forma dell’orbita.

    Frattanto, un nuovo fatto sperimentale metteva in evidenza un’ulteriore possibilità di alterazione energetica in seno alle varie orbite. Si era osservato infatti che sottoponendo alcuni elementi all’azione di un campo magnetico, si verificava lo sdoppiamento di alcune righe spettrali. Il fenomeno è detto, dal nome del suo scopritore, “effetto Zeeman”.

    Per comprendere il meccanismo di questo fenomeno, dobbiamo considerare che l’elettrone, oltre ad una massa, possiede anche una carica elettrica. Ora, secondo le leggi dell’elettromagnetismo, una carica elettrica che percorre un circuito chiuso, genera un campo magnetico, come qualsiasi corrente elettrica che percorre una spira. Si viene così a creare, all’interno dell’atomo, per effetto del moto dell’elettrone, un minuscolo magnete, il quale, tuttavia, non produce alcun effetto, così come un ago magnetico, da solo, non subisce alcuna forza.

    Quando però si applica un campo magnetico all’esterno, questo interagisce con il “magnetino” (elettrone in rotazione) presente nell’atomo costringendolo a sistemarsi secondo determinate posizioni, così come un ago calamitato subisce uno spostamento per l’azione di una calamita.

    Si rese quindi necessario imporre, anche in questo caso, delle limitazioni alle posizioni che l’orbita percorsa dall’elettrone poteva assumere nello spazio. Si introdusse infatti un terzo numero quantico, detto numero quantico magnetico e simboleggiato con la lettera m. Il numero m può assumere tutti i valori interi compresi fra – e +, incluso lo zero. Pertanto, quando  vale zero, m può assumere solo il valore zero; quando  vale 1, i possibili valori di m sono -1, 0, +1: sul secondo livello energetico esistono quindi tre orbite ellittiche possibili con la stessa energia, ma orientate diversamente nello spazio. Quando  vale 2 i possibili valori di m sono 5, rispondenti a cinque posizioni diverse nello spazio delle cinque orbite ellittiche con la stessa energia; e quando  vale 3 i possibili valori di m sono 7.

    Oltre all’effetto Zeeman, che come abbiamo visto si è potuto giustificare con la quantizzazione spaziale, rimaneva ancora da spiegare il fatto che nella struttura fine di alcuni metalli si osservava un numero di righe ancora superiore a quello previsto dalla teoria delle orbite ellittiche di Sommerfeld. Si trattava di una particolare “struttura a doppietti” che si riscontrava per esempio nel sodio, nel magnesio e nel mercurio.

    Nel 1926 due fisici statunitensi di origine olandese, George Eugene Uhlenbeck e Samuel Abraham Goudsmit seppero dare una spiegazione teorica anche alle nuove righe spettrali. Essi immaginarono che l’elettrone, oltre che girare intorno al nucleo, potesse girare anche su sé stesso come fosse una trottola. In questo modo l’elettrone, dotato di carica, creerebbe un suo proprio campo magnetico del tutto distinto da quello che lo stesso produce girando intorno al nucleo.

    Anche in questo caso fu necessario quantizzare la rotazione attraverso l’introduzione di un quarto numero quantico, s (o ms), detto numero quantico (magnetico) di spin (“to spin”, in inglese, significa girare). Poiché possiamo immaginare l’elettrone girare su sé stesso, o in senso orario, o in senso antiorario, i valori che s può assumere sono solo due: +½ e -½.

     

    IL PRINCIPIO DI ESCLUSIONE DI PAULI

    Il modello originario di Bohr, come abbiamo visto, si adattava bene solo all’atomo dell’idrogeno. Successivamente, però, prima Sommerfeld e poi Goudsmit e Uhlenbeck vi apportarono una serie di perfezionamenti e di aggiustamenti che avrebbero consentito di adattarlo anche ad atomi più complessi. Questo modello, tuttavia, non soddisfaceva per nulla i fisici perché appariva come uno strano ibrido costruito per metà utilizzando le leggi della fisica classica e per metà le strane regole di quantizzazione di Planck. Potremmo definire il modello atomico di Bohr e Sommerfeld un modello semiclassico e semiquantistico.

    La cosa sorprendente tuttavia era che il nuovo modello atomico, nonostante tutte le imperfezioni e le contraddizioni che conteneva, riusciva tuttavia a dare giustificazione coerente dei fatti sperimentali. Si era infatti riusciti a stabilire che ogni orbita o, per meglio dire, ogni elettrone, poteva essere individuato da una quaterna di numeri quantici che definivano la forma dell’orbita su cui lo stesso girava, e la sua energia.

    Riportiamo, per maggior chiarezza, le relazioni che legano fra loro i quattro numeri quantici.

    Il numero quantico principale, n, identifica le dimensioni dell’orbita percorsa dall’elettrone, cioè in pratica indica la distanza a cui si trova l’elettrone dal nucleo. I valori di n possono variare teoricamente da n=1 a n=∞, tuttavia solo i primi sette valori descrivono orbite effettivamente presenti negli atomi degli elementi noti.

    E’ da notare che le orbite, essendo individuate solo dal valore del raggio che le contraddistingue, sono in realtà delle superfici di una sfera. Queste superfici vengono quindi a rappresentare livelli energetici (o strati) percorsi dall’elettrone. Tutti gli elettroni di un dato strato hanno la stessa energia e all’aumentare di n aumenta l’energia dello strato. Gli strati, oltre che con i numeri 1, 2, 3, 4, 5, 6 e 7, possono essere indicati anche con le lettere maiuscole K, L, M, N, O, P e Q.

    Il numero quantico secondario, , individua l’eccentricità dell’orbita, ossia la sua forma. Per ogni valore di n, possono esistere n orbite distinte di cui una circolare e n-1 ellittiche. Quando gli elettroni percorrono le orbite di forma diversa presenti sullo stesso livello possiedono energie leggermente diverse. Ciò si esprime affermando che ogni livello possiede più sottolivelli. I valori di  possono essere tutti quelli compresi fra 0 e n-1.

    Per n=1,  può assumere un unico valore: zero; ciò vuol dire che nel primo livello energetico esiste un’unica orbita (ovviamente circolare) e quindi un unico sottolivello (livello e sottolivello pertanto coincidono). Per n=2,  può assumere i valori 0 e 1; il secondo livello energetico è diviso quindi in due sottolivelli che differiscono leggermente per l’energia. Per n=3,  può assumere i valori 0, 1 e 2, corrispondenti a tre orbite percorribili dall’elettrone, cioè a tre sottolivelli. E così di seguito per gli altri livelli.

    Per specificare il valore di , invece che i numeri, normalmente si usa un codice letterale: quindi, invece che =0 si preferisce dire sottolivello s; invece che =1, sottolivello p; invece che =2, sottolivello d; invece che =3, sottolivello f. Le lettere derivano dallo studio spettroscopico dove erano impiegate per indicare diverse serie di righe spettrali: s=sharp (netta), p=principal (principale), d=diffuse (diffusa), f=fundamental (fondamentale). Pertanto, per designare ad esempio il sottolivello caratterizzato dai numeri quantici n=2 e =1, si usa, preferibilmente, l’espressione “sottolivello 2p“. Per indicare il sottolivello con n=4 e =0, si usa l’espressione “sottolivello 4s“, e così via.

    Il numero quantico magnetico, m, definisce l’orientazione dell’orbita nello spazio, e può assumere, per un dato valore di , tutti i valori interi da – e +, zero compreso. Quindi, per ogni valore di ,m può assumere un totale di 2 + 1 valori.

    Per =0, m può avere soltanto il valore zero; quindi, su un sottolivello di tipo s, vi è un’unica orbita a disposizione degli elettroni. Per =1, il numero quantico magnetico può assumere i valori +1, 0 e -1, e quindi, per ogni sottolivello di tipo p, gli elettroni hanno a disposizione 3 orbite, tutte con la stessa forma, ma orientate nello spazio in modo diverso. In assenza di un campo magnetico esterno queste tre orbite sono identiche dal punto di vista energetico, ma, in presenza di un campo magnetico, cambiano in funzione del valore che assume m. Per =2, m assume 5 valori e quindi esistono 5 orbite sul sottolivello di tipo d. Per =3, m assume 7 valori, corrispondenti a sette orbite sul sottolivello di tipo f.

    Il numero quantico magnetico di spin, s, è collegato al senso della rotazione dell’elettrone su sé stesso e può assumere solo i valori +½ o -½. Se due elettroni hanno lo stesso valore di s si dice che hanno spin paralleli, se hanno valori di segno opposto, si dice che hanno spin antiparalleli, o opposti.

    Come abbiamo già detto, Sommerfeld, in collaborazione con altri, inserendo un maggior numero di orbite e di livelli energetici su cui far muovere gli elettroni, era riuscito ad ampliare il modello originario di Bohr. I fisici non erano in grado, tuttavia, di adattare questo modello ad atomi con molti elettroni, perché non riuscivano a capire quale dovesse essere la distribuzione degli elettroni sulle diverse orbite disponibili.

    Con la presenza di più elettroni intorno al nucleo non poteva infatti essere trascurata la loro interazione. Se, ad esempio, gli elettroni di un atomo non interagissero reciprocamente, e risentissero solo dell’attrazione del nucleo, essi sarebbero tutti equivalenti e tutti si andrebbero a sistemare spontaneamente sul livello a minor contenuto energetico, cioè su quello più vicino al nucleo.

    L’idea di sistemare tutti gli elettroni di un atomo sull’orbita a più basso contenuto energetico fu però immediatamente scartata anche perché contraria ai fatti sperimentali. Lo studio degli spettri atomici mostrava infatti chiaramente che gli elettroni, nello stato fondamentale (cioè a minimo contenuto di energia), erano distribuiti su vari livelli energetici.

    La soluzione del problema, semplice ed elegante, alla fine fu trovata dal fisico austriaco Wolfgang Pauli nel 1925. Egli partì dalla considerazione che due elettroni, per poter stare vicini, dovevano avere spin opposti: gli elettroni che girano su sé stessi, si comportano infatti come magneti, e l’esperienza insegna che due magneti, orientati nello stesso senso, si respingono, mentre, se sono orientati in senso opposto, si attraggono. Allo stesso modo, due elettroni con lo stesso spin producono campi magnetici di segno uguale e si respingono, mentre se hanno spin opposti il campo magnetico dell’uno annulla quello dell’altro e si attraggono. Ora, poiché per gli elettroni stare vicini vuol dire occupare la stessa orbita, Pauli concluse che su una stessa orbita non potevano stare più di due elettroni (con spin opposto). Questa limitazione è espressa dal cosiddetto “principio di esclusione” che può essere enunciato nel modo seguente: “In un medesimo atomo non possono esistere due elettroni con identici valori di tutti e quattro i numeri quantici”.

    Per comprendere il significato di questo principio proviamo ad immaginare due elettroni con i primi tre numeri quantici uguali: per esempio, n=1, =0 e m=0. In questo caso i nostri due elettroni si troveranno entrambi sul primo livello energetico e sull’unica orbita (circolare) presente in quel livello. Ora, affinché i due elettroni possano stazionare su quell’orbita essi dovranno necessariamente avere spin opposti (+½ l’uno e -½ l’altro), ecco allora dimostrato che questi due elettroni dovranno avere almeno uno dei quattro numeri quantici diverso. Si potrebbero fare altri esempi che dimostrano che due elettroni non possono avere tutti i quattro i numeri quantici uguali perché, se così fosse, rappresenterebbero lo stesso elettrone.

    Il principio di esclusione di Pauli consente anche di stabilire quanti elettroni possono stare, al massimo, su ciascun livello energetico. Il numero massimo di elettroni per livello si ricava semplicemente dalla espressione 2n². Pertanto, il primo livello energetico, n=1, potrà contenere al massimo due soli elettroni (2·1²); il secondo livello, n=2, potrà contenere al massimo 2∙2²= 8 elettroni, il terzo livello energetico conterrà, al massimo 2·3²=18 elettroni, e così di seguito per gli altri.

    Anche se oggi il modello di atomo è concettualmente diverso da quello che abbiamo descritto, quest’ultimo può essere lo stesso utilizzato efficacemente per rappresentare la configurazione elettronica dei vari tipi di atomi esistenti in natura. Lo stato di un elettrone, cioè la sua posizione all’interno di un atomo, nel modello di Bohr e Sommerfeld, come nel più moderno modello che descriveremo in seguito, rimane in ogni caso determinato da quattro numeri quantici: nms.

     

    LA DISTRIBUZIONE DEGLI ELETTRONI NEGLI ATOMI

    Le proprietà chimiche degli elementi sono determinate dal numero degli elettroni presenti nei rispettivi atomi. Tale numero, detto numero atomico ed indicato con la lettera Z, viene riportato a volte al piede del simbolo dell’elemento. Di tale numero si è già fatto cenno, parlando degli isotopi, in modo generico, come valore caratterizzante la specie chimica. Ora sappiamo che le proprietà chimiche (e anche molte proprietà fisiche) degli elementi sono determinate da una progressione regolare del numero degli elettroni dei loro atomi, da 1 a 112, quanti sono i 112 elementi (naturali e artificiali) attualmente noti.

    Il modo in cui sono disposti gli elettroni intorno al nucleo viene detto “struttura elettronica” dell’atomo. La distribuzione degli elettroni nei singoli atomi segue un criterio preciso che noi esporremo nel corso della costruzione grafica degli atomi più semplici esistenti in natura.

    La scrittura sintetica, usata convenzionalmente, è la seguente:

    a) l’orbita vuota è rappresentata da un quadratino
    b) un quadratino con una freccia all’interno, rivolta verso il basso o verso l’alto, a seconda dello spin, indica un’orbita percorsa da un elettrone
    c) un quadratino con due frecce contrapposte indica un’orbita con due elettroni

    Inoltre, con una scrittura, ad esempio, del tipo 2 s1 si indica che 1 elettrone (indice di s) si trova sul secondo livello energetico (coefficiente di s), su un’orbita circolare, cioè con =0.

  • Cominciamo allora col rappresentare la struttura elettronica dell’atomo più semplice⇅di tutti, quello dell’idrogeno. Essa viene indicata con la seguente simbologia:
  • 1H       1 1     

    Con tale scrittura sintetica si vuol significare che l’atomo di idrogeno possiede un solo elettrone (l’indice posto al piede del simbolo rappresenta il numero atomico Z). Tale elettrone trova sistemazione nel livello energetico più basso: n=1, o strato K. Inoltre, poiché in questo caso n è uguale a 1, dovrà essere necessariamente =0 e m=0; pertanto l’elettrone viaggerà su un’orbita circolare (di tipo s) e lo spin assumerà uno dei due valori possibili, ad esempio -½.

  • L’atomo dell’elio possiede due elettroni. Entrambi questi elettroni trovano sistemazione sul primo livello energetico dove esiste un’unica orbita disponibile. I due elettroni percorreranno quindi la stessa orbita, con spin antiparallelo. Le quaterne dei numeri quantici che individuano i due elettroni saranno quindi le seguenti: n=1, =0, m=0 e s=-½, per il primo elettrone e, n=1, =0, m=0 e s=+½ per il secondo. Come si può osservare i due elettroni hanno solo tre numeri quantici uguali, il quarto è diverso nel rispetto del principio di esclusione. La scrittura sintetica è la seguente:
  • 2He      1 2      
  • L’atomo che possiede tre elettroni (Z=3) è l’atomo del litio. Due di questi elettroni troveranno sistemazione sull’unica orbita disponibile del primo livello energetico dove ruoteranno con spin opposto, mentre il terzo, sarà costretto a sistemarsi sul livello superiore (strato L). Quest’ultimo elettrone sarà allora caratterizzato dalla seguente quaterna di numeri quantici: n=2, =0, m=0 e s=-½. In sintesi:
  •              2 s 1
    3Li         1 2    
  • Il berillio ha numero atomico 4 e possiede pertanto un elettrone in più del litio. Questo quarto elettrone girerà sulla stessa orbita circolare (strato L) in cui già si trova a girare il terzo. I due elettroni avranno spin opposto. In sintesi:
  •               2 2
    4Be         1 s 2   
  • Il boro (Z=5) possiede 5 elettroni. Di questi, i primi due trovano sistemazione sul primo livello energetico dove percorrono, con spin antiparallelo, l’unica orbita disponibile; gli altri tre si sistemano sul secondo livello energetico (strato L). Due di questi ultimi percorreranno l’unica orbita circolare presente sul sottolivello s, il terzo si sistemerà su una delle tre orbite ellittiche del sottolivello p. I quattro numeri quantici che individuano il quinto elettrone del boro (quello più esterno), sono: n=2, =1, mcon uno qualsiasi dei seguenti valori: -1, 0, +1, e infine s con -½ o +½. Con scrittura sintetica:
  •                            2 1        
                               2 2
                      5B          1 s2
  •   Approfittiamo infine della descrizione dell’atomo con sei elettroni, per ricordare la regola di Hund. Si tratta di una legge che stabilisce la distribuzione degli elettroni su orbite ad uguale energia. Essa afferma quanto segue: “Entro un gruppo di orbite aventi gli stessi valori di n e di  (quindi la stessa energia), gli elettroni tendono a distribuirsi in modo tale da occupare quante più orbite possibili, piuttosto che raggrupparsi a due a due in un numero più ristretto di esse”. La regola è detta anche “della massima disponibilità”, e significa in pratica che, se in un atomo, oltre agli elettroni più interni, ve ne sono ad esempio due sul sottolivello p, questi andranno a sistemarsi su due orbite ellittiche distinte e non entrambi sulla stessa.
  • Pertanto nell’atomo di carbonio, dei sei elettroni presenti, i primi quattro troveranno sistemazione sulle orbite circolari del primo e del secondo livello, mentre gli ultimi due andranno ad occupare due distinte orbite ellittiche del secondo livello, per esempio quelle corrispondenti ai valori m=-1 e m=0. Gli spin di questi due ultimi elettroni avranno invece lo stesso valore, ad esempio -½ per entrambi. La configurazione che abbiamo descritto è quella a minore contenuto energetico, quindi la più favorita. In sintesi:

                               2 2       
                               2 2
                6C             1 2  

    Con l’aumentare del numero degli elettroni, l’ordine di riempimento delle orbite non è più quello indicato dal valore crescente dei numeri quantici principale e secondario, cioè: 1s, 2s, 2p, 3s, 3p, 3d, 4s, 4p, 4d, 4f, 5s, ecc., ma il seguente: 1s, 2s, 2p, 3s, 3p, 4s, 3d, 4p, 5s, 4d, 5p, ecc. Capita quindi che un’orbita di un certo livello energetico (ad esempio 4s) possieda meno energia di un’orbita di un livello energetico con numero quantico principale più piccolo (cioè 3d).

    Senza dover ricordare a memoria l’ordine di riempimento delle orbite è possibile far riferimento alla seguente regola: “L’ordine crescente dell’energia delle orbite è dato dall’ordine crescente della somma del numero quantico principale n e del numero quantico secondario . Ad esempio: l’orbita 1s (cioè 1+0=1) precede 2s (cioè 2+0=2); e questa a sua volta precede 2p (cioè 2+1=3). Nel caso di parità di valori della somma, come ad esempio per 5p (5+1=6) e 6(6+0=6), precede l’orbita con il numero quantico principale più piccolo, cioè, nel caso del nostro esempio, 5p precede 6s.

     

    L’IPOTESI DI de BROGLIE DELLE ONDE ASSOCIATE AI CORPUSCOLI

    Il modello di atomo costruito da Bohr e poi perfezionato ed arricchito da Sommerfeld e da altri, nonostante fosse in grado di spiegare alcuni fatti sperimentali, e in particolare gli spettri atomici, lasciava tuttavia i fisici perplessi e sostanzialmente insoddisfatti. Il motivo di tale disagio andava ricercato nel fatto che il modello non poteva rispecchiare la realtà oggettiva perché era stato ottenuto manipolando arbitrariamente le leggi della fisica.

    Era come trovarsi di fronte ad un problema con lo svolgimento impreciso, ma con il risultato finale esatto. Com’è possibile che un problema, elaborato con procedimento sostanzialmente errato, possa poi presentare la soluzione esatta? Semplice, basta conoscere in anticipo il risultato finale e condizionare il procedimento, attraverso una serie di operazioni arbitrarie, fino a pervenire alla soluzione desiderata. Allo stesso modo si era proceduto nella costruzione del modello atomico.

    Alla fine ci si rese conto che le lacune e le incongruenze presenti nel modello non derivavano tanto da un formalismo incompleto, quanto piuttosto dalla insufficienza delle stesse basi teoriche su cui era stato impostato e sviluppato. Il problema non era quindi quello di apportare qualche superficiale modifica al modello esistente, ma piuttosto di rivedere radicalmente i concetti fondamentali della fisica. Ci si convinse cioè che per descrivere il comportamento delle piccole particelle di cui sono fatti gli atomi non potevano essere usate le stesse leggi valide per descrivere il comportamento degli oggetti di grandi dimensioni.

    Si trattava, in altre parole, di costruire una nuova meccanica che fosse in grado di descrivere il comportamento degli oggetti di piccolissime dimensioni, come quelli presenti negli atomi, ma che poi si avvicinasse a quella classica, se applicata agli oggetti più grandi. Qualche cosa di simile a ciò che si era verificato per la meccanica relativistica le cui leggi si utilizzano per gli oggetti che si muovono a velocità prossime a quelle della luce, mentre poi le stesse leggi perdono di significato quando si applicano agli oggetti che si muovono alle velocità ordinarie.

    Il punto di partenza della nuova meccanica atomica è rappresentato da un’audace intuizione di un giovane aristocratico francese di lontane origini italiane, Louis Victor de Broglie (1892-1987). Egli, nel 1923, convinto che dovesse esistere un principio unitario che lega fra loro tutti i fenomeni naturali, con l’entusiasmo e la spregiudicatezza che caratterizza molti giovani, avanzò l’ipotesi che le particelle materiali potessero presentare anche le proprietà delle onde.

    Come si era dimostrato che la luce, che normalmente viene interpretata come un fenomeno di natura ondulatoria, a volte si comporta come se fosse composta di particelle, così, secondo de Broglie, le particelle, in condizioni adatte, avrebbero dovuto presentare anche proprietà ondulatorie. Si trattava, in realtà, di un’ipotesi molto azzardata, anche perché non esisteva, a quel tempo, alcun dato sperimentale che facesse sospettare che i corpi materiali avessero una natura diversa da quella che ognuno poteva osservare direttamente.

    Il fisico francese partì dall’osservazione che era possibile applicare ad un fotone, contemporaneamente la formula di Einstein E = m∙c² (che mette in relazione massa ed energia di un corpo materiale) e quella di Planck, E = h·ν  (che mette in relazione frequenza ed energia di una radiazione), proprio perché il fotone poteva essere considerato sia particella che onda. Le due espressioni dell’energia, riferite al fotone, dovevano pertanto essere uguali. Egli quindi scrisse:

    m∙c²= h·ν.

    Ora, poiché doveva valere:

    c = ν∙λ,

    e quindi

    ν = c/λ,

    sostituendo si otteneva:

    c
    m·c² = h·——
    λ

    e, dividendo entrambi i termini per c, si aveva alla fine:

    h
    m∙c = ——,
    λ

    oppure anche :

    h
    λ = ———
    m·c

    Questa relazione si riferiva ad una particella, il fotone, che viaggia alla velocità della luce (c), ma essa doveva valere per qualsiasi altra particella che poteva essere interpretata come onda; quindi, per esempio, anche per un elettrone. Pertanto, nel caso di una generica particella, di massa m e di velocità v, si sarebbe potuto scrivere:

    h
    λ = ———
    m·v

    Questa equazione mostra che la lunghezza d’onda (λ), associata ad una particella in movimento, è inversamente proporzionale alla quantità di moto (cioè alla massa per la velocità) della particella stessa.

    Come è facile verificare, la lunghezza dell’onda associata ad una particella risulta sempre molto piccola (indipendentemente dalla massa e dalla velocità della particella stessa), in quanto è estremamente piccolo il valore della costante di Planck (h=6,63·10-34 J·s).

    Se applichiamo la formula al caso di un elettrone, la cui massa è 9,1·10-31 kg, che viaggi ad una velocità non troppo elevata, ad esempio, 3·105 m/s (che rappresenta un millesimo della velocità della luce) si ottiene un valore della lunghezza dell’onda ad esso associata ( λ=24 Å) dell’ordine di grandezza dei raggi X.

    Quando de Broglie espose la sua idea, molti fisici la trovarono completamente assurda ed alcuni scienziati stranieri la definirono addirittura una “comédie française”. I fatti però daranno loro gravemente torto.

    Alcuni anni più tardi, nel 1927, negli Stati Uniti, due giovani ricercatori, Clinton Joseph Davisson e Lester Halbert Germer, osservarono fortuitamente la diffrazione degli elettroni (cioè il loro comportamento ondulatorio) mentre stavano sperimentando la diffusione di un fascio di queste particelle su un bersaglio di nichel. Nello stesso anno, anche George Paget Thomson, figlio di quel Joseph John Thomson che, per ironia della sorte, aveva dimostrato una trentina di anni prima la natura corpuscolare degli elettroni, facendo passare gli stessi attraverso lamine metalliche molto sottili, osservò il formarsi di frange di interferenza che ne mettevano in evidenza la natura ondulatoria.

    I reticoli cristallini dei metalli, con i filari degli atomi accostati gli uni agli altri, secondo una regolare architettura, rappresentano infatti perfetti reticoli di diffrazione per le onde cortissime associate agli elettroni. Le stesse frange di rifrazione si possono osservare facendo passare, attraverso il metallo, i raggi X, le cui onde hanno, come abbiamo visto, all’incirca le stesse dimensioni di quelle degli elettroni che si muovono velocemente.

    In seguito, la diffrazione venne osservata anche per neutroni, protoni e altre particelle di piccola massa. Ci si convinse allora che un qualsiasi corpo in movimento (elettrone, protone, atomo, o anche palla da tennis), oltre all’aspetto corpuscolare, doveva presentare quello ondulatorio. In pratica però, quando la massa di un corpo materiale è molto grande, la lunghezza dell’onda ad essa associata diventa estremamente piccola. In tal caso, per evidenziarla, ossia per osservare il fenomeno della diffrazione, si dovrebbe far uso di reticoli estremamente sottili. Ma reticoli con le fessure al di sotto di certe dimensioni minime non esistono in natura né è possibile costruirli artificialmente. Una palla da tennis, quindi, non potrà mai essere osservata come onda perché, essendo di massa notevole (÷ 60 g) dovrebbe viaggiare con una velocità incredibilmente bassa (frazioni di millimetro nel tempo corrispondente all’età della Terra) per poter creare delle onde in grado di passare attraverso i reticoli più sottili di cui si può disporre. Quando invece un elettrone si muove intorno al nucleo di un atomo, esso si trova nelle condizioni di mostrare il suo aspetto ondulatorio.

    La quantizzazione della quantità di moto dell’elettrone, imposta arbitrariamente da Bohr, ora, alla luce dell’intuizione di de Broglie, assume un significato coerente. Per dimostrarlo scriviamo l’equazione della quantizzazione di Bohr:

    h
    m·v·r = n · ———.

    Sostituendo alla quantità di moto m·v il valore h/λ , come suggerito da de Broglie, l’equazione diventa:

    h                     h
    ——— · r = n · ———
    λ                    2π

    ossia:

    n · λ = 2π · r

    dove 2π·r è la lunghezza dell’orbita circolare di Bohr.

    Trattando quindi l’elettrone come fosse un’onda, si perviene al risultato che ad esso sono permesse, intorno al nucleo, solo quelle orbite che sono in grado di contenere un numero intero (n) di lunghezze d’onda (λ).

    Ora si comprende perfettamente il motivo per il quale un elettrone può viaggiare solo su orbite nettamente separate fra loro. L’elettrone, infatti, quando viaggia intorno al nucleo, non deve essere considerato una particella, ma un’onda e, visto sotto questo aspetto, lo si deve immaginare distribuito in tutte le parti dell’orbita su cui, in quel momento, staziona.

    Le orbite permesse all’elettrone sono quindi solo quelle la cui lunghezza è tale da poter contenere un numero intero di onde. Queste onde, infatti, percorrendo l’orbita, si andranno raccordando con sé stesse ad ogni giro, producendo interferenza costruttiva, ossia autorafforzamento. Se invece si tentasse di sistemare, su una certa orbita, un’onda la cui lunghezza non è contenuta un numero intero di volte, l’onda si accavallerebbe ad ogni giro, sfasata sulle altre, e il moto ondoso tenderebbe rapidamente a zero.

    Il modello atomico di de Broglie, pur derivando da quello di Bohr-Sommerfeld, non conservava più nulla della struttura planetaria originaria: esso ora assomigliava piuttosto ad una serie di corde concentriche vibranti (appunto le onde stazionarie) di diametro via via crescente a mano a mano che ci si allontanava dal nucleo. La lunghezza della prima orbita percorribile dall’elettrone era dunque pari alla lunghezza di un’onda di de Broglie, la lunghezza della seconda orbita era pari alla lunghezza di due onde di de Broglie, e così di seguito per le altre.

     

    IL DUALISMO ONDA-PARTICELLA

    Abbiamo visto in precedenza che alcuni fenomeni luminosi, come ad esempio l’interferenza e la diffrazione, potevano essere interpretati solo considerando la luce come una forma di energia che si propaga per onde, mentre altri fenomeni, come ad esempio l’effetto fotoelettrico, potevano essere spiegati solo immaginando la luce come uno sciame di corpuscoli in movimento. D’altra parte abbiamo anche visto che gli elettroni, che erano stati sempre considerati particelle materiali, presentavano, in determinate circostanze, proprietà ondulatorie.

    Si faceva quindi strada l’idea che tutti i fenomeni, sia quelli di natura energetica, come la luce, sia quelli di natura materiale, come gli elettroni e i protoni, potevano mostrare sia le caratteristiche tipiche delle particelle, sia quelle delle onde. Che cosa erano, in realtà, queste strane entità?

    Nella fisica classica, onde e particelle esibiscono proprietà sostanzialmente diverse. Una particella, come è facile verificare nell’esperienza quotidiana, è un oggetto solido, tangibile, ben localizzato in un punto e che scambia energia bruscamente, per pacchetti. Un’onda invece è una cosa completamente diversa: essa non ha massa, è intangibile, e la sua energia non è concentrata in un punto, ma diffusa lungo tutta l’onda.

    Nella fisica classica quindi, i concetti di onda e di particella, si escludono a vicenda: se una cosa è una particella, non è un’onda, e se è un’onda, non è una particella. Come è possibile allora che i fatti sperimentali mostrino che una particella, seppure di piccole dimensioni come è ad esempio un elettrone, possa presentare anche il comportamento tipico delle onde?

    Innanzitutto vi è da tenere presente che non è detto che l’elettrone debba essere una particella poiché nessuno ne ha mai visto uno passargli sotto il naso, come fosse un granellino di sabbia che il vento sposta da un punto ad un altro facendogli seguire una determinata traiettoria, e quindi nessuno ha mai avuto conoscenza diretta e concreta dell’elettrone-particella. Tutto ciò che riusciamo a vedere di un elettrone è la traccia che esso lascia su uno schermo fluorescente quando va ad urtargli contro: in quella circostanza l’elettrone sembra essere effettivamente un granellino di sabbia che va a colpire il bersaglio in un punto determinato.

    Ma gli stessi elettroni, quando attraversano fessure molto sottili, creano, sullo schermo sul quale si vanno a stagliare, delle bande di luce e di ombra come se a passare attraverso le fessure fossero state delle onde e non dei corpuscoli. Succede forse che gli elettroni-particella, nel momento in cui attraversano le fessure, si tramutano in onde?

    Indipendentemente da ciò che elettroni, fotoni o protoni sono in realtà, poiché esistono fatti sperimentali che ci fanno apparire questi “oggetti”, a volte come fossero particelle e a volta come fossero onde, ci sembra di poter affermare che i concetti di onda e di particella, visti in senso classico, non sono idonei a descrivere in maniera soddisfacente i fenomeni tipici dell’infinitamente piccolo.

    Che cosa è allora in realtà un elettrone? La risposta potrebbe essere la seguente: l’elettrone è un’entità estremamente piccola che non siamo in grado di osservare direttamente, pertanto di esso possiamo affermare solo che, quando interagisce con uno strumento rilevatore di un certo tipo, appare come un’onda e quando interagisce con uno strumento rilevatore di altro tipo, appare come una particella.  Quindi l’elettrone (ma anche il protone, il fotone ed altre entità di piccole dimensioni), appare onda o particella a seconda del modo in cui viene condotto l’esperimento atto a metterlo in evidenza.

    Dobbiamo quindi concludere che l’elettrone è un oggetto strano che si comporta in modo contraddittorio quando si tenta di interpretarlo secondo gli schemi classici, cioè facendo uso di quelle leggi che normalmente si applicano alle strutture di grandi dimensioni. A tale proposito va ricordato che Bohr, nel 1927, suggerì di accettare, per le entità di piccole dimensioni, entrambi i modelli, cioè sia quello di onda sia quello di particella, a seconda dell’utilità descrittiva: si trattava, in fondo, solo di modelli. Questa affermazione va sotto il nome di “principio di complementarità”.

    Quindi, già il semplice fatto che l’elettrone appaia a volte come un’onda e a volte come un corpuscolo sta a significare che esso è qualche cosa di speciale che non può essere descritto con le leggi della meccanica classica. Queste leggi descrivono infatti con la massima precisione il comportamento ad esempio di un’onda del mare o quello di una palla da tennis in movimento. Per descrivere le proprietà di elettroni, protoni e fotoni devono esistere leggi speciali che non sono le stesse che descrivono il mondo macroscopico.

    Queste leggi in realtà sono state scoperte e risiedono all’interno di una nuova teoria, detta “meccanica quantistica”. Essa è in grado, come vedremo, di conciliare l’aspetto ondulatorio e quello particellare delle entità di piccole dimensioni e quindi di rappresentare finalmente in modo coerente i fenomeni riguardanti il mondo microscopico degli atomi. Si tratta, tuttavia, di una teoria prettamente matematica che non è in grado di produrre modelli concreti.

    Sono finiti, per la fisica, i tempi in cui lord Kelvin poteva affermare: “Io sono contento solo quando ho sviluppato un modello meccanico dell’oggetto delle mie ricerche. Se ciò mi riesce, ho compreso il relativo fenomeno, altrimenti no. Perciò io non posso neppure comprendere la teoria elettromagnetica della luce. Io desidero comprendere la luce il più completamente possibile senza perciò dover introdurre cose che comprendo ancor molto meno”. Queste parole venivano scritte nel 1884. Figuriamoci cosa penserebbe oggi lord Kelvin di una raffigurazione di atomo in cui praticamente non compaiono altro che equazioni matematiche.

     

    IL PRINCIPIO DI INDETERMINAZIONE 

    Il principio di indeterminazione è un principio fisico che impone delle regole e dei limiti nei processi di misurazione di grandezze di piccole dimensioni, e fu enunciato, nel 1927, dal fisico tedesco Werner Heisenberg.

    Prima di chiarire il contenuto di questo principio è indispensabile una premessa di carattere generale: “La scienza si occupa esclusivamente di quei fenomeni sui quali è possibile effettuare delle misurazioni; ciò che non è misurabile esula dal campo dell’indagine scientifica”. Questo è un concetto di fondamentale rilevanza nell’ambito della ricerca scientifica ed era stato introdotto già da Einstein nella sua teoria della relatività.

    Le misure, come è facile intuire, sono più o meno esatte e accurate a seconda della precisione degli strumenti che vengono usati per tali operazioni e dell’abilità dell’operatore. Un tempo si riteneva che, perfezionando le tecniche, l’incertezza della misurazione avrebbe potuto essere ridotta quanto si voleva, fino a renderla nulla.

    Quando si dicevano queste cose, in realtà, si trascurava di prendere in considerazione un fatto che successivamente si rivelerà di estrema importanza. Esso è il seguente: quando si effettua una misurazione, lo strumento di misura interagisce necessariamente con l’oggetto sul quale si sta operando. Pertanto, affinché la misura eseguita sia accettabile, è indispensabile che la perturbazione indotta dallo strumento sia contenuta entro limiti trascurabili rispetto all’entità della grandezza misurata.

    Se si volesse ad esempio misurare la temperatura di una piccola quantità d’acqua, non si dovrà usare un termometro di grandi dimensioni, altrimenti questo, per registrarla, assorbirebbe dall’acqua una grande quantità di calore abbassando considerevolmente la temperatura dell’acqua stessa e quindi perturbando in maniera decisiva il suo stato. Usando un termometro di piccole dimensioni, la perturbazione indotta sarebbe minore e la misura registrata più vicina a quella reale. In verità è proprio di questa imprecisione che non si era mai tenuto conto perché, come abbiamo detto, si riteneva di poterla ridurre a valori irrilevanti rispetto agli errori che vengono in ogni caso commessi durante le normali operazioni di misurazione.

    Quando però si passò allo studio dell’atomo, ci si rese conto immediatamente che le perturbazioni conseguenti alle operazioni di misurazione avrebbero avuto un effetto non solo non trascurabile, ma anzi decisivo. Se si volesse ad esempio determinare simultaneamente con la massima precisione la posizione di un elettrone e la sua velocità, ciò risulterebbe impossibile in quanto, la misura accurata di una grandezza porterebbe ad una valutazione imprecisa dell’altra; anzi, l’aumento dell’accuratezza di una delle due misure, renderebbe sempre più imprecisa l’altra. Cerchiamo di chiarire meglio questo concetto.

    Immaginiamo di voler localizzare nello spazio un elettrone. Per farlo, sarebbe indispensabile quanto meno illuminarlo, altrimenti non lo si vedrebbe, e di esso non si potrebbe dire niente. Per illuminare un elettrone è necessario, però, lanciargli contro almeno un fotone. Ora, il fotone è anch’esso un’entità fisica delle dimensioni più o meno dell’elettrone, e quando va ad interagire con questo, lo sposta dalla sua posizione.

    Il fotone, in realtà, può essere considerato sia un’onda sia una particella. Se lo si considera una particella, questa avrà una certa quantità di moto m·v, se lo si considera un’onda allora presenterà una lunghezza che è inversamente proporzionale alla quantità di moto, ossia  = h/m·v.

    Nel momento in cui il fotone urta l’elettrone, lo sposta dalla sua posizione perché gli trasferisce una parte della sua quantità di moto (proprio come quando due biglie più o meno della stessa grandezza si scontrano), modificando velocità e direzione del suo movimento. Per evitare che il fotone sposti l’elettrone nel momento in cui lo urta, si potrebbe utilizzare un fotone con piccola energia, ossia con piccolo valore della quantità di moto. Un tale fotone, però, avrebbe un’onda associata molto lunga (la lunghezza dell’onda associata alla particella è infatti, come si ricorderà, inversamente proporzionale alla sua quantità di moto); ma un’onda molto lunga passerebbe sull’elettrone senza rilevarne la presenza, come fa un’onda del mare molto lunga quando incontra un piccolo galleggiante: “non se ne accorge nemmeno”.

    Ci si trova quindi di fronte ad una situazione senza soluzione: volendo determinare con la massima precisione la posizione di una particella in movimento non è poi più possibile conoscere, nello stesso momento, e con la stessa precisione, la sua quantità di moto, e quindi non è possibile sapere in che direzione la particella si sposterà. D’altra parte, pretendere di conoscere con esattezza la quantità di moto di una particella per poter sapere dove andrà, impedisce di conoscere, con altrettanta precisione, la posizione che la particella occupa nello spazio, in quel preciso istante.

    Quello che abbiamo esposto rappresenta il contenuto del principio di indeterminazione di Heisenberg. Esso può essere enunciato nel modo seguente: “Quando vogliamo determinare, contemporaneamente, mediante un’osservazione, la posizione e la quantità di moto di un corpuscolo di piccole dimensioni, l’incertezza relativa alla posizione del corpuscolo, moltiplicata per l’incertezza relativa alla quantità di moto, non può mai risultare inferiore al valore della costante di Planck”. In simboli si scrive:

    Δx ∙ Δm·v ≥ h

    dove Δx e Δm·v sono rispettivamente l’incertezza relativa alla posizione della particella e l’incertezza relativa alla sua quantità di moto (Δ è la lettera greca delta che in fisica si usa per indicare la variazione di una grandezza). Se si vuole rendere piccolo il valore di Δx, cioè se si vuole migliorare la precisione relativa alla determinazione della posizione della particella nello spazio, inevitabilmente aumenterà l’imprecisione sull’altra grandezza, e viceversa. In altre parole, non è possibile che due indeterminazioni siano contemporaneamente nulle.

    Il principio di indeterminazione sarebbe valido, in teoria, per qualsiasi oggetto materiale, ma in pratica ha conseguenze importanti solo se applicato a particelle di dimensioni atomiche o subatomiche. Infatti, quando si prendono in considerazione i corpi ordinari, data la piccolezza della costante di Planck, le incertezze relative alla loro posizione e alla loro quantità di moto, scompaiono di fronte a quelle ben più notevoli derivanti dagli errori sperimentali delle misure. Questo in sostanza è il motivo per il quale la fisica classica non si era mai accorta della presenza in natura del principio di indeterminazione.

    Ora è chiaro il motivo per il quale non è possibile, nemmeno in linea di principio, verificare sperimentalmente il percorso seguito dall’elettrone in movimento intorno al nucleo: esiste un ostacolo, in natura, che ce lo impedisce.

    Nel 1930 Einstein dimostrò che il principio di indeterminazione valeva anche per altre coppie di grandezze coniugate come, ad esempio, per l’energia e l’intervallo di tempo entro il quale la stessa viene rilevata. L’impossibilità di ridurre l’incertezza della misura dell’energia senza aumentare l’incertezza relativa all’istante in cui tale misura viene effettuata, significa che nei processi subatomici la legge della conservazione dell’energia può essere violata per tempi brevissimi.

    In base al principio di indeterminazione, alcune particelle subatomiche possono quindi venire prodotte dal nulla (appunto contro la legge di conservazione) per poi cessare di esistere prima di dare il tempo necessario alla loro identificazione. Si tratterebbe quindi non di particelle reali, ma virtuali.

    A seguito di queste speculazioni, in questi ultimi anni, è stata avanzata l’ipotesi che l’Universo intero possa aver avuto inizio sotto forma di particella virtuale, quindi praticamente dal nulla. Questo tema verrà ripreso in altra sede.

    Prima di chiudere l’argomento è doveroso fare un cenno alle implicazioni di carattere filosofico direttamente connesse con il principio d’indeterminazione. Fino ai tempi di Heisenberg, la visione dell’Universo era di tipo deterministico e si fondava su ben precisi rapporti di causa ed effetto. Si riteneva ad esempio che qualora si fosse riusciti a determinare con esattezza la posizione e la quantità di moto di ogni singola particella di un sistema chiuso (al limite anche dell’Universo intero), sarebbe stato poi possibile, applicando le leggi della meccanica newtoniana, calcolare, istante per istante, l’evolversi del sistema stesso, e quindi in pratica prevederne il futuro.

    Naturalmente si sapeva che il calcolo sarebbe stato molto difficile e forse impossibile, come pure si sapeva che la determinazione della posizione e della quantità di moto delle singole particelle avrebbe riservato difficoltà tecniche forse insormontabili. Tuttavia, almeno da un punto di vista teorico, la cosa sembrava realizzabile.

    Oggi sappiamo invece che ciò non è assolutamente possibile, e non tanto per le difficoltà di misurazione e di calcolo, bensì per motivi molto più profondi, connessi con la presenza, in natura, del principio di indeterminazione. A causa di questo principio, come verrà spiegato meglio in seguito, ci si deve accontentare, almeno per i fenomeni che coinvolgono la natura più intima della materia, di una loro descrizione in termini probabilistici, rinunciando quindi definitivamente alla certezza tipica della dottrina deterministica.

    Questo non vuol dire tuttavia, come qualcuno vorrebbe far credere, che la scienza è in balia dei capricci della natura e che quindi non sarebbe più in grado di descrivere con precisione e rigore i fenomeni che in essa si verificano. Il fatto che per descrivere il comportamento degli oggetti di dimensioni subatomiche si renda necessario ricorrere a calcoli statistici, come dimostreremo in seguito, non significa affatto abbandonare precisione e rigore, che sono gli aspetti più qualificanti della ricerca scientifica.

    D’altra parte si fa notare che anche le compagnie di assicurazione che pure non sono in grado di prevedere il singolo incidente, compilano tuttavia tabelle molto precise (e molto aggiornate!) sul numero degli incidenti automobilistici e sulla loro gravità per stabilire in anticipo l’ammontare del premio assicurativo, basandosi esclusivamente sul calcolo statistico.

     

    LA MECCANICA QUANTISTICA

    La meccanica quantistica, come abbiamo già accennato, è una nuova meccanica che è finalizzata a descrivere il moto dei corpuscoli di dimensioni atomiche e subatomiche. Essa non fa più uso delle leggi di Newton, ma di leggi probabilistiche, cioè di leggi tipicamente matematiche. Con la meccanica quantistica si viene quindi a separare nettamente la macrofisica dalla microfisica, riservando all’una e all’altra leggi, modi di operare e competenze specifiche.

    La meccanica quantistica nasce dalla fusione di due teorie che vennero formulate all’inizio del secolo: la meccanica ondulatoria e la meccanica delle matrici. Diamo un cenno della prima.

    Dopo che Louis de Broglie aveva intuito che i corpi materiali potevano avere anche proprietà ondulatorie, e dopo che i fatti sperimentali avevano messo in luce che gli elettroni e altre particelle di piccole dimensioni manifestavano effettivamente le proprietà delle onde, nacque l’esigenza di dare una formulazione matematica di queste onde, e di derivarne le leggi di propagazione.

    L’impresa riuscì al fisico teorico viennese Erwin Schrödinger (1887-1961), il quale, partendo dalle equazioni che descrivono la propagazione delle onde meccaniche, scrisse, per le onde associate ai corpuscoli, un’equazione analoga (ma piuttosto complessa nella forma) la quale normalmente viene rappresentata nel modo seguente:

    ∂²Ψ       ∂²Ψ      ∂²Ψ           8π²m            4 π  m      ∂Ψ
    ——— + ——— + ———  =  ——— · UΨ – ———— · ———
    ∂x²       ∂y²         ∂z²             h²                  h          ∂t

    In essa, con Ψ (psi) viene indicata una funzione matematica, detta “funzione d’onda”; m rappresenta la massa del corpuscolo in movimento, U è l’energia potenziale del punto in cui si trova il corpuscolo, h è la costante di Planck, è l’unità immaginaria (ossia un simbolo matematico che compare nei numeri complessi) e t è il tempo. Il termine a primo membro indica, con il simbolismo tipico dell’analisi matematica (∂ è il simbolo di derivata), la variazione della funzione d’onda lungo gli assi x, y e z dello spazio.

    Si tratta quindi, come si può vedere, di un’equazione differenziale, ossia di un’equazione in cui compaiono delle derivate che, a coloro i quali non hanno una buona padronanza della matematica e della fisica, non dice molto. Ciò costituisce indubbiamente una limitazione, tuttavia, il significato e le conseguenze che derivano dalla sua applicazione, potranno essere comprese anche senza far uso della matematica superiore.

    Cominciamo allora col dire che la soluzione dell’equazione scritta sopra non è un numero (cioè un singolo valore), ma una funzione, cioè un insieme di numeri legati fra loro da una relazione matematica. Questa funzione, detta funzione d’onda, viene determinata fissando un insieme di parametri relativi all’energia posseduta dalla particella in movimento. In altre parole, la soluzione dell’equazione di Schrödinger, conduce alla descrizione di un’onda solo se vengono stabiliti in anticipo determinati valori dell’energia posseduta dalla particella.

    L’equazione di Schrödinger venne ideata per descrivere l’onda associata ad una generica particella che si muove liberamente nello spazio, ma può essere utilizzata per risolvere vari problemi fisici concreti in cui si dimostra in buon accordo con l’esperienza. Quando viene applicata al caso dell’elettrone che si muove intorno al nucleo, a seconda del valore dell’energia che viene assegnata all’atomo, essa produce delle funzioni d’onda in grado di descrivere il comportamento dell’elettrone vincolato al nucleo atomico.

    L’equazione di Schrödinger descrive quindi le onde materiali di de Broglie. Ma  che cosa sono in realtà queste onde? Esiste veramente l’onda associata ai corpuscoli materiali?

    Secondo alcuni, le cosiddette onde materiali erano semplicemente onde matematiche, cioè onde astratte e quindi inesistenti. Louis de Broglie però non credette mai a questo carattere puramente formale del modello ondulatorio, anche perché le sue onde emergevano in modo molto chiaro da fenomeni osservabili. Secondo de Broglie le onde materiali avrebbero dovuto possedere un significato concreto e reale.

    Nel 1927, il fisico tedesco Max Born dette, alla funzione d’onda, un significato di tipo probabilistico. Egli notò che il quadrato di y, o meglio, trattandosi di una funzione complessa(*), il quadrato del suo modulo, cioè |y|², rappresentava la probabilità di trovare la particella all’interno di un certo spazio. L’introduzione del concetto di probabilità costituiva un modo del tutto originale di affrontare il problema relativo alla posizione dell’elettrone intorno al nucleo atomico.

    Attraverso l’equazione di Schrödinger è possibile quindi calcolare la densità di probabilità(**) di trovare un elettrone in un certo istante e in un determinato punto intorno al nucleo. L’informazione contenuta in |y|² può essere paragonata all’informazione contenuta in una tavola che è servita da bersaglio. I buchi presenti sulla tavola rappresentano i risultati dei lanci precedenti e forniscono l’indicazione sulla probabilità che un prossimo lancio finisca in un punto piuttosto che in un altro: dove vi sono molti buchi la probabilità è alta, dove ve ne sono pochi la probabilità è bassa. Anche nel caso del bersaglio, se volessimo esprimere matematicamente la densità dei buchi in funzione della posizione, otterremmo una funzione analoga a |y|².

    Nello stesso momento in cui Schrödinger proponeva la soluzione relativa al dualismo onda-corpuscolo attraverso la sua equazione di onda materiale, Werner Heisenberg suggeriva una soluzione del problema completamente diversa. Egli, coerentemente con il suo principio di indeterminazione, si convinse che non aveva senso visualizzare aspetti del mondo subatomico che non si sarebbero poi, in alcun modo, potuti osservare direttamente. Erano destinati quindi a rimanere privi di significato concetti come quello di traiettoria dell’elettrone, o di onda ad esso associata.

    Heisenberg si propose dunque di costruire una meccanica astratta in cui comparissero soltanto relazioni fra grandezze osservabili. Poiché gli unici valori osservabili, relativi all’atomo di idrogeno, erano i diversi stati energetici (quelli che Bohr interpretò come salti degli elettroni da un’orbita all’altra), Heisenberg pensò di sistemare tali valori su linee verticali e orizzontali fino a formare uno schema quadrato di numeri. Questo schema prende il nome di “matrice” e il meccanismo matematico che lo interpreta, si chiama “meccanica delle matrici”.

    Il formalismo matematico della meccanica delle matrici era ancora più complesso (e anche più astratto) di quello utilizzato da Schrödinger nella sua meccanica ondulatoria. Inoltre, la descrizione della struttura atomica, elaborata attraverso i procedimenti algebrici della meccanica delle matrici, risultava, alla fine, priva di qualsiasi supporto tangibile. I fisici, legati all’esigenza di realizzare modelli concreti, non gradirono troppo la descrizione dell’atomo prodotta da Heisenberg, e finirono per rifiutarla.

    In seguito si scoprì però che la meccanica ondulatoria di Schrödinger e la meccanica delle matrici di Heisenberg, pur essendo diverse nello sviluppo matematico e nelle premesse fisiche, rappresentavano in realtà la stessa teoria. Il riconoscimento della loro equivalenza, prima da parte dello stesso Schrödinger, e successivamente da parte di altri fisici, segnò la nascita della meccanica quantistica, la teoria che viene utilizzata attualmente per descrivere i fenomeni relativi al mondo dell’estremamente piccolo.

    La forma attuale della meccanica quantistica è dovuta all’inglese P.A. Maurice Dirac (1902-1984). Essa si fonda direttamente sul principio di indeterminazione e trae le conseguenze di tale principio attraverso una struttura logica e matematica. La meccanica ondulatoria si colloca, all’interno della meccanica quantistica, come un suo aspetto particolare.

    (*) Le funzioni complesse sono quelle funzioni che comprendono numeri complessi. I numeri complessi, a loro volta, sono entità matematiche astratte contenenti l’unità immaginaria i, definita dalla seguente espressione: i² = -1 (si noti che nessun numero reale, innalzato al quadrato, dà un numero negativo).
    (**) Per densità di probabilità si intende il rapporto fra la probabilità di trovare un oggetto in un determinato volume e il volume stesso; così come la densità di massa (o semplicemente densità) viene definita dal rapporto fra la massa contenuta in un certo volume e il volume stesso.

     

    IL CONCETTO DI ORBITALE

    Se fossimo in grado di cogliere alcune posizioni occupate dall’elettrone attorno al nucleo e di determinare contemporaneamente la velocità con cui si sposta, potremmo costruire un modello di atomo perfettamente aderente alla realtà. Sappiamo invece che ciò non è possibile e quindi non sapremo mai dove si trovano effettivamente gli elettroni che stazionano intorno al nucleo degli atomi.

    Abbiamo però scoperto che la meccanica quantistica è in grado di fornire alcune informazioni relativamente all’elettrone che si muove intorno al nucleo. Queste informazioni sono di carattere statistico e si riferiscono alla possibilità che l’elettrone possa trovarsi in un punto o in un altro dello spazio intorno al nucleo. La meccanica quantistica, in altre parole, non fornisce informazioni relativamente al percorso seguito dall’elettrone nel suo movimento, ma solo una descrizione probabilistica della sua posizione.

    Come abbiamo già detto, l’equazione d’onda ammette infinite soluzioni ma, quando viene applicata ad un determinato atomo, fornisce soluzioni accettabili, solo se si utilizzano i valori dell’energia che l’elettrone effettivamente può assumere spostandosi attorno al nucleo. Tali soluzioni rappresentano le posizioni possibili dell’elettrone nello spazio circostante il nucleo e corrispondono agli stati stazionari individuati da Bohr per altra via.

    Se un elettrone ha una determinata energia, esso transita con maggior frequenza ad una certa distanza dal nucleo, se ha un’altra energia transita con maggior frequenza in un’altra zona circostante il nucleo. In altri termini, ponendo dei valori a caso dell’energia, si troverebbero, per la funzione d’onda, delle soluzioni prive di significato fisico, mentre ponendo i valori dell’energia ricavati dalle misure sperimentali, si ottengono funzioni d’onda con senso fisico reale.

    Le funzioni d’onda, relative agli elettroni che si trovano all’interno degli atomi, sono dette funzioni d’onda orbitali, o semplicemente “orbitali”. L’orbitale quindi non è altro che l’insieme dei valori che assume la funzione d’onda di un determinato elettrone in tutti i punti dello spazio intorno al nucleo.

    Ora siamo in grado di definire con maggiore precisione le caratteristiche dell’elettrone. L’elettrone è un’entità fisica con proprietà del tutto particolari che non trovano riscontro in nulla di tutto ciò che esiste nel mondo macroscopico: esso pertanto può essere descritto solo in termini matematici. In altre parole possiamo anche dire che l’elettrone è un’entità quantomeccanica.

    Poiché l’onda associata ad un corpuscolo, è un’onda tridimensionale, ogni orbitale elettronico viene definito dai valori di una terna di numeri interi detti numeri quantici: ad ogni terna di valori corrisponde un’unica funzione, cioè un unico orbitale. I numeri quantici, che si designano con le lettere n e m, sono gli stessi che abbiamo già incontrato nel modello di Bohr e Sommerfeld.

    L’orbitale, come abbiamo detto in precedenza, ha un preciso significato matematico, ma non ha un altrettanto preciso significato fisico. Tuttavia, il quadrato di questa funzione, rappresenta qualche cosa di fisicamente osservabile: esso fornisce infatti la probabilità di trovare l’elettrone in un certo punto dello spazio. Se il valore di |y|² per un certo punto dello spazio è grande, significa che in quel punto è elevata la probabilità di trovare l’elettrone, se è piccolo, la probabilità è bassa.

    Il termine di orbitale deriva da quello di orbita, ma non ha nulla a che vedere con esso. Anzi, i due concetti sono opposti e si escludono a vicenda: orbita racchiude infatti un concetto deterministico, mentre orbitale ne racchiude uno probabilistico.

    Per definire la forma dell’orbitale si possono calcolare, per mezzo dell’equazione d’onda, le probabilità di presenza dell’elettrone per migliaia di punti dello spazio intorno al nucleo. Si viene così ad individuare una struttura tridimensionale con punti in cui è maggiore la probabilità di trovarvi l’elettrone e punti in cui tale probabilità è minore: a mano a mano che ci si allontana dal nucleo, si nota che questa probabilità diminuisce, ma non diventa mai zero.

    Se ora immaginiamo di limitare una regione di spazio intorno al nucleo in cui è molto alta la probabilità di incontrare l’elettrone (per esempio una regione in cui la probabilità sia del 90 o del 95 per cento) abbiamo individuato la forma dell’orbitale. Si è potuto così accertare che le forme possibili di orbitale sono svariate. Poiché l’elettrone è portatore di carica elettrica, la distribuzione della densità di probabilità di trovare l’elettrone intorno al nucleo corrisponde ad una specie di nuvola di elettricità che viene anche detta “nuvola di carica elettronica”.

    E’ interessante osservare che la soluzione dell’equazione d’onda mostra che l’elettrone potrebbe in teoria trovarsi in un punto qualsiasi dello spazio intorno al nucleo (anche se poi in pratica la probabilità di trovarlo in punti molto lontani è quasi nulla). Questo fatto, è in netto contrasto con quanto veniva asserito da Bohr e Sommerfeld secondo i quali la posizione dell’elettrone era determinata con precisione assoluta in quanto l’elettrone stesso non poteva percorrere un’orbita qualsiasi intorno al nucleo, ma solo quella che si trovava ad una ben precisa distanza da esso.

    La soluzione dell’equazione d’onda, relativa all’elettrone dell’atomo di idrogeno che staziona sul livello energetico più basso, cioè nello stato fondamentale, fa vedere che la più elevata probabilità di presenza dell’elettrone, o per meglio dire, la maggiore concentrazione di esso all’interno dell’orbitale, si riscontra proprio ad una distanza dal nucleo pari al raggio dell’orbita di Bohr (0,53 Å).

    Gli orbitali, come abbiamo detto, possono assumere varie forme: ve ne sono di sferici, di bilobati e di forme anche più complesse. La forma, le dimensioni e l’orientamento nello spazio degli orbitali stessi, sono definite dai numeri quantici: n e m. Questi tre numeri nel modello di atomo di Bohr e Sommerfeld si riferivano al moto dell’elettrone e definivano gli assi delle orbite ellittiche, cioè la forma e l’orientazione nello spazio di queste orbite.

    Il quarto numero quantico, s (numero di spin), non ha nulla a che vedere con la legge probabilistica, in quanto esso riguarda lo stato intrinseco dell’elettrone che ovviamente è indipendente dalla posizione che assume nello spazio.

    Il numero quantico principale, n, è legato all’energia dell’elettrone e determina, in un certo senso, le dimensioni dell’orbitale: più aumenta il valore di n più aumenta il volume entro il quale è grande la probabilità di trovarvi l’elettrone.

    Il numero quantico secondario, , determina la forma dell’orbitale: per =0, l’orbitale assume forma sferica (esso è detto anche orbitale di tipo s), per =1 l’orbitale assume forma bilobata (esso è detto anche orbitale di tipo p). Gli orbitali di forma più complessa (=2, =3,…) possono essere chiamati anche orbitali di tipo d, orbitali di tipo f, e così via, facendo uso della stessa simbologia incontrata nel modello di Bohr-Sommerfeld.

    Il numero magnetico, m, determina l’orientamento nello spazio dell’orbitale. L’orbitale di tipo s è di forma sferica e, poiché per la sfera non è possibile distinguere fra posizioni diverse nello spazio, il numero magnetico in questo caso vale zero. Per gli orbitali di tipo pm può assumere tre valori distinti, che fissano le tre posizioni possibili nello spazio di quel tipo di orbitale. Gli orbitali di tipo d e di tipo f si possono orientare nello spazio rispettivamente in 5 posizioni diverse e in 7 posizioni diverse.

    Si osservi infine che gli orbitali, oltre a presentare zone di massima probabilità di trovare gli elettroni, presentano anche aree in cui tale probabilità è nulla. Esse sono dette superfici nodali e la loro presenza si accorda molto bene con il concetto di onda. I lobi degli orbitali di tipo p, ad esempio, sono separati fra loro da un piano nodale, cioè da un piano in cui la probabilità di trovare l’elettrone è nulla.

    Ora, poiché l’elettrone può presentarsi indifferentemente in uno o nell’altro lobo dell’orbitale p, ci si chiede come esso faccia a passare dall’una all’altra parte. La risposta è che la meccanica quantistica (tra l’altro in pieno accordo con il principio di indeterminazione di Heisenberg) non considera il moto dell’elettrone e quindi non fornisce informazioni relative ai suoi spostamenti. Questi spostamenti sono pertanto destinati a rimanere indeterminati.

    Anche gli orbitali di tipo s presentano superfici nodali: l’orbitale 1s, ne presenta una sola all’infinito; l’orbitale 2s ne presenta due, una a distanza finita e l’altra all’infinito; l’orbitale 3s ha tre superfici nodali, e così via.

     

    LA SCOPERTA DEL NEUTRONE E LA DEFINIZIONE DEL PESO ATOMICO

    Già da lungo tempo si era ipotizzato che il nucleo atomico potesse contenere, oltre ai protoni, altre particelle prive di carica elettrica, ma solo nel 1932, il fisico inglese James Chadwick, riuscì a dimostrare sperimentalmente l’esistenza del neutrone. Bombardando atomi di berillio con particelle a, egli notò il diffondersi di una radiazione che non veniva deviata né dal campo elettrico, né da quello magnetico e che per tale motivo venne inizialmente scambiata per raggi gamma.

    Con la scoperta del neutrone gli scienziati erano persuasi di aver individuato i tre costituenti fondamentali della materia: elettrone, protone e neutrone. In realtà, studi successivi hanno dimostrato che le particelle elementari presenti nell’atomo sono moltissime (positoni, neutrini, mesoni e muoni, sono solo alcune delle tante particelle scoperte ultimamente), tuttavia le proprietà fondamentali della materia e le trasformazioni chimiche cui essa va incontro possono essere interpretate adeguatamente immaginando l’atomo costituito dalle tre particelle elementari citate sopra.

    Possiamo ora fare un riepilogo di quanto abbiamo appreso sulla struttura intima della materia: esso ci permetterà anche di integrare le conoscenze relative alla struttura atomica che siamo via via venuti acquisendo.

    L’atomo può essere immaginato come una particella neutra, di forma sferica, con un diametro di circa 10-10 m (1 Å). In esso si distingue un nucleo con un diametro di circa 10-14 m, ossia 10.000 volte più piccolo di quello dell’atomo intero e con carica elettrica positiva; intorno ad esso si muovono gli elettroni con carica elettrica negativa, in numero tale da bilanciare la carica positiva del nucleo. Il nucleo è formato a sua volta di protoni e neutroni, particelle queste ultime che, in quanto costituenti il nucleo, vengono anche chiamate nucleoni.

    La carica elettrica dell’elettrone è di -1,60 ·10-19 coulomb (identica, a parte il segno, a quella del protone) e viene definita come unità di carica elettrica. Il neutrone, come abbiamo appena detto, è elettricamente neutro.

    In un atomo, il numero degli elettroni (uguale a quello dei protoni) viene detto numero atomico e viene indicato con la lettera Z; il numero dei neutroni è variabile (generalmente uguale o leggermente maggiore di quello dei protoni) e viene indicato con la lettera N. La somma (Z + N) si indica con A e viene detta numero di massa.

    Ciascuna varietà di atomo è detta nuclide ed è caratterizzata da una ben definita composizione del suo nucleo (specificata dai numeri Z e A). I nuclidi aventi lo stesso numero atomico Z e diverso numero di massa A, sono detti isotopi. Il termine isotopo diventa quindi sinonimo di nuclide.

    I nuclidi finora conosciuti sono più di 1.300. Di questi solo 300 si trovano in natura mentre i rimanenti sono stati ottenuti artificialmente attraverso reazioni nucleari. Tutti i nuclidi artificiali sono radioattivi, mentre, fra quelli naturali, solo una ventina lo sono. I nuclidi stabili (tutti naturali) sono quindi circa 280.

    Una specie atomica (o elemento chimico) non è, in genere, un corpo semplice in quanto gli atomi che lo costituiscono non sono tutti uguali. Un elemento è infatti formato normalmente dall’insieme di nuclidi con identico numero atomico Z, ma con diverso numero di massa A, mescolati sempre nelle stesse proporzioni. Queste proporzioni rimangono invariate anche durante le reazioni chimiche a cui l’elemento partecipa.

    Gli elementi naturali e artificiali, noti fino ad oggi, sono 112 ma l’ultimo a cui è stato assegnato un nome è il centonovesimo, il meitnerio (simbolo Mt), in onore della fisica svedese di origine austriaca Lise Meitner (1878-1968). Essi sono caratterizzati dal numero Z che varia appunto da 1 a 112. Sono artificiali tutti gli elementi transuranici, ossia tutti gli elementi con numero atomico superiore a 92, nonché il tecnezio (Z=43) e il prometeo (Z=61).

    Ciascun elemento, come già sappiamo, ha un nome che viene indicato sinteticamente con un simbolo. Anche i singoli nuclidi vengono indicati con lo stesso simbolo, ad esempio, con Cl35 si individua il nuclide (cioè l’isotopo) del cloro di numero di massa A=35. Normalmente, insieme al numero di massa viene anche specificato il numero atomico Z anche se ciò non sarebbe strettamente necessario in quanto tale numero è già definito dal simbolo; tuttavia, volendo usare una terminologia più completa dovremmo scrivere, nel caso del nostro esempio, 17Cl35.

    L’elemento cloro è costituito da una miscela di due nuclidi: 17Cl35 e 17Cl37. Questi nuclidi sono mescolati, in natura, sempre nelle stesse proporzioni. Tali proporzioni vengono espresse in percentuale dai cosiddetti fattori di abbondanza relativa (f.a.r.) che, nel caso del cloro, sono rispettivamente 75,77% per 17Cl35 e 24,23% per 17Cl37.

    In pratica tutti gli elementi, come abbiamo più volte detto, sono formati da un insieme di nuclidi. Si ricorderanno, ad esempio, i tre isotopi dell’idrogeno che qui riscriviamo con a fianco le abbondanze relative: 1H1 (P) (99,984%); 1H2 (D) (0,016%); 1H3 (T) (10-15 %).

    I pesi degli atomi sono dell’ordine di grandezza di 10-23 g. I chimici, tuttavia, non usano i valori in grammi per esprimere i pesi dei singoli atomi ma, come sappiamo, un’unità di misura molto più piccola. Tale consuetudine è dovuta un po’ a motivi pratici (valori tanto piccoli renderebbero i calcoli estremamente complessi) e un po’ a motivi storici.

    Come si ricorderà, all’inizio venne scelta, come unità di massa atomica, la massa dell’atomo di idrogeno, o meglio, quella che si riteneva essere la massa dell’atomo di idrogeno. In seguito infatti si scoprì che l’idrogeno era costituito dall’insieme di tre isotopi, per cui, il valore unitario di massa rappresentava in realtà la massa media dei tre nuclidi presenti in quell’elemento. Il peso atomico (PA) di un elemento(*), per i chimici di quel tempo, era dunque un numero che esprimeva quanto pesava la media della pleiade isotopica dell’elemento preso in considerazione rispetto alla media della pleiade isotopica dell’idrogeno.

    Successivamente, la scala dei pesi atomici fu riferita all’ossigeno per una questione di comodità. Per pesare un elemento era infatti necessario che esso si combinasse con l’elemento rispetto al quale doveva essere fatto il confronto e, mentre pochi elementi si combinano con l’idrogeno, praticamente tutti formano composti con l’ossigeno. Nella convinzione che l’ossigeno pesasse esattamente 16 volte di più dell’idrogeno, venne assunto uguale ad 1 il peso di 1/16 della massa dell’ossigeno, o meglio, senza saperlo, della miscela dei tre nuclidi (O16, O17, O18) di cui è costituito l’elemento.

    In seguito però si scoprì che il peso dell’ossigeno riferito a quello dell’idrogeno (fatto uguale a 1) era 15,87, e non 16. Cambiando l’unità di misura, il peso dell’idrogeno veniva ora ad assumere il valore di 1,008, e non più 1. Naturalmente anche tutti gli altri pesi atomici che erano stati determinati per confronto con l’idrogeno dovettero essere corretti, nella nuova scala, di un fattore 16/15,87 (=1,008).

    Dal 1961 è tuttavia in vigore la nuova scala internazionale dei pesi atomici, la quale utilizza, come unità di misura, il dodicesimo della massa del nuclide C12. Questa nuova unità di massa atomica (in sigla amu, dalle iniziali di atomic mass unit, o anche semplicemente u) equivale a 1,660·10-24 g. Tale valore si ottiene dividendo 1 g di C12 (cioè 1/12 di mole dell’isotopo 12 del carbonio) per il numero di Avogadro.

    Vediamo ora come si perviene alla definizione di peso atomico di un elemento, immaginando, ad esempio, di voler determinare il peso atomico del cloro.

    Si parte ovviamente dalle misure sperimentali le quali forniscono, per il nuclide Cl35 il seguente valore della sua massa: 58,05·10-24 g. Tale valore, diviso per il numero che esprime il peso in grammi dell’unità di massa atomica, cioè per 1,660·10-24 g, dà 34,97.

    Sempre per via sperimentale, si determina quindi la massa atomica dell’altro nuclide del cloro (Cl37): il suo valore è 61,37·10-24 g. Questo valore, tradotto in unità di massa atomica, risulta:

    61,37·10-24 g / 1,660·10-24 g = 36,97.

    A questo punto, per determinare il peso dell’elemento cloro si devono prendere in considerazione i fattori di abbondanza relativa dei due isotopi di cui è costituito l’elemento, che sono rispettivamente 75,77% per l’isotopo 35 e 24,23% per l’isotopo 37. Il peso atomico del cloro risulta quindi dalla soluzione della seguente espressione:

    34,97 · 75,77 + 36,97 · 24,23
    PA = ————————————————— = 35,455
    100

    Si osservi che i chimici, per ragioni storiche, ma soprattutto di utilità pratica, considerano le masse atomiche come relative, evitando, in questo modo, di esprimere l’unità di misura. La massa atomica, o meglio il peso atomico (PA) di un elemento viene quindi indicato da un numero puro, cioè senza dimensioni. Il peso atomico del cloro, per esempio, non viene pertanto espresso nel modo seguente: 35,455 amu come sarebbe più corretto, ma semplicemente con il numero 35,455 (sottintendendo: “rispetto all’unità di massa atomica, cioè rispetto al dodicesimo del peso dell’isotopo 12 del carbonio”).

    E’ opportuno fare osservare infine che i valori dei pesi dei singoli nuclidi, determinati per via sperimentale, non corrispondono alla somma dei pesi dei protoni e dei neutroni contenuti nel loro nucleo (il peso degli elettroni periferici non viene nemmeno preso in considerazione in quanto è ritenuto irrilevante rispetto a quello dei nuclei). La differenza dei due valori viene chiamata difetto di massa.

    Nel caso del nuclide Cl35, ad esempio, la somma dei pesi dei 17 protoni e dei 18 neutroni (A= Z+N = 35) contenuti nel suo nucleo è pari a 35,28 u, superiore al valore del nuclide determinato sperimentalmente, che è 34,97 u. La differenza di massa corrisponde all’energia (ricavabile dall’equazione di Einstein E=m·c2) necessaria a tenere insieme protoni e neutroni nel nucleo. Questa energia equivale a quella che si libera quando protoni e neutroni vengono separati in seguito a reazioni nucleari. In sono riportate le grandezze fondamentali delle particelle elementari.

    (*) In chimica spesso non si fa distinzione fra “peso” e “massa”, ma questi, in realtà, sono due concetti profondamente diversi. La massa di un corpo è la misura della resistenza al cambiamento del suo stato di quiete o di moto (serve uno sforzo maggiore per lanciare un corpo di grande massa che per lanciarne uno di piccola massa) ed è una proprietà che dipende dalla quantità di materia che costituisce il corpo stesso, ma non dal luogo dove esso è posto. Il peso, invece, è la forza gravitazionale agente su un corpo e dipende dall’accelerazione di gravità (g) che varia da luogo a luogo (è diverso sulla Terra, nello spazio e sulla Luna; e inoltre, sulla Terra stessa varia da luogo a luogo in funzione della distanza dal centro del pianeta). Massa e peso sono legati dalla seguente relazione: P=m·g. Quindi le due grandezze sono fra loro proporzionali ma, mentre la prima è una grandezza scalare, il peso, che è una forza, è una grandezza vettoriale. In pratica, a causa della quasi uniformità dell’attrazione gravitazionale dei vari punti della Terra (il raggio polare differisce da quello equatoriale di soli 21 Km), i pesi (estremamente piccoli) di atomi e molecole variano da punto a punto di quantità infinitesime così che possono essere ritenuti costanti, come lo sono le loro masse. Questo è il motivo per il quale in chimica si usa normalmente il termine “peso” al posto di “massa”.

    Prof. Antonio Vecchia

    Reply