Vita e morte delle stelle

SULLA PERFEZIONE E IMMUTABILITA’ DEI CIELI

I filosofi dell’antica Grecia ritenevano che i cieli fossero perfetti, eterni e incorruttibili e che pertanto nessun mutamento potesse avvenire al loro interno. Eventuali cambiamenti erano ammissibili solo al di sotto del primo cielo (quello della Luna), quindi, in pratica, solo sulla Terra o nella sue immediate vicinanze. Questo convincimento traeva origine dal senso comune (una cosa che in verità non ha mai aiutato molto a capire come funziona il mondo), in quanto si era notato che nel breve lasso di tempo della vita di un uomo, o anche di alcune generazioni, non si verificavano effettivamente in cielo cambiamenti di sorta, mentre sulla Terra, nel frattempo, accadevano eventi fisici e meteorologici di varia natura ed intensità.

In realtà, alcuni oggetti strani e dall’aspetto minaccioso ogni tanto solcavano il cielo, come fossero fantasmi, trascinandosi dietro lunghe code: erano le comete, che venivano avvistate con terrore perché considerate presagio di sventure. Esse, però, affinché fosse salvaguardata l’integrità dei cieli, erano ritenute oggetti presenti nell’atmosfera terrestre, a sua volta corrotta ed instabile.

Bisognerà aspettare fino al 1577 per rendersi conto che le comete sono oggetti sistemati nei cieli, a grande distanza dalla Terra. In quell’anno, infatti, l’astronomo danese Tycho Brahe, pur senza l’ausilio di strumenti ottici (che non erano ancora stati inventati), tentò di misurare la parallasse di una cometa, ma non vi riuscì. Da ciò dedusse che la cometa doveva trovarsi più lontana della Luna, di cui era invece possibile misurare la parallasse.

Che cosa sia la parallasse è presto detto. Si ponga il pollice davanti agli occhi e lo si guardi prima con l’occhio destro, tenendo chiuso il sinistro e poi con l’occhio sinistro, tenendo chiuso il destro. Lo si vedrà spostarsi, sullo sfondo della parete lontana, in modo tanto più evidente quanto più lo si sarà posto vicino agli occhi. Questo spostamento apparente del dito si chiama parallasse e si verifica perché cambia l’angolazione sotto la quale si osserva il dito. Lo stesso fenomeno si nota quando si guarda la Luna da due punti della Terra distanti fra loro: la si vede spostarsi, sullo sfondo delle stelle fisse, perché il nostro satellite naturale è relativamente vicino mentre, se nello stesso modo si guardasse un astro più lontano, per esempio la Stella Polare, non si noterebbe spostamento alcuno.

L’idea dell’integrità dei cieli si andava quindi finalmente incrinando. In verità, si erano già verificati in passato alcuni fenomeni che avrebbero dovuto far dubitare della perfezione dei cieli, ma stranamente nessuno li notò. Vi era stata, ad esempio, la comparsa improvvisa di stelle luminosissime tanto da poter essere viste perfino in pieno giorno, oppure la presenza di macchie sulla superficie del Sole sicuramente osservabili ad occhio nudo, ma ciò non suscitò particolare interesse fra la gente. Come mai nessuno segnalò questi fenomeni?

Molto probabilmente, condizionati dal pregiudizio dell’immutabilità e dell’incorruttibilità dei cieli, gli antichi filosofi greci, ma anche tutti coloro che vissero durante il medioevo, non fecero caso al verificarsi di nuovi fenomeni anche perché, come diceva Goethe, normalmente le persone vedono solo ciò che già conoscono.

Nel 1054, nella costellazione del Toro, apparve improvvisamente una stella luminosissima, tanto da superare in splendore la stessa Venere. L’astro venne studiato attentamente dai cinesi e dai giapponesi che ne annotarono con scrupolo la posizione e le altre caratteristiche osservabili. Qui da noi invece, inspiegabilmente, nessuno lo vide.

Circa cinquecento anni più tardi, precisamente nel 1572, si accese in cielo, nella costellazione di Cassiopea, un’altra nuova stella, luminosa quanto quella apparsa nel 1054, ma questa volta venne osservata e registrata ovunque, anche in occidente. Qui da noi, anzi, il fenomeno destò tale interesse che l’astronomo danese Tycho Brahe, scrisse anche un libro sull’argomento intitolato «De nova stella». Dal titolo di quel libro, in seguito, ogni nuova stella che comparve in cielo venne chiamata nova. In verità, sebbene il termine latino nova significhi «nuova» non si tratta di una nuova stella, ma piuttosto, come vedremo meglio in seguito, della morte di una vecchia avvenuta in seguito ad una spettacolare esplosione.

Una terza nova, molto splendente, apparve pochi anni più tardi, nel 1604, nella costellazione di Ofiuco (o del Serpente) e venne descritta, in questo caso, dal fisico tedesco Keplero (Johannes Kepler).

Da quei tempi, e fino ad oggi, vennero osservate altre novae, ma non di proporzioni così straordinarie come quelle del 1054, del 1572 e del 1604. A queste ultime, che erano effettivamente di luminosità eccezionale, venne imposto il nome di supernovae, riservando quello di novae ai casi meno appariscenti.

Quindi, come si è detto, dal 1604 ad oggi non è più apparsa, nella nostra Galassia, alcuna supernova e di ciò ci si rammarica, perché dai tempi di Galilei l’uomo costruì e perfezionò per l’osservazione del cielo numerosi strumenti, che avrebbero consentito di studiare questi fenomeni in modo molto preciso e dettagliato. Tutte le supernovae apparse in passato furono invece osservate solo ad occhio nudo non essendo stato ancora inventato alcuno strumento ottico: il cannocchiale venne utilizzato da Galilei, per la prima volta, nel 1609, cinque anni dopo l’apparizione dell’ultima supernova.

 

DI CHE COSA SONO FATTE LE STELLE?

Come abbiamo visto, ci sono voluti più di duemila anni per capire che anche nei cieli avvengono dei mutamenti, ma ci vorranno ancora alcuni secoli di osservazioni e di studio per conoscere la composizione dei corpi celesti. E’ infatti solo da poco più di cent’anni che conosciamo con esattezza la composizione delle stelle ed è appena da una cinquantina d’anni che abbiamo scoperto quali sono le loro fonti di energia.

Fino alla metà dell’Ottocento l’uomo era convinto che le stelle fossero costituite di un materiale speciale, la cosiddetta «quinta essenza» (le altre quattro erano aria, acqua, terra e fuoco) cui dettero il nome di etere; questa sostanza doveva avere la proprietà di brillare in eterno senza logorarsi. La cosa oggi appare inconcepibile, ma bisogna tenere presente che solo nell’ultimo secolo si è capito finalmente che le stelle, essendo fatte della stessa materia di cui sono costituiti gli oggetti terrestri, si dovevano consumare e deteriorare nel tempo, fino a spegnersi completamente.

L’unico mezzo attraverso il quale possiamo avere informazioni relativamente alle proprietà chimiche e fisiche delle stelle è la luce che queste ci inviano. Lo strumento che ha consentito di captare, analizzare e misurare la luce delle stelle è lo spettroscopio, un dispositivo che trae origine da una osservazione compiuta da Isaac Newton verso la fine del 1600.

Il grande fisico inglese fece passare la luce del Sole attraverso un prisma di vetro osservando il formarsi, su di uno schermo, di una sequenza di colori (gli stessi dell’arcobaleno). A questa striscia di colori venne dato il nome di «spettro» da un termine latino che significa apparizione, miraggio, con allusione al fatto che la luce era sempre la stessa ma, per effetto del prisma trasparente attraverso il quale veniva fatta passare, appariva diversa, ovvero scomposta in vari colori.

Nel 1814, a Vienna, un ottico di origine tedesca, Joseph von Fraunhofer, ponendo una sottile fenditura davanti al prisma attraverso il quale passava la luce, osservò il formarsi di una serie di righe nere che solcavano lo spettro solare. Egli ne contò più di 700, però non seppe dare giustificazione della loro presenza. Stranamente, nonostante l’incertezza sul significato delle righe dello spettro solare, la tecnica spettroscopica fu tuttavia immediatamente applicata ai pianeti e alle stelle più brillanti, e ne risultarono analogie e differenze. Da queste osservazioni si poté trarre il convincimento che tutti i corpi celesti fossero oggetti con caratteristiche spettroscopiche comparabili e quindi, presumibilmente, fatti della stessa materia, anche se lo stato fisico e la temperatura potevano essere diverse.

Verso la fine del secolo XIX si riuscì finalmente a capire che cosa significavano quelle righe scure all’interno dello spettro colorato delle stelle. L’arcano venne svelato da due fisici tedeschi, Gustav Kirchhoff e Robert Bunsen, i quali osservarono che riscaldando un gas di sodio si otteneva una fiamma di colore giallo la cui luce, fatta passare attraverso il solito prisma di vetro, produceva uno spettro nero solcato da due righe gialle molto vicine fra loro. Confrontando quindi lo spettro del Sole con quello ottenuto dai vapori di sodio, Kirchhoff e Bunsen poterono notare la coincidenza fra le righe colorate dello spettro del sodio incandescente e due analoghe, ma scure, presenti sullo spettro del Sole. In altre parole, le righe brillanti, o in emissione, del gas caldo di sodio coincidevano con quelle nere o in assorbimento dello spettro del Sole. Da ciò i due scienziati tedeschi dedussero che sul Sole vi doveva essere del sodio.

Successivamente vennero osservate, sullo spettro solare, righe corrispondenti ad altri elementi chimici presenti sulla Terra. Queste osservazioni convinsero gli scienziati che il Sole doveva essere un corpo molto caldo avvolto da vapori relativamente più freddi. La massa interna, molto calda e molto densa, emetteva una radiazione luminosa continua, cioè comprendente tutti i colori dello spettro (come si era osservato in laboratorio per i corpi incandescenti solidi, liquidi e anche gassosi ma molto compressi), mentre i gas esterni, meno caldi e più rarefatti, assorbivano alcune radiazioni producendo le righe nere sullo spettro solare. Queste righe erano determinate dagli atomi degli elementi presenti nei gas dell’atmosfera solare.

Ulteriori osservazioni spettroscopiche, condotte sulle stelle, evidenziavano la presenza degli stessi elementi chimici esistenti sul Sole. Era ormai chiaro a tutti che la materia doveva essere la stessa ovunque e che molti degli elementi scoperti dai chimici sulla Terra erano presenti anche sulle stelle. A conferma di ciò vi fu il riconoscimento di alcuni elementi chimici sulle stelle prima ancora che gli stessi venissero osservati sulla Terra. L’esempio più classico è quello dell’elio, un elemento osservato nello spettro solare nel 1868, trent’anni prima che venisse isolato sulla Terra. Il nome di elio (dal greco «helios» che significa Sole), assegnato a questo elemento, è legato proprio al luogo del suo primo ritrovamento.

Alla fine dell’Ottocento l’uomo era riuscito finalmente a capire quale fosse la composizione chimica delle stelle lontane (e naturalmente del Sole) senza doversi recare sul posto. La cosa fu molto sorprendente anche perché pochi anni prima, il filosofo francese Auguste Comte, padre del positivismo, affermava: “Gli uomini potranno misurare con sempre maggiore precisione la posizione e le distanze degli astri, ma mai riusciranno a sapere di che cosa sono fatti”. Anche per la scienza dovrebbe valere quello che si usa dire in politica: “Mai dire mai”.

 

L’ENERGIA DEL SOLE E L’ETA’ DELLA TERRA

Il problema relativo all’energia prodotta dal Sole (e dalle altre stelle) venne affrontato a partire dalla seconda metà del diciannovesimo secolo. A quel tempo, sulla base del principio dell’uniformismo di Hutton, si era tentato di determinare l’età della Terra.

James Hutton, un geologo scozzese vissuto nella seconda metà del 1700, ipotizzò che la storia passata del nostro pianeta potesse essere spiegata in base a ciò che accadeva al presente. Questo è per l’appunto il contenuto del cosiddetto «principio dell’uniformismo» (o dell’attualismo, come verrà in seguito chiamato da Charles Lyell, altro grande geologo di estrazione britannica). Si tentò, quindi, sulla base di questo principio, di calcolare l’età della Terra attraverso la stima del tempo necessario allo svolgi­mento di alcuni fenomeni naturali che presumibilmente si erano realiz­zati con lo stesso ritmo anche nel passato.

Misurando ad esempio la velocità di accumulo di sabbie e detriti sul fondo di bacini lacustri o di lagune, si riuscì a stimare l’età di strati di rocce sedimentarie, di notevole potenza (spessore), formate da quel tipo di materiali. Questo metodo non era molto preciso perché l’erosione, la dislocazione degli strati rocciosi e la deformazione degli stessi, modificando nel tempo la disposizione originaria del deposito, avrebbero potuto falsare i risultati. Tuttavia, nonostante le difficoltà incontrate nell’applicazione di queste tecniche di misura, si arrivò ugualmente a capire che la Terra non era molto giovane come si era sempre pensato, ma avrebbe dovuto avere un’età di almeno qualche centinaio di milioni di anni.

Si tentò anche di misurare l’età del nostro pianeta attraverso la stima del tasso di accumulo di sali nel mare partendo dal presupposto che all’inizio i mari stessi fossero formati di acqua dolce e che i sali vi fossero stati portati successivamente dai fiumi. Si pervenne quindi al risultato che il tempo necessario affinché i fiumi potessero portare al mare tutti i sali attualmente presenti (35 grammi per ogni litro di acqua) sarebbe stato di un miliardo di anni.

Questi tempi così lunghi della vita della Terra erano favorevolmente accolti dai biologi i quali, nella seconda metà dell’Ottocento, cercavano di ricostruire le tappe della lenta evoluzione degli organismi viventi a partire dalle prime forme unicellulari. Ma tempi così lunghi non erano altrettanto graditi dai fisici i quali si chiedevano attraverso quali meccanismi il Sole avrebbe potuto produrre tanta energia da garantire alla Terra un flusso così intenso e costante di calore e di luce per milioni e milioni di anni.

Il Sole invia sulla Terra ingentissime quantità di energia, ma quella che in effetti produce e diffonde tutto intorno nello spazio è un miliardo di volte superiore alla parte che investe il nostro pianeta. Per avere un’idea dell’enorme quantità di energia prodotta dal Sole basterebbe notare che, in una frazione di secondo, esso emette complessivamente più energia di quella che il genere umano ha utilizzato in tutta la sua storia. In altro modo si potrebbe dire che se si riuscisse a catturare la porzione di energia che il Sole invia sulla Terra in un solo secondo, questa sarebbe sufficiente a risolvere definitivamente il problema energetico offrendo ad ogni abitante del nostro pianeta la possibilità di consumare giornalmente quella quantità di energia che oggi è disponibile solo per una minoranza privilegiata.

Da dove quindi il Sole potrebbe trarre energia in così grande quantità e per tempi tanto lunghi? Verso la metà dell’Ottocento, il fisico tedesco Hermann Ludwig Ferdinand von Helmholtz, uno dei padri della legge della conservazione dell’energia, e il collega britannico William Thomson (divenuto poi lord Kelvin) calcolarono che il Sole non avrebbe mai potuto produrre energia attraverso un normale processo di combustione. La nostra stella, si sapeva, è molto grande, ma anche se fosse fatta interamente di carbone o di qualche altro combustibile (petrolio, legno), non avrebbe potuto bruciare per tempi molto lunghi. Fatti i conti, si comprese che, se la luce e il calore dell’astro che ci illumina e ci riscalda fossero prodotti interamente da combustione di carbone, esso si sarebbe ridotto in cenere in meno di mille anni. E nemmeno prendendo in considerazione la forma più energetica di combustione chimica che si conosca, ossia la reazione fra idrogeno e ossigeno che porta alla formazione di acqua, il Sole avrebbe potuto sviluppare energia per un tempo superiore a 3.000 anni. Ma il Sole vive da molti più anni.

Scartata quindi l’idea che il Sole potesse splendere in conseguenza di processi chimici, Helmholtz e lord Kelvin avanzarono l’ipotesi che potesse farlo in seguito alla contrazione del suo volume. Il Sole è formato di gas e i gas, come si sa, contraendosi, si riscaldano. Esso, pertanto, sotto l’effetto della gravità, avrebbe potuto ridurre le sue dimensioni a partire da una nebulosa molto estesa che, diminuendo il suo diametro di solo una cinquantina di metri all’anno, av­rebbe potuto dar ragione dell’energia che emana.

Al ritmo di cinquanta metri all’anno, il nostro Sole si sarebbe rimpicciolito di un centinaio di kilometri in 2000 anni e nessuno si sarebbe accorto (nemmeno con gli strumenti attualmente a disposizione) di questa riduzione delle sue dimensioni. Andando però molto più indietro nel tempo si arriverebbe, in alcuni milioni di anni, a dover immaginare al posto del Sole, una nebulosa di volume enorme, addirittura più grande dell’orbita terrestre. E’ evidente che un Sole primitivo di dimensioni enormi, in continua contrazione, non sarebbe conciliabile con un ritmo di emissione di energia costante come indicano invece alcuni fossili relativi ad organismi che per centinaia di milioni di anni non hanno cambiato sembianze. Sappiamo, ad esempio, che la Lingula anatina, un Brachiopode che vive attualmente nell’Oceano Indiano e nel Pacifico, e di cui è facile reperire i fossili, ha conservato quasi inalterata la sua forma dal Siluriano ad oggi, cioè per quasi 400 milioni di anni. Questa è una prova convincente (ma non l’unica) del fatto che l’ambiente fisico sulla Terra è rimasto pressoché costante per centinaia di milioni di anni, cosa che sarebbe stata impossibile se il Sole avesse subito variazioni di grandezza come quelle ipotizzate in precedenza.

Verso la fine dell’Ottocento gli scienziati si trovavano quindi divisi sul problema relativo all’età della Terra. I geologi erano convinti che la Terra esistesse da tempi molto lunghi e che fosse rimasta più o meno con le stesse caratteristiche per centinaia di milioni di anni e forse addirittura per un miliardo, mentre dall’altra parte gli astronomi, sulla base degli studi compiuti sul Sole, erano persuasi che la Terra non potesse esistere da più di alcuni milioni di anni.

 

LA SCOPERTA DELLA RADIOATTIVITA’

Mentre si dibatteva sull’età della Terra e sulla fonte dell’energia solare, si ebbe la scoperta di un fenomeno fisico che avrebbe consentito l’ingresso dell’astronomia nella sua fase più moderna e, nel contempo, la spiegazione della produzione dell’energia da parte del Sole e delle altre stelle. Si tratta della scoperta della radioattività, avvenuta casualmente nel 1896, ad opera del fisico francese Antoine-Henri Becquerel.

Becquerel, a quel tempo, si trovava a Parigi ed era impegnato, insieme con altri fisici, nello studio del fenomeno della fluorescenza. Si sapeva che i raggi catodici, generati nei cosiddetti «tubi di scarica» (tubi di vetro all’interno dei quali veniva azionata una scarica elettrica ad elevato potenziale), rendevano fluorescenti le pareti di vetro dei tubi stessi quando dal loro interno si sottraeva l’aria per mezzo di una pompa aspirante. Era stato anche osservato che il vetro, reso fluorescente dai raggi catodici, generava, a sua volta, delle radiazioni che rendevano fluorescenti dei sali di platinocianuro di bario, posti all’esterno.

Il primo che notò queste radiazioni fu il fisico tedesco Wilhelm Konrad Roentgen, il quale le chiamò raggi X per l’azione misteriosa che mostravano. Egli osservò infatti che questi strani raggi erano in grado di penetrare molte sostanze opache come la gomma, la carta e perfino il corpo umano, al cui interno evidenziavano le ossa. I raggi X riuscivano anche ad impressionare una lastra fotografica senza che venisse preventivamente tolta dal suo involucro protettivo.

Becquerel aveva scoperto che alcuni minerali di uranio, esposti al Sole, diventavano fluorescenti e pertanto pensò che avrebbero potuto emettere anch’essi raggi X o radiazioni simili. Egli allora, dopo aver esposto alla luce del Sole i minerali di uranio, li poneva su una lastra fotografica protetta dall’involucro di carta nera, per vedere se riuscivano ad impressionarla. E in effetti, quando andava a sviluppare la lastra, vi trovava l’impronta scura del minerale col quale era stata a contatto.

Avvenne però che in una giornata di cattivo tempo, Becquerel non potendo continuare gli esperimenti, riponesse ogni cosa nel cassetto in attesa che su Parigi tornasse il Sole. Quando, successivamente, il fisico francese andò ad utilizzare le lastre fotografiche che aveva custodito nel tavolo del laboratorio insieme ai minerali di uranio, si accorse che presen­tavano macchie scure come se fossero già state usate. Fu così che sco­prì che i minerali di uranio emettevano radiazioni anche se non erano stati esposti preventivamente ai raggi del Sole, e che quindi la proprietà di irradiare doveva dipendere da caratteristiche insite nella sostanza stessa e non da fattori esterni.

Questa particolare proprietà della materia venne chiamata «radioattività» dai coniugi Curie (Pierre e Maria Sklodowska, Premi Nobel per la fisica nel 1903), i quali dedicarono tutta la loro vita allo studio del fenomeno.

A quel tempo si scoprì che molte sostanze presenti nella crosta terrestre erano radioattive: oltre all’uranio, vi era il torio, l’attinio, il polonio, il radio e altre ancora. Tutte queste sostanze liberano energia che poi si trasforma in calore. Il calore emesso da un campione di roccia è minimo, ma poiché le sostanze radioattive sono molto abbondanti e diffuse uniformemente all’interno della crosta terrestre dove hanno continuato ad irradiare per miliardi di anni, il calore emesso complessivamente doveva essere enorme. Si veniva in questo modo a scoprire che la Terra possedeva una propria fonte di calore, indipendente da quella derivante dalla massa fusa originaria e da quella proveniente dal Sole e pertanto il suo raffreddamento avrebbe dovuto avvenire molto più lentamente di quanto calcolato. In seguito a queste nuove osservazioni l’età della Terra si allungava ulteriormente.

Frattanto si scopriva che le sostanze radioattive, e in particolare l’uranio, offrivano anche un metodo molto preciso, detto dell’isotopo radioattivo, per la determinazione dell’età delle rocce. Gli isotopi sono atomi diversi di uno stesso elemento, cioè atomi che contengono nel nucleo lo stesso numero di protoni, ma un numero diverso di neutroni. L’elemento idrogeno, ad esempio, è costituito da tre isotopi: prozio, deuterio e trizio; il primo presenta nel nucleo un protone e nessun neutrone, il secondo un protone e un neutrone e il terzo un protone e due neutroni. I neutroni fanno solo massa, mentre la particella che caratterizza chimicamente l’idrogeno è il protone. Molti elementi in natura sono costituiti da una miscela di isotopi, e molti di questi isotopi sono radioattivi.

Vediamo ora come sia stato possibile determinare l’età delle rocce attraverso l’analisi del contenuto di sostanze radioattive. L’isotopo 238 dell’uranio è radioattivo e si disintegra dando origine, alla fine di un lungo e complesso processo di trasformazione, ad atomi che non sono radioattivi. Il tasso di disintegrazione è assolutamente costante e non dipende dalla temperatura, dalla pressione o da altre condizioni fisiche e chimiche a cui è sottoposta la sostanza radioattiva; esso viene indicato, per comodità, attraverso una grandezza che prende il nome di «periodo di semitrasformazione» (o emivita). Questo rappresenta l’intervallo di tempo necessario affinché una certa quantità di sostanza radioattiva diventi la metà.

Quando una roccia solidifica, a partire da una massa fusa, si forma una serie di cristalli, ciascuno dei quali è composto da una ben determinata sostanza. Quindi, se una roccia contiene cristalli di uranio, dobbiamo ritenere che all’inizio, cioè quando questi cristalli si formarono, fossero costituiti esclusivamente dall’elemento uranio. Ora però, col passare del tempo, l’uranio si è trasformato in piombo per cui, dal rapporto atomi di piombo/atomi di uranio presenti attualmente in un cristallo, si dovrebbe poter risalire al tempo in cui il cristallo stesso si formò, essendo nota l’emivita dell’elemento radioattivo. Analizzando il contenuto in uranio e piombo delle rocce più antiche che si possono raccogliere si riuscì a stabilire che la Terra dovrebbe avere un’età di circa 4,6 miliardi di anni. Se l’età del nostro pianeta è effettivamente questa, quella del Sole dovrebbe essere leggermente maggiore, diciamo di 5 miliardi di anni.

 

MATERIA ED ENERGIA

Agli inizi degli anni Venti del secolo scorso fu imboccata finalmente la strada che avrebbe portato alla soluzione del problema relativo alla produzione dell’energia del Sole e delle altre stelle. Il suggerimento venne dal fisico inglese Arthur Stanley Eddington (1882-1944) il quale indicò nella trasmutazione degli elementi radioattivi la probabile fonte dell’energia solare.

In quegli anni Einstein aveva formulato la teoria della relatività speciale che conteneva l’equivalenza fra massa ed energia. Si tratta di una legge molto nota che afferma che tutte le volte che da un corpo viene estratta energia, deve diminuire la sua massa, e viceversa. Questa legge è espressa dall’equazione E = m·c², dove E è l’energia, m la massa e c è la velocità della luce. Poiché la velocità della luce elevata al quadrato è un numero molto grande, la legge suggerisce che da piccole quantità di materia che si annichiliscono, fuoriescono grandi quantità di energia.

La scoperta che la materia poteva essere considerata una forma di energia concentrata fece dunque sorgere il sospetto che quella irradiata dalle stelle non venisse prodotta a spese del loro volume, come pensavano von Helmholtz e lord Kelvin, ma a spese della loro massa.

A quel tempo, l’unica sorgente di energia nucleare che si conosceva era quella prodotta dall’uranio e dal torio. Potevano le stelle trarre energia da queste sostanze?

La risposta è no, e venne fornita dalla spettroscopia che era ormai in grado di indicare con precisione la composizione qualitativa e quantitativa del Sole e delle altre stelle. Esaminando la posizione e lo spessore delle righe di Fraunhofer, si era potuto determinare non solo il tipo di elemento chimico presente sulla stella, ma anche la sua abbondanza. In realtà la questione non è così semplice perché le caratteristiche dello spettro di una stella dipendono anche dalla temperatura, la quale, in prima approssimazione, si può stabilire osservando il colore della stella stessa.

Come si sa dalla termodinamica, quanto più aumenta la temperatura di un corpo, tanto più diminuisce la lunghezza d’onda delle radiazioni luminose che esso emette in prevalenza. In altre parole, quanto più un corpo è caldo tanto più chiara è la luce che si diffonde da esso. Pertanto, una stella di luce rossa (come ad esempio Betelgeuse, della costellazione di Orione) ha una temperatura superficiale piuttosto bassa (di circa 3000 gradi kelvin, 3000 K), mentre il Sole, che emette energia soprattutto come luce gialla, ha una temperatura sui 6000 K. Invece una stella come Rigel (anch’essa presente nella costellazione di Orione) che al nostro occhio appare azzurra, emette radiazioni prevalentemente di pic­cole lunghezze d’onda ed è quindi molto calda (circa 30.000 K).

L’analisi degli spettri prodotti dagli astri a diverse temperature evidenziava che la composizione chimica di una stella era mediamente la seguente: circa il 70% di tutta la sua massa era idrogeno, circa il 29% era elio, mentre tutti gli altri elementi presi insieme costituivano poco più dell’1% della massa totale.

Nel 1915, il chimico americano William Draper Harkins (1873-1951) suggerì l’idea che quattro nuclei dell’atomo di idrogeno avrebbero potuto fondersi insieme per formare il nucleo dell’atomo di elio e che dalla reazione si sarebbe potuta liberare energia. Questa «fusione» dei nuclei dell’idrogeno avrebbe infatti prodotto un nucleo atomico (quello dell’elio) di peso leggermente inferiore alla somma dei pesi dei quattro nuclei di partenza, e pertanto, la massa mancante, sarebbe potuta uscire sotto forma di energia.

Il processo di fusione nucleare venne studiato accuratamente e si scoprì che per la sua attuazione sarebbero state necessarie temperature elevatissime (milioni di gradi), che si sarebbero potute realizzare solo nelle zone più interne delle stelle, le quali, in superficie, come abbiamo appena visto, presentano temperature, al massimo, di poche decine di migliaia di gradi.

Nel 1920, il già ricordato fisico inglese Arthur Stanley Eddington credette di aver individuato il motivo per il quale le stelle non collassano definitivamente sotto l’effetto dell’enorme forza di gravità che la loro stessa massa produce. Egli partì dall’osservazione che, poiché le stelle sono dei corpi gassosi, per poter rimanere in equilibrio, l’attrazione gravitazionale verso l’interno dovrebbe essere bilanciata da una pari forza, che agisce verso l’eterno. Questa forza non poteva che essere quella generata dalla pressione dei gas surriscaldati che si genera al centro della stella e che spinge in senso opposto alla gravità.

Ma affinché si creino pressioni tali da opporsi al carico dei gas sovrastanti il “core” della stella (come si dice in termini tecnici), cioè il materiale che sta al centro, dovrebbe trovarsi a temperature di milioni di gradi. Che cosa potrebbe mantenere il nucleo di una stella costantemente a temperature tanto elevate? Eddington pensò ovviamente all’energia atomica.

La temperatura e la densità molto elevate del centro della stella dovrebbero essere tali da cambiare profondamente le caratteristiche stesse della materia, la quale, in quelle condizioni, non dovrebbe più essere formata da atomi interi, ma dai suoi costituenti sciolti, cioè da nuclei di atomi e da elettroni liberi di muoversi autonomamente come avviene per le molecole che costituiscono un gas.

Questo stato disordinato della materia viene detto «plasma», un termine in verità per nulla appropriato per indicare qualche cosa di caotico. Plasma infatti è una parola greca con la quale si indica ciò che ha una configurazione ben definita, tanto è vero che la corrispondente forma verbale «plasmare», significa proprio dar forma, quindi tutto il contrario di quello che si voleva intendere assegnando quel termine alla materia informe costituita da nuclei ed elettroni liberi da legami. Ma ormai il termine è entrato nel linguaggio scientifico e l’errore non può più essere corretto.

Il plasma del centro del Sole sarebbe formato da nuclei di atomi di idrogeno (cioè protoni), da nuclei di atomi di elio (o particelle α), da elettroni liberi e da pochi altri nuclei di atomi leggeri. A causa delle altissime temperature e dell’eccezionale affollamento, tutte queste particelle dovrebbero essere in veloce movimento e generare urti molto frequenti e molto violenti fino eventualmente a fondere insieme. Si trattava allora di elaborare un modello particolareggiato e coerente in grado di spiegare attraverso quali reazioni successive si sarebbero potuti combinare fra loro i nuclei degli atomi più semplici affinché formassero nuclei di atomi più complessi.

Il processo venne descritto dettagliatamente, nel 1938, da Hans Albrecht Bethe, uno scienziato statunitense di origine tedesca nato nel 1906 e tuttora vivente, il quale individuò due strade attraverso le quali si sarebbe potuta verificare la fusione nucleare. I processi che descriveremo relativamente al Sole, salvo lievi modifiche, valgono anche per le altre stelle.

 

LE FORZE CHE TENGONO UNITI I NUCLEONI

Prima di esporre i processi di fusione nucleare forse è opportuno ricordare come siano fatti gli atomi, o meglio di che cosa siano costituiti i loro nuclei. I nuclei degli atomi, come abbiamo già detto, sono formati dall’unione di più protoni e neutroni, detti anche, con termine unico, nucleoni. I protoni sono corpuscoli con carica elettrica positiva, mentre i neutroni non possiedono carica elettrica. Ora, poiché sappiamo che le cariche elettriche dello stesso segno si respingono, viene da chiedersi come possano stare insieme, senza disintegrarsi, i nuclei degli atomi che contengono più di un protone al loro interno. Evidentemente deve esistere una forza, più forte di quella elettrica di repulsione, che tiene uniti i nucleoni all’interno dei nuclei atomici. Di che forza si tratta?

Poiché la meccanica quantistica suggeriva l’idea che le forze si manifestano con lo scambio di particelle (fotoni per la forza elettromagnetica e gravitoni per la forza di gravità), nel 1935 il fisico giapponese Hidekei Yukawa avanzò il convincimento che se fosse esistita effettivamente una forza in grado di tenere uniti i protoni e i neutroni all’interno del nucleo, nello stesso luogo sarebbe dovuta essere presente anche una particella di grandezza intermedia fra quella dell’elettrone e quella del protone adatta a svolgere questo ruolo. Questa particella, con la funzione di «collante», avrebbe dovuto interagire con i nucleoni, così come, ad esempio con le particelle cariche di elettricità, interagiscono i fotoni. La particella ipotizzata da Yukawa fu chiamata mesone (dal greco «meso» = che sta in mezzo) e venne individuata nel 1937 in uno storico esperimento condotto all’interno delle cosiddette «camere a nebbia». La forza connessa alla presenza del mesone fu chiamata «interazione forte» ed ha la caratteristica non solo di essere molto più energica di quella elettrica, ma anche di agire esclusivamente fra particelle poste a brevissima distanza, come sono per l’appunto i nucleoni all’interno dei nuclei atomici.

La forza nucleare opera nel modo migliore quando neutroni e protoni all’interno del nucleo sono in proporzioni determinate. Se i nuclei contengono fino ad un massimo di quaranta particelle la proporzione migliore è quella costituita da un numero uguale di protoni e neutroni. Nel caso di nuclei più complessi, la stabilità è garantita da un numero di neutroni superiore a quello dei protoni. Il nucleo dell’atomo di piombo, ad esempio, contiene 83 protoni, ma ben 125 neutroni. Un nucleo atomico con nucleoni in proporzioni diverse da quelle dei nuclei stabili tende a modificare il numero di protoni e neutroni esistenti in modo da rientrare nella regione della stabilità. I nuclei instabili sono quelli degli atomi radioattivi.

La forza nucleare è molto intensa ma diminuisce fortemente con la distanza tanto che già all’esterno del nucleo non è più sensibile. A differenza della nucleare, la forza elettrica, espressa dalla legge di Coulomb, agisce invece a tutte le distanze anche se con diversa intensità e può essere sia attrattiva che repulsiva. Ad esempio, la forza che agisce fra due corpi carichi di elettricità dello stesso segno, posti ad una certa distanza, si fa più intensa quando gli oggetti stessi si avvicinano, perché tale forza è direttamente proporzionale al prodotto delle cariche in gioco, ma inversamente proporzionale al quadrato della distanza a cui sono poste le cariche stesse: di conseguenza aumenta di poco all’aumentare della carica, ma di molto al diminuire della distanza.

Proviamo allora a condurre un esperimento concettuale, cioè teorico, nel quale si immagina di lanciare due protoni l’uno contro l’altro. Durante l’esperimento noi dovremmo vedere, in un primo tempo, i due protoni avvicinarsi, ma poi, quando si venissero a trovare molto vicini, la repulsione elettrica dovrebbe farsi tanto intensa da produrre il loro allontanamento, e quindi li si dovrebbe vedere rimbalzare lontano. Ora, però, se l’energia con la quale i nostri due protoni vengono lanciati l’uno contro l’altro fosse molto grande, prima che prenda il sopravvento la repulsione di natura elettrica, essi potrebbero venire a trovarsi così vicini l’uno all’altro da risentire l’effetto della interazione forte che, come abbiamo detto, è una forza attrattiva che si rende efficace a brevissima distanza. I due protoni, quindi, essendo finiti molto vicini, invece che respingersi, dovrebbero rimanere agganciati definitivamente perché ciò che la forza nucleare ha unito la forza elettrica non può più dividere. Naturalmente, se il tentativo venisse effettuato per unire un protone ed un neutrone, invece che due protoni, l’energia necessaria per avvicinarli dovrebbe essere minore di quella impiegata nell’esperimento precedente.

Se al centro del Sole si unissero due protoni, nel modo che abbiamo descritto, si formerebbe il nucleo dell’atomo di elio-2 il quale è una particella molto instabile perfino a temperatura ambiente e quindi, verosimilmente, in quel luogo caldissimo si disintegrerebbe immediatamente dopo formata. Però esiste la possibilità che un protone possa perdere un positone (ossia un elettrone positivo) divenendo neutrone e l’unione di un neutrone con un protone non solo richiederebbe meno energia, ma condurrebbe anche ad una struttura più stabile.

Se un protone può perdere un positone e trasformarsi in neutrone, il protone stesso potrebbe essere immaginato come un neutrone che porta legato a sé un positone. Ebbene, le cose stanno effettivamente in questi termini e la forza che lega queste due particelle si chiama «interazione debole». Questa forza, a differenza di quella forte, può essere sia attrattiva che repulsiva, ma agisce anch’essa solo fra particelle poste a brevissima distanza.

Abbiamo quindi visto che se un protone perde un positone si trasforma in neutrone, ma esiste anche la possibilità contraria e cioè quella di un neutrone che si libera di un elettrone e diventa protone. Proprio studiando quest’ultimo fenomeno, intorno agli anni Trenta del secolo scorso, i fisici notarono che nel processo di trasformazione vi era un’inspiegabile perdita di energia.

La cosa sorprese non poco perché, a quel tempo, era già nota una legge fondamentale della fisica, detta «legge di conservazione dell’energia», secondo la quale l’energia può trasformarsi da un tipo in un altro e può anche passare da un corpo ad un altro, ma il suo ammontare complessivo deve rimanere inalterato. In altre parole, l’energia non può né essere creata dal nulla, né svanire nel nulla. Ora, poiché la legge di conservazione dell’energia è una di quelle leggi di natura che i fisici ritengono inviolabili, si doveva trovare una spiegazione plausibile per giustificare l’apparente perdita di energia che si notava nella trasformazione del neutrone in protone.

Il fisico austriaco Wolfang Pauli (1900-1958) ipotizzò che l’energia mancante si fosse trasformata in un frammento di materia (materia ed energia, come sappiamo, sono due entità intercambiabili) di massa molto piccola e privo di carica elettrica. Questo corpicciolo di dimensioni insignificanti, che in seguito verrà chiamato «neutrino» da Enrico Fermi, sarà osservato direttamente all’interno di un reattore nucleare dai fisici statunitensi Clyde Cowan e Frederick Reines solo nel 1953, cioè una ventina di anni dopo la sua segnalazione teorica. Il motivo di tanta difficoltà nella sua individuazione diretta va ricercato indubbiamente nelle dimensioni ridottissime di questa strana particella, ma anche nel fatto che essa non possiede una carica elettrica, qualità che invece l’avrebbe resa facilmente individuabile. Queste caratteristiche di piccolezza e di neutralità consentono al neutrino di attraversare la materia senza interagire (o quasi) con essa. Si calcola che un neutrino potrebbe viaggiare attraverso un muro esteso da qui alla Proxima Centauri (una stella che si trova a 40 mila miliardi di kilometri da noi) senza mai scontrarsi con il nucleo di un atomo. Ciò sarebbe anche conseguenza del fatto che i neutrini viaggiano alla velocità della luce (ulteriore prova, quest’ultima, dell’assenza di massa perché gli oggetti dotati di massa devono viaggiare necessariamente a velocità inferiori a quella della luce) e sono sensibili solo all’interazione debole la quale, come abbiamo detto, si rende efficace solo a brevissima distanza: in pratica solo quando una di queste particelle dovesse centrare in pieno il nucleo di un atomo. Ora, poiché i neutrini sfrecciano alla velocità della luce, essi rimangono in prossimità dei nuclei atomici solo per tempi in­finitamente brevi (un milionesimo di miliardesimo di miliardesimo di secondo); troppo brevi perché si possano verificare reazioni di sorta.

Ma i neutrini, come vedremo meglio in seguito, si formano in gran numero anche nel Sole in seguito alla fusione atomica dell’idrogeno e quindi dovrebbero arrivare a frotte anche sulla Terra. Come fare per rilevarli? Da più di trent’anni lo stesso fisico americano che li scoprì all’interno dei reattori nucleari, Frederick Reines, è impegnato nella cattura di neutrini provenienti dal Sole.

L’esperimento è iniziato nel 1968 e in dieci anni Reines era riuscito ad osservare già un gran numero di neutrini, ma tuttavia in quantità minore di quella prevista teoricamente. Mancano all’appello circa i due terzi dei neutrini pronosticati. E’ sbagliata la teoria? E’ difettoso l’impianto sperimentale? Forse nulla di tutto ciò.

Alcuni esperimenti condotti una ventina d’anni fa sembrano indicare che esistono tre tipi diversi di neutrini che si trasformano in continuazione l’uno nell’altro. Può essere quindi che gli strumenti per la rilevazione dei neutrini usati per studiare il Sole, siano in grado di captare una sola varietà delle tre entro cui, durante il viaggio verso la Terra, i neutrini si trasformano variando incessantemente da una specie all’altra.

 

LE SORGENTI DELL’ENERGIA STELLARE

Riprendiamo ora il discorso sulla fusione nucleare. Abbiamo visto che se nel centro del Sole, oltre ai protoni, vi fossero anche i neutroni, l’unione di un protone con un neutrone diventerebbe relativamente agevole e si formerebbe anche un nucleo abbastanza stabile, cioè il deutone (il nucleo dell’atomo di deuterio, l’isotopo pesante dell’idrogeno).

Dopo che si è formato il deutone (o nucleo dell’idrogeno-2) – suggerisce Bethe – potrebbe formarsi il nucleo dell’elio attraverso due altre reazioni che coinvolgono protoni. In un primo momento potrebbe aver luogo la produzione di nuclei di elio-3 per fusione di un nucleo di deuterio con un protone, poi questi nuclei, a due a due, potrebbero reagire fra loro formando il nucleo dell’atomo di elio-4, e liberare simultaneamente due protoni.

Il risultato complessivo di questa serie di reazioni, chiamata reazione protone-protone o «catena p-p», è la conversione di quattro protoni (cioè quattro nuclei dell’atomo di idrogeno) in un nucleo di elio. Durante questo processo si libera energia perché vi è una perdita netta di massa, in quanto la massa del nucleo dell’atomo di elio è leggermente inferiore alla massa complessiva dei quattro protoni da cui tale nucleo ha tratto origine.

La perdita di massa, tuttavia, è appena dello 0,7%. Questo vuol dire che l’energia prodotta da quattro protoni che si uniscono in un nucleo di elio è poca cosa, ma è notevole quella che si produce nel Sole dove, in un solo secondo, viene generata l’energia corrispondente all’annichilimento di quattro milioni e mezzo di tonnellate di materia. In altre parole, in ogni secondo, nel Sole, 564,5 milioni di tonnellate di idrogeno si trasformano in 560 milioni di tonnellate di elio, e si perdono pertanto 4,5 milioni di tonnellate di materia (0,7% del totale) che si converte in energia. Ora, a prima vista, la sparizione di 4,5 milioni di tonnellate di materia ogni secondo sembrerebbe una perdita ingente e tale da consumare, in breve tempo, tutta la riserva di idrogeno presente nel Sole, ma la massa del Sole è enorme (2×1030 kg) e dopo 5 miliardi di anni di attività ininterrotta, la perdita di materia, percentualmente, è stata modesta. Per la precisione, il Sole da quando è nato ha perso solo 6,5×1026kg di materia e poiché si calcola che continuerà a produrre energia a questo ritmo e attraverso questo medesimo processo fisico di trasformazione per un tempo altrettanto lungo quanto quello trascorso dalla sua formazione ad oggi, trasformerà in energia altrettanta materia, ma alla fine non avrà perso nemmeno un millesimo della sua massa totale. Sarebbe come se un uomo di 100 kilogrammi, dopo una lunga cura dimagrante, constatasse di avere perso 100 grammi di peso, praticamente niente.

A questo punto, prima di passare oltre, vi è da chiedersi per quale motivo il Sole non si disintegri in un’unica grande esplosione anziché realizzare i processi di fusione gradualmente nell’arco di miliardi di anni. La risposta sta nella vita breve dei neutroni i quali decadono uccisi dalla cosiddetta interazione debole, quella forza che come è stato detto si esercita fra particelle poste a breve distanza. L’interazione debole si manifesta fra due neutroni attraverso lo scambio di particolari corpuscoli detti “particelle W”, scoperti dal fisico goriziano Carlo Rubbia al centro di Ricerca Nucleare di Ginevra. I neutroni, diminuendo di numero, rallenterebbero il processo di fusione e quindi in pratica svolgerebbero la stessa funzione delle “barre di controllo” all’interno dei reattori nucleari.

L’altro meccanismo attraverso il quale l’idrogeno può essere convertito in elio è detto ciclo carbonio-azoto, o «ciclo C-N»; esso è detto anche «ciclo CNO» perché alla reazione in verità partecipa anche l’ossigeno. Prima di parlarne dobbiamo quindi vedere in che modo potrebbe comparire il carbonio e gli altri elementi all’interno del Sole ed eventualmente anche nelle altre stelle.

La teoria prevede che il carbonio potrebbe formarsi, all’interno delle stelle, attraverso reazioni nucleari, ma in alcuni casi questo elemento potrebbe anche essere già presente fin dal momento della nascita della stella. Esistono infatti due tipi fondamentali di stelle che gli astrofisici chiamano rispettivamente stelle di Popolazione I e stelle di Popolazione II. Le prime si sarebbero formate in tempi relativamente recenti utilizzando (almeno in parte) il materiale di quelle stelle che hanno terminato la loro esistenza esplodendo e lanciando nello spazio la materia di cui erano costituite, mentre le seconde si sarebbero formate all’inizio dei tempi, quindi praticamente insieme all’Universo.

Le stelle di Popolazione I, a cui appartiene anche il Sole, contengono, come abbiamo visto, soprattutto idrogeno ed elio, ma anche una discreta quantità di elementi più pesanti (fra cui carbonio e azoto) e sono sistemate alla periferia delle galassie. Le stelle di Popolazione II contengono invece quasi esclusivamente idrogeno ed elio e si trovano addensate al centro delle galassie. Si ritiene quindi che quest’ultimo tipo di stelle si sia formato quando si sono formate le galassie stesse, ossia poco dopo l’origine dell’Universo. Per tale motivo sarebbe stato più logico chiamare stelle di Popolazione I queste ultime, e riservare il nome di stelle di Popolazione II a quelle che effettivamente si sono formate per seconde. Ma i nomi sono stati assegnati quando non si conosceva ancora l’origine di questi due tipi di stelle, e ora non è più possibile cambiarli.

Le stelle di grande massa, come vedremo meglio in seguito, hanno vita breve e terminano la loro esistenza esplodendo come supernovae. Il materiale che queste stelle lanciano tutto intorno si mescola con le nubi di gas presenti negli spazi interstellari e successivamente si condensa sotto la propria attrazione gravitazionale, formando nuove stelle. Queste ultime sono quindi stelle di seconda generazione e contengono una certa percentuale di atomi pesanti che si erano formati nel nucleo delle stelle vissute in precedenza e morte tragicamente in giovane età. Il Sole che come abbiamo detto è una stella di questo tipo, è nato da una nube formata anche dai detriti dell’esplosione di una supernova e contiene quindi atomi pesanti fin dal tempo della sua formazione che è avvenuta quando la Galassia di cui fa parte aveva già un’età di circa 10 miliardi di anni.

Se una stella non contiene carbonio fin dalla sua formazione, questo elemento si dovrebbe formare, nel suo interno, a partire dagli elementi leggeri che sono presenti. Non è facile tuttavia immaginare la nascita di atomi di carbonio all’interno di una stella costituita esclusivamente di idrogeno ed elio. Le reazioni che potrebbero dare l’avvio alla formazione di elementi più pesanti dell’idrogeno e dell’elio sono di due soli tipi, e cioè o la cattura di un protone da parte del nucleo di elio, o la fusione di due nuclei di elio. Nel primo caso si formerebbe il nucleo dell’isotopo 5 del litio, nel secondo caso il nucleo dell’isotopo 8 del berillio. Ora però, né il litio-5, né il berillio-8 sono nuclei stabili. E poiché se non si formano prima questi due nuclei non si possono nemmeno formare quelli successivi, non si riusciva a capire in che modo si sarebbe potuto originare, all’interno di una stella, il nucleo dell’atomo di carbonio, indispensabile per l’avvio delle reazioni del ciclo carbonio-azoto.

Il problema relativo alla formazione del carbonio fu risolto, alla fine, da due oscuri collaboratori di Bethe, E. E. Salpeter ed E. Öpik i quali, prendendo le mosse da un’intuizione del fisico inglese Fred Hoyle, ipotizzarono che quando nel nucleo di una stella si riduceva notevolmente il contenuto in idrogeno presumibilmente, in quella stella, sarebbe terminata anche la reazione p-p. A quel punto, venendo a mancare l’energia necessaria per la spinta verso l’esterno, si sarebbe verificato un crollo del materiale della stella verso l’interno con conseguente aumento della temperatura del nucleo centrale, fino a portarla a 100 milioni di gradi. A causa di questa formidabile implosione, nel nucleo della stella anche la densità sarebbe aumentata enormemente fino a raggiungere valori di almeno mille volte superiori a quelli precedenti, già di per sé elevatissimi. In quelle condizioni estreme, il nucleo di berillio-8, la cui vita è di appena una frazione irrilevante di secondo (10-15 s), avrebbe fatto in tempo, prima di scindersi nuovamente nei due nuclei dell’atomo di elio da cui era derivato, ad unirsi ad un altro nucleo di elio. In altri termini, per l’elevata densità, i nuclei degli atomi di elio nel centro della stella sarebbero molto vicini gli uni agli altri e in quello stato è possibile immaginare uno scontro praticamente simultaneo di tre nuclei di elio-4. Questi, combinandosi, formerebbero il nucleo del carbonio-12.

Una volta formatosi il carbonio-12, esso fungerebbe poi da catalizzatore nucleare di una serie di reazioni che coinvolgono i protoni (appunto quello che abbiamo chiamato il ciclo C-N). Il carbonio-12 potrebbe allora assorbire gradualmente tre protoni trasformandosi prima in azoto-13, poi in azoto-14 e quindi in ossigeno-15, emettendo contemporaneamente due positoni e due neutrini. Successivamente, l’ossigeno dovrebbe assorbire un quarto protone, quindi disintegrarsi espellendo una particella a e ripristinando il carbonio-12 di partenza.

L’effetto del ciclo di reazioni C-N è identico a quello della catena p-p perché in entrambi i casi avviene la conversione di quattro protoni in un nucleo di elio, con una perdita di massa dello 0,7% che si converte integralmente in energia. L’unica differenza rispetto alla prima sta nel fatto che nella reazione C-N serve l’atomo di carbonio come regolatore della reazione.

Ricapitolando, in una stella nel cui centro vi siano solo idrogeno ed elio e la cui temperatura interna non superi di molto i 10 milioni di gradi kelvin, l’energia prodotta dovrebbe derivare interamente dalla catena di reazioni protone-protone. Invece in una stella che contiene nel suo interno anche carbonio, potrebbe instaurarsi, oltre alla catena p-p, pure il ciclo di reazioni carbonio-azoto, purché si raggiungano temperature adeguate. La quantità di energia prodotta da un processo o dall’altro dipende dunque dalla temperatura del nucleo della stella: se la temperatura si alza notevolmente al di sopra dei 10 milioni di gradi, il ciclo di reazioni C-N diventa la principale fonte di energia della stella.

Perciò, per concludere, le stelle che hanno massa molto grande e risplendono di luce bianco-azzurra molto intensa, in quanto sono molto calde (come per esempio Sirio), traggono la loro energia essenzialmente dal ciclo C-N, mentre le stelle più piccole e più fredde (per esempio il nostro Sole) ricavano la loro energia attraverso la catena p-p.

 

IL DIAGRAMMA DI HERTSPRUNG E RUSSEL

     Prima di vedere come sia possibile, con i dati a disposizione, descrivere l’evoluzione delle stelle dal momento della loro nascita a quello della morte, è opportuno accennare brevemente alla scoperta che ha permesso di trattare, in termini scientifici, questo argomento.

L’astronomo americano Henry Norris Russel, proseguendo gli studi intrapresi dal collega danese Ejnar Hertsprung, scoprì, agli inizi del Novecento, che esisteva una relazione molto semplice che legava la luminosità assoluta di una stella al suo colore.

La luminosità assoluta è una grandezza che esprime la reale luminosità di una stella e non quella che appare all’osservazione. In cielo, come è facile verificare, vi sono stelle molto luminose e stelle poco luminose. Questa differenza di luminosità potrebbe dipendere dalla distanza a cui si trova la stella oltre che dall’energia effettivamente liberata. La conoscenza della distanza consente di stabilire la loro luminosità assoluta o intrinseca, cioè la luminosità che deriva unicamente dalla reale produzione di energia.

Il colore di una stella, come già sappiamo, dipende invece dalla temperatura superficiale: le stelle più fredde hanno colore rosso, quelle più calde presentano un colore bianco azzurro. Si è provveduto quindi ad una classificazione delle stelle anche in funzione del colore dividendole secondo il cosiddetto «tipo spettrale», cioè in pratica secondo un colore ben definito. Le classi individuate sono sette e vengono indicate con una lettera maiuscola. Le stelle azzurre, molto calde, vengono indicate con la lettera O, le altre, al calare della temperatura, appartengono alle classi B, A, F, G, K, M. Il Sole appartiene alla classe G.

Riportando sulle ascisse di un piano cartesiano il tipo spettrale delle stelle, ossia la temperatura (in senso decrescente) e sulle ordinate la loro luminosità assoluta (o intrinseca) si poteva notare che quasi tutte le stelle si disponevano su una linea diagonale che partiva in alto a sinistra del piano cartesiano e terminava in basso a destra. Questa linea obliqua venne chiamata «sequenza principale»ed è formata da stelle che si ordinano spontaneamente in quel modo anche in funzione della loro massa. Le più massicce risultano infatti quelle che brillano di luce bianco-azzurra e si trovano, nel diagramma, in alto a sinistra, mentre quelle meno massicce emettono una fioca luce rossa e si trovano in basso a destra.

Non tutte le stelle, però, appartengono alla sequenza principale: ve ne sono alcune che, nonostante la loro temperatura superficiale piuttosto bassa (motivo per il quale appaiono rosse) emettono tuttavia molta luce in quanto hanno un volume enorme e di conseguenza liberano, da una superficie di notevoli dimensioni, molta luce. Queste stelle, dette giganti rosse, nel diagramma colore-luminosità, occupano sì la posizione a destra, ma in alto invece che in basso.

All’interno dello stesso diagramma trovano sistemazione, questa volta in basso a sinistra, anche le nane bianche. Si tratta di stelle che pur emettendo luce bianca e quindi presentando una temperatura superficiale molto elevata, tuttavia, a causa delle loro dimensioni piuttosto ridotte, emettono poca luce.

 

L’ORIGINE DELLE STELLE

La lettura del diagramma di Hertsprung e Russel ci aiuta a delineare l’evoluzione delle stelle, ma per poterlo utilizzare adeguatamente dobbiamo prima vedere come e quando nascono questi astri.

Riguardo all’origine, vi sono ovviamente due sole possibilità: o le stelle si sono formate tutte insieme all’inizio dei tempi, cioè in pratica quando è nato l’Universo, o le stelle si sono potute formare anche successivamente. In quest’ultimo caso esse dovrebbero formarsi anche attualmente e ciò dovrebbe avvenire in quelle parti del cielo in cui c’è materia disponibile per farlo.

Nella nostra galassia esiste molta materia rarefatta che riempie gli enormi spazi interstellari. Questa materia, a volte, appare un po’ più concentrata e si rende visibile o perché viene illuminata da stelle poste nelle sue immediate vicinanze oppure perché impedisce la visione nitida degli astri retrostanti. Questi addensamenti di materia sono abbastanza frequenti, oltre che nella nostra, anche nelle altre galassie, e si ritiene che da essi possano trarre origine le stelle.

Alcune di queste nubi sono di dimensioni enormi e al loro interno contengono, fra le altre, alcune stelle molto grandi e molto luminose che costituirebbero la prova che gli astri si formano proprio a spese del materiale che li racchiude. Sappiamo infatti che le stelle quanto più grandi e luminose sono, tanto più breve è la loro vita perché molto velocemente bruciano il combustibile nucleare di cui dispongono. Da ciò si deduce che le stelle molto grandi, che si osservano all’interno delle nubi di gas, non hanno avuto il tempo di allontanarsi troppo dal luogo in cui sono nate e pertanto queste stelle sa sarebbero dovute formare con il materiale della nube in cui attualmente si trovano.

Sembra quindi verosimile che le stelle, oltre che esistere dall’inizio dei tempi, possano anche originarsi da nubi rarefatte e fredde di gas e polvere che si trovano attualmente all’interno delle galassie: ma in quale modo? Prima di azzardare una risposta è opportuno descrivere brevemente come è nato l’Universo.

Secondo le teorie più accreditate l’Universo sarebbe nato dal nulla, ovvero da quella che viene definita una «fluttuazione quantistica del vuoto» che avrebbe posto in essere un corpuscolo di dimensioni estremamente ridotte (miliardi e miliardi di volte più piccolo di un protone) nel quale però, potenzialmente, era concentrata tutta la materia e tutta l’energia oggi esistente. Può sembrare un’affermazione bizzarra, ma in realtà questa strana origine della materia e dell’energia dal nulla è prevista dalla meccanica quantistica, una teoria che viene utilizzata per spiegare il comportamento piuttosto originale dei corpuscoli di piccole dimensioni, come sono ad esempio gli elettroni e i protoni. Secondo questa teoria il vuoto in assoluto non esisterebbe perché anche là dove non vi fosse nulla di osservabile, potrebbero sempre comparire e scomparire velocemente (senza cioè dare il tempo per una loro registrazione) quelle che vengono chiamate «particelle virtuali», le quali, in determinate condizioni, potrebbero anche concretizzarsi in «particelle reali» (cioè registrabili). Le particelle virtuali appaiono sempre in coppie e subiscono reciproca annichilazione se prima non vengono allontanate per intervento di qualche fatto eccezionale. In tal caso le particelle da virtuali si trasformano in reali.

Secondo la teoria, l’Universo potrebbe quindi essere nato da una particella piccolissima e altamente simmetrica, ossia omogenea in ogni sua parte, prodotta dal cosiddetto «falso vuoto», cioè in una situazione di estrema instabilità. Questa particella effimera e insicura, circa quindici miliardi di anni fa, all’improvviso, ruppe la simmetria che la contraddistingueva e si dilatò a velocità impressionante (molto maggiore di quella della luce) rilasciando tutta l’energia potenziale che stava al suo interno. Questa energia in parte si condensò in particelle elementari e in parte si conservò come tale.

All’inizio, nell’Universo in formazione, le prime particelle reali che comparvero erano quark, elettroni, neutrini e fotoni, ma ben presto i quark si unirono a tre a tre per formare le particelle subatomiche dotate di massa, cioè i nucleoni (protoni e neutroni). Ciò avvenne a seguito dell’espansione e del raffreddamento a cui l’Universo andò incontro immediatamente dopo la nascita.

Mentre l’Universo continuava ad espandersi e a raffreddarsi, i protoni e i neutroni si unirono e formarono i nuclei di idrogeno-2, di elio-3 e di elio-4. Dopo pochi minuti, però, il processo di fusione nucleare si arrestò, perché frattanto le particelle si erano allontanate fra loro in misura tale che gli urti a cui andavano incontro non erano più né frequenti, né efficaci.

Quando l’Universo compì il mezzo milione di anni di vita, si era ormai raffreddato al punto da consentire agli elettroni di sistemarsi definitivamente intorno ai protoni e ai nuclei più complessi. In questo modo si vennero a formare gli atomi di idrogeno, di elio e di pochi altri elementi molto semplici, mentre la radiazione, che in precedenza era rimasta intrappolata all’interno della materia, poté finalmente sfuggire e viaggiare liberamente nello spazio.

Possiamo quindi ipotizzare che quando si formarono i primi atomi, la materia e la radiazione fossero uniformemente e simmetricamente distribuite nello spazio, come è attestato, fra l’altro, dall’alto grado di uniformità della radiazione cosmica fossile. Si tratta della notissima radiazione di fondo a 3 K (2,74 K, per la precisione), una radiazione omogenea ed isotropa in quanto proveniente da tutte le direzioni con la stessa intensità che rappresenta il residuo freddo del lampo iniziale che dette inizio all’Universo.

Il gas primordiale, uniformemente distribuito nello spazio, divenne però instabile quando la spinta prodotta dal big bang iniziale si attenuò e prese il sopravvento l’attrazione gravitazionale. A quel punto si produssero delle piccole fluttuazioni che avrebbero poi innescato quei processi di frazionamento e di addensamento di grandi ammassi di gas che avrebbero originato le galassie. All’intero di queste prime galassie, o protogalassie, attraverso un fenomeno entro certi limiti a­nalogo a quello che dette loro origine, si sarebbero formate successi­vamente le stelle (o, meglio, le protostelle).

A differenza delle protogalassie, in cui il moto rotazionale intorno al centro di massa controbilancia la forza gravitazionale per mezzo della forza centrifuga, le protostelle non possono mai raggiungere uno stato di equilibrio perfetto perché nel loro caso il lento moto rotazionale non è in grado di contrastare l’attrazione gravitazionale che costringe la massa gassosa a contrarsi sempre più. L’energia gravitazionale, a mano a mano che la stella si contrae, si trasforma infatti per metà in energia termica e per l’altra metà in energia elettromagnetica, che viene irraggiata verso l’esterno. Con il passare del tempo, la temperatura della massa stellare va quindi aumentando e con essa aumenta la pressione verso l’esterno la quale, quando raggiunge un valore tale da contrastare quella prodotta dal campo gravitazionale, determina l’equilibrio provvisorio della massa stellare: la protostella, a quel punto, è diventata stella.

Naturalmente anche questo equilibrio è precario perché la stella frattanto continua ad irradiare e di conseguenza a raffreddarsi. Con il calo della temperatura si abbassa naturalmente anche la pressione che dall’interno dovrebbe contrastare la forza gravitazionale. Questo abbassamento della pressione interna produce un’ulteriore contrazione della materia nel centro della stella con il conseguente aumento della sua temperatura. Fino all’inizio del secolo appena concluso, come abbiamo visto, si pensava che proprio la contrazione gravitazionale potesse dar conto dell’energia persa dal Sole per irraggiamento, ma poi si è capito che ciò non poteva essere vero.

La formazione delle prime stelle iniziò, verosimilmente, al centro delle protogalassie dove la condensazione di nuvole di gas doveva essere maggiore che altrove. Fra le prime stelle che si formarono ve ne erano sicuramente alcune molto grandi. Ora, come abbiamo visto in precedenza, le stelle molto grandi hanno una vita piuttosto breve che si conclude con un’esplosione. L’onda d’urto provocata da questa esplosione, produsse, a sua volta, condensazioni di materia tutt’intorno, e quindi l’innesco per la formazione di nuove stelle. La grandissima maggioranza delle stelle (stelle di Popolazione II) ha avuto quindi origine al centro delle galassie ed è stata provocata da onde d’urto provenienti da supernovae. Polveri e gas sono invece rimasti in abbondanza alla periferia delle galassie stesse dove ancor oggi vi è materiale sufficiente per la formazione di nuove stel­le, le stelle di Popolazione I.

  

L’EVOLUZIONE DELLE STELLE

All’inizio la densità di una protostella è molto bassa e così pure la sua temperatura ma, con il progredire del collasso, il nucleo centrale diviene sempre più denso e sempre più caldo. In questa prima fase della sua esistenza, l’astro in formazione sta vivendo ancora a spese dell’energia gravitazionale, ma ben presto, al centro, si raggiungeranno le temperature necessarie all’innesco delle reazioni nucleari. Quando ciò avverrà la nuova stella sarà entrata in possesso di una propria fonte di energia in grado non solo di opporsi alla gravità che tenderebbe a schiacciarla sempre più, ma anche adeguata a reintegrare le perdite dovute all’irraggiamento. L’astro apparirà allora con le caratteristiche tipiche delle stelle della sequenza principale del diagramma di Hertsprung e Russel e in questa condizione rimarrà per il tempo più lungo della sua esistenza.

Il tempo che una protostella impiega per raggiungere il suo assetto stabile dipende dalle dimensioni iniziali. Se la nube iniziale è molto grande questa si contrarrà rapidamente perché notevole sarà la forza di gravità che agisce su di essa e, una volta raggiunta la forma stabile, diventerà una stella bianca o azzurra di grosse dimensioni. Se invece la nube iniziale è di dimensioni più modeste, la stella diventerà una gialla o una rossa della grandezza del nostro Sole o anche meno.

Il nostro Sole (e le stelle simili ad esso), nel primo periodo della sua vita, durato circa 15 milioni di anni, sarebbe passato attraverso una fase detta T-Tauri, dal nome di una stella che è stata osservata per la prima volta nella costellazione del Toro. Durante la fase di T-Tauri, la nube di gas e polvere destinata a diventare stella, perde gran parte della sua materia che si disperde nello spazio attraverso quello che viene chiamato «vento stellare». Si tratta di particelle (in gran parte nuclei di atomi leggeri ed elettroni) che vengono espulse dalla stella e proiettate nello spazio a grande velocità. Gli astronomi ritengono che in questo momento della sua esistenza, intorno al nostro Sole, si sarebbero venuti a formare i pianeti. Ora, poiché molte stelle si trovano attualmente nella fase di T-Tauri, si desume che intorno ad esse potrebbero originarsi sciami di pianeti e satelliti simili a quelli che ruotano intorno al nostro Sole.

Il Sole, come abbiamo detto, possiede le caratteristiche che osserviamo attualmente da circa 5 miliardi di anni e con le medesime rimarrà per altri 5 miliardi di anni, mentre le stelle di dimensioni maggiori si estingueranno molto presto perché consumeranno velocemente le riserve di combustibile. Sappiamo infatti che quanto più grandi sono le dimensioni di una stella tanto maggiore sarà ovviamente la materia da cui essa trae energia, ma tanto più estesa sarà anche la superficie da cui fuoriescono le radiazioni. Ora si calcola che ad esempio una stella tre volte più massiccia del Sole emette circa cinquanta volte più luce e quindi brucia cinquanta volte più combustibile. Una stella tre volte più massiccia del Sole consumerà quindi le sue scorte di combustibile in un tempo che sarà 3/50 di quello impiegato dal Sole per bruciare le proprie. Si è trovato, ad esempio, che per una stella molto splendente come Sirio la permanenza sulla sequenza principale del diagramma H-R (in posizione comunque più alta rispetto a quella occupata dal Sole), non sarà di molto superiore ai cento milioni di anni.

Le stelle di massa più piccola del Sole consumeranno invece lentamente il loro combustibile nucleare, non raggiungeranno mai temperature molto elevate e stazioneranno nella sequenza principale (in posizione inferiore rispetto al Sole) per tempi molto lunghi.

Quindi, a seconda della grandezza della nebulosa da cui hanno tratto origine, le stelle, dopo aver raggiunto la forma stabile, si sistemeranno sulla sequenza principale in posizione diversa in relazione alla loro massa, e vi rimarranno per tempi più o meno lunghi.

Quando gran parte dell’idrogeno presente nel centro di una stella delle dimensioni all’incirca del nostro Sole si sarà esaurito, la reazione p-p avrà termine e la stella imploderà generando al suo interno temperature molto alte, che consentiranno l’innesco del ciclo di reazioni C-N. Queste reazioni sono molto più energetiche delle p-p e di conseguenza la spinta verso l’esterno diventerà decisamente predominante sulla gravità. La stella allora non sarà più in equilibrio e si espan­derà velocemente divenendo una gigante rossa. A quel punto la nostra stella abbandonerà la sequenza principale e si dirigerà nuovamente verso la zona del diagramma da cui era venuta, cioè in alto a destra.

La stella ora, nonostante abbia una temperatura più bassa, emetterà più calore di prima perché sarà diventata molto grande la superficie da cui esce la radiazione. Il nostro Sole, come abbiamo detto, passerà per questa fase fra circa 5 miliardi di anni. Allora le sue dimensioni diverranno tali da inglobare Mercurio e Venere mentre la Terra, che si verrà a trovare in prossimità della sua superficie, si incendierà come un fiammifero. Se la nostra civiltà non si sarà estinta prima (cosa peraltro molto probabile), in quell’occasione finirà sicuramente ogni possibilità di sopravvivenza dell’uomo e di ogni altro essere vivente.

Una volta raggiunto il massimo dell’espansione, il nostro Sole inizierà nuovamente a contrarsi fino a portarsi un’altra volta sulla sequenza principale, ma in una posizione più alta rispetto a quella occupata in precedenza. In quella posizione, tuttavia, rimarrà per un tempo molto breve in quanto ora la spinta dall’interno non sarà più sufficiente a controbilanciare con efficacia la forza gravitativa che tende a farlo collassare. In seguito al collasso la temperatura nel centro in un primo momento aumenterà, ma poi, dissipato il calore verso l’esterno, diminuirà nuovamente per aumentare un’altra volta in conseguenza di una successiva contrazione e così di seguito per varie volte in un susseguirsi ritmico di variazioni di volume e di luminosità. In altri termini, il nostro Sole diverrà una «variabile». La maggior parte delle stelle variabili che si osserva attualmente in cielo (per esempio le notissime Cefeidi) si trova sistemata proprio nella zona del diagramma colore-luminosità nella quale dovrebbe andarsi a piazzare il Sole fra qualche miliardo di anni.

Durante questa fase di contrazione e dilatazione ciclica, gli strati più esterni della stella potrebbero staccarsi e formare intorno ad essa aloni simili ad anelli di fumo. Queste stelle effettivamente esistono e vengono chiamate «nebulose planetarie», perché, all’osservazione con i telescopi antiquati di un secolo fa, apparivano come dischetti simili a pianeti (con i quali tuttavia, è bene dirlo esplicitamente, non hanno nulla a che fare).

A questo punto della sua evoluzione, una stella come il nostro Sole o anche di dimensioni un po’ maggiori, inizia le ultime fasi della sua esistenza. Essa ha ormai quasi esaurito la scorta di carburante atomico e quindi si contrae rapidamente diventando molto densa e molto calda: si forma cioè quella che viene definita una «nana bianca», una stella destinata a spegnersi lentamente. Una nana bianca infatti, non avendo più nulla da “bruciare” molto lentamente si raffredda e da bianca diviene prima gialla, poi bruna ed infine nera. Così finirà il nostro Sole e così finiranno le stelle che gli assomigliano: un corpo piccolo e nero. I tempi necessari per lo spegnimento di una nana bianca tuttavia sono molto lunghi tanto che si ritiene probabile che nelle galassie non si sia ancora formata alcuna «nana nera».

Non sempre però la stella si arrende così facilmente al suo destino. Può capitare, ad esempio, che durante il collasso la nana bianca raccolga materia da una stella vicina (le nane bianche fanno spesso parte di sistemi binari) e che questa materia, costituita soprattutto da idrogeno (gas che è sempre presente sulla parte superficiale di una stella anche quando si è esaurito al suo interno), raggiunta la nana bianca, venga compressa dall’intensa forza di gravità che la piccola stella produce e quindi riscaldata. Il riscaldamento del gas catturato potrebbe continuare fino al punto di raggiungere le temperature suffi­cienti per avviare la reazione p-p. In seguito all’energia sviluppata da questa reazione, la stella produrrebbe un enorme lampo di luce e un’esplosione tale da spingere lontano parte dell’involucro superficiale. Questo è il fenomeno che da Terra viene interpretato come una nova.

Dopo un po’ di tempo, nuova materia verrà attratta dalla piccola stella e l’evento si ripeterà: si parla allora di «nove ricorrenti». A causa di queste esplosioni a ripetizione la stella, alla fine, avrà espulso gran parte della sua materia e si sarà ridotta alle dimensioni di una nana bianca non più grande della nostra Luna.

Il Sole non ha le caratteristiche che abbiamo illustrato sopra (esso fra l’altro non fa nemmeno parte di un sistema binario) e quindi dopo che sarà collassato in una nana bianca finirà la sua esistenza in solitudine trasformandosi lentamente in un blocco di materia molto denso e privo di luce, cioè direttamente in una fredda nana nera.

Le stelle molto grandi e quindi molto luminose hanno un’evoluzione diversa da quella appena descritta. Si è osservato che quando una stella ha una massa di 1,4 volte quella del Sole, o maggiore, va incontro ad una fine drammatica e altamente spettacolare. Invece che espellere gradualmente il suo involucro esterno, attraverso esplosioni successive, una stella di grandi dimensioni lo fa in un’unica soluzione per mezzo di una esplosione gigantesca che lancia nello spazio gran parte della materia di cui è fatta: si forma cioè una «supernova». Queste stelle lanciano negli spazi cosmici gli elementi più pesanti dell’elio che si erano nel frattempo accumulati al loro interno e di cui ora esamineremo la genesi.

 

LA FORMAZIONE DEGLI ELEMENTI PESANTI

Abbiamo visto che poco dopo la nascita dell’Universo si formarono i primi nuclei degli atomi più semplici con l’aggregazione di protoni e di neutroni che a loro volta si erano formati assemblando i quark che il big bang aveva prodotto.

I fisici hanno calcolato che quando l’Universo raggiunse l’età di una decina di minuti il 25% della materia presente in esso era costituita di nuclei di elio-4, mentre il rimanente 75% era formato da protoni. In realtà erano presenti anche altre particelle, ma in quantità irrilevante: vi era qualche nucleo di deuterio, qualche nucleo di elio-3 e frazioni insignificanti di nuclei di litio-7.

Dopo la formazione dei nuclei degli elementi più semplici, la temperatura dell’Universo in espansione continuava ad abbassarsi raggiungendo ben presto valori ai quali non vi era più speranza alcuna che potesse formarsi qualche altro nucleo atomico. Quando finalmente l’Universo raggiunse l’età di circa mezzo milione di anni e la temperatura era scesa a circa 3.000 K i nuclei cominciarono a catturare gli elettroni e si formarono i primi atomi stabili. In pratica solo idrogeno ed elio.

Oggi nell’Universo, oltre all’idrogeno e all’elio, che tuttora rappresentano la parte maggiore della materia presente, vi sono tuttavia anche altri elementi (basta guardarsi intorno per convincersi). Sappiamo già che questi si sono formati all’interno delle stelle dove esistono temperature elevatissime paragonabili a quelle che caratterizzavano l’Universo primitivo. Vediamo in dettaglio come potrebbe essere avvenuta la loro formazione.

Quando nel centro di una stella termina la reazione p-p, i nuclei degli atomi di elio che nel frattempo sono diventati molto abbondanti, possono scontrarsi, a tre a tre, e formare il nucleo dell’atomo di carbonio. Questo elemento è indispensabile, come abbiamo visto, per l’innesco della reazione C-N, ma a partire da esso si possono formare anche altri nuclei atomici. Se, ad esempio, ad un nucleo dell’atomo di carbonio si unisce il nucleo dell’atomo di elio, si forma il nucleo dell’atomo di ossigeno. In simboli questa reazione si potrebbe rappresentare nel modo seguente: C-12 + He-4 = O-16. Successivamente l’ossigeno-16 potrebbe reagire con un altro nucleo di elio e formare neon-20; questo, a sua volta, potrebbe catturare ancora un altro nucleo di elio e formare magnesio-24, e così via verso la formazione di elementi sempre più pesanti.

Inoltre, nella zona di confine fra il nocciolo della stella dove lentamente si è andato esaurendo l’idrogeno e la parte più esterna che contiene ancora un po’ di questo elemento, potrebbero verificarsi reazioni di cattura di protoni da parte degli isotopi pesanti, che in precedenza si erano formati nel nucleo della stella. Per esempio, l’ossigeno-16 potrebbe catturare un protone e formare fluoro-17 il quale a sua volta, per emissione di un positone, potrebbe trasformarsi nell’iso­topo più pesante dell’ossigeno, l’ossigeno-17 (che ha un neutrone in più e un protone in meno del fluoro-17). In questo modo si formerebbero molti isotopi nucleari: per esempio, il sodio-21 dal neon-20, l’alluminio-25 dal magnesio-24 e così via.

Affinché possano innescarsi reazioni nucleari fra nuclei di elementi pesanti e nuclei di elio e di idrogeno, è necessario che si realizzino temperature elevatissime. Queste reazioni infatti sono impedite dalla repulsione coulombiana in quanto si tratta di far penetrare, in strutture cariche positivamente (i nuclei degli elementi pesanti), altre strutture cariche anch’esse positivamente (i nuclei degli atomi di elio e i protoni). Con il crescere del numero atomico, diventa sempre più difficile costringere un protone o un nucleo dell’atomo di elio a penetrare fra i molti protoni e neutroni dei nuclei degli atomi pesanti per formarne altri più pesanti ancora.

Però, se sono difficili le reazioni con frammenti di materia con carica positiva, come abbiamo visto, dovrebbero essere più facili le reazioni con neutroni che sono particelle senza carica elettrica. I neutroni vengono prodotti all’interno delle stelle nei modi più svariati. Per esempio, quando un nucleo di carbonio-13 assorbe un nucleo di elio, si forma il nucleo dell’ossigeno-16 e contemporaneamente si libera un neutrone. I neutroni, come si ricorderà, si potrebbero formare anche per la fuoriuscita di un positone da un protone.

Il neutrone, dopo essere stato catturato dal nucleo di un elemento pesante, potrebbe liberarsi di un elettrone e trasformarsi in protone. Il nucleo del nuovo atomo verrebbe allora a trovarsi con un protone in più e un neutrone in meno e quindi sarebbe tramutato in uno degli isotopi dell’elemento a numero atomico maggiore. Tutte queste reazioni avverrebbero all’interno delle giganti rosse, ma ad un certo punto anche esse si interromperebbero. L’arresto si verificherebbe quando la stella si venisse a trovare nella condizione di produrre il ferro.

Fino al momento della produzione del ferro, tutte le reazioni nucleari attraverso le quali sono stati prodotti i nuclei degli elementi pesanti, partendo da quelli più leggeri, erano reazioni esotermiche cioè reazioni che si svolgevano spontaneamente con liberazione di calore. Ora, però, accade che i nuclei degli atomi del ferro (e degli elementi ad esso vicini nella Tabella di Mendeleev) sono molto stabili e quindi non hanno alcuna tendenza a legare a sé altre particelle subatomiche, né a rompersi in frammenti più piccoli: in pratica, non hanno alcuna tendenza a reagire spontaneamente. Pertanto la trasformazione di atomi di ferro sia in atomi più pesanti, sia in atomi più leggeri, invece che produrre, richiede energia. La conseguenza di tutto ciò è che la produzione di energia termonucleare, all’interno di una stella, si arresta quando nella stella stessa compare il ferro.

In quel momento non si possono più innescare reazioni che producano energia e quindi non vi è più nulla in grado di opporsi alla forza di gravità che spinge i materiali verso il centro della stella. Avviene pertanto il collasso della stella stessa; la materia si comprime enormemente e la temperatura riprende a salire raggiungendo valori incredibilmente alti. In queste condizioni i nuclei di ferro letteralmente si sbriciolano liberando particelle , protoni e neutroni che potrebbero anche dar vita a nuove reazioni nucleari se non fosse che so­no stati generati attraverso una reazione endotermica, cioè una reazione che ha prodotto a sua volta il raffreddamento brusco del nocciolo della stella stessa.

La stella quindi collassa velocemente creando, al centro, valori di densità tali da provocare la penetrazione degli elettroni nei protoni con formazione di neutroni. In questo modo, mentre il nucleo della stella si riempie di neutroni, le parti più esterne si riscaldano fino a raggiungere temperature di molti milioni di gradi. Nella zona che circonda il nucleo centrale della stella, vi sono ancora elementi in grado di produrre reazioni nucleari che liberano energia. Queste reazioni, per l’elevarsi improvviso della temperatura, si attivano in tempi brevissimi generando una quantità enorme di calore che la stella non è più in grado di dissipare gradualmente attraverso la sua superficie. Questa allora, da reattore nucleare che produce energia controllata, diventa improvvisamente una vera e propria bomba atomica di dimensioni gigantesche e l’enorme quantità di energia che si libera istantaneamente, provoca la sua esplosione catastrofica. La stella diventa così una supernova.

Durante la fase esplosiva si producono neutroni un po’ dovunque e in quantità elevatissima. La presenza di un gran numero di neutroni consente il formarsi, in breve tempo, di elementi pesanti attraverso il processo di cattura degli stessi. Il processo di cattura dei neutroni che si realizza nel momento dell’esplosione di una supernova, è detto «processo  (o rapido) e porta alla formazione di nuclei eccessivamente ricchi di neutroni e quindi instabili. Questi nuclei però, in seguito ad emissione elettronica, trasformano parte dei neutroni in protoni creando strutture stabili. In tal modo avrebbero origine gli elementi con elevato numero atomico, compresi quelli radioattivi più pesanti dell’uranio.

Al processo di cattura neutronica r si contrappone quello detto s (dalla parola inglese slow che vuol dire lento). Si tratta di un processo di cattura neutronica che avviene in tempi molto lunghi e quindi in situazioni di stabilità della stella. In questo caso, una volta catturato un neutrone, il nucleo, prima di catturarne un secondo, ha tutto il tempo di assestarsi trasformando alcuni neutroni in protoni attraverso l’emissione di elettroni, oppure anche di particelle .

 

LE NANE BIANCHE 

La storia delle nane bianche inizia nel 1844 quando l’astronomo tedesco Friedrich Wilhelm Bessel, dall’Osservatorio di Königsberg (una città che a quel tempo si trovava in Prussia ma che oggi fa parte della Lituania con il nome di Kaliningrad) scoprì che Sirio, la stella più luminosa del cielo, era dotata di un moto proprio.

Bessel per primo determinò la distanza di una stella attraverso la stima della sua parallasse e successivamente si applicò a misurare quella di Sirio osservando gli spostamenti di quest’astro rispetto allo sfondo delle stelle lontane. Raccogliendo i dati egli notò però che Sirio si muoveva in cielo seguendo un percorso lievemente oscillante che mal si conciliava con lo spostamento dovuto all’effetto di parallasse, il quale avrebbe dovuto invece essere lineare. Sirio doveva quindi essere dotata non solo di un moto proprio, ma avere anche vicino una stella che rendeva questo moto leggermente sinuoso.

Tutte le stelle hanno un moto proprio che però appare molto piccolo a causa della loro grande distanza. La stessa cosa accade per un aereo che quando vola molto alto in cielo sembra lento, mentre quando è vicino al suolo lo vediamo muoversi molto velocemente.

L’idea di Bessel che Sirio avesse una compagna era plausibile anche perché, proprio in quegli anni, si era scoperto che solo raramente le stelle sono corpi isolati (come ad esempio il nostro Sole), mentre, molto più di frequente, si tratta di sistemi binari o anche multipli legati fra loro gravitazionalmente. Bessel, in base all’ampiezza delle oscillazioni, calcolò anche che la compagna di Sirio avrebbe dovuto avere una massa ragguardevole, circa la metà di quella della stella principale la quale a sua volta è grande quanto il doppio del Sole. Non essendo però riuscito a vederla, concluse che la compagna di Sirio, se esisteva, doveva essere una stella oscura.

Diciotto anni più tardi, nel 1862, un ottico di nome Alvan Clark, mentre metteva alla prova un nuovo telescopio di sua costruzione, notò, vicino a Sirio, un piccolissimo puntino luminoso che poi si scoprì essere proprio quella «compagna oscura» che Bessel aveva cercato invano. Si trattava in effetti di una stella di magnitudo 11,2, quindi non proprio oscura, tuttavia di luce fioca, cento volte più debole della più debole delle stelle visibili ad occhio nudo. Quella stellina venne battezzata Sirio B, ma qualcuno la soprannominò Cucciolo perché a volte Sirio veniva chiamata Stella-cane (Dog-star), essendo la stella più luminosa della costellazione del Cane Maggiore.

Ora però, poiché la stella appena individuata emetteva poca luce, mentre la sua massa doveva essere molto grande (altrimenti non avrebbe potuto spostare una stella massiccia come Sirio dalla sua traiettoria rettilinea), si era pensato, in un primo momento, potesse trattarsi di una stella rossa a bassa temperatura. Nel 1915, però, l’astronomo americano Walter Sydney Adams, analizzando lo spettro di questo flebile corpo celeste, si accorse che la sua temperatura superficiale doveva essere altissima, almeno quanto quella di Sirio A e quindi doveva emettere luce bianca e non rossa. La nuova scoperta pose allora un interrogativo: se Sirio B è un corpo tanto caldo al punto da emettere luce bianca, per quale motivo è così poco luminoso?

L’unica spiegazione plausibile era che Sirio B fosse di dimensioni molto ridotte. Se un oggetto è molto caldo, ma contemporaneamente ha una superficie molto limitata, esso emette ovviamente poca luce e infatti oggi sappiamo che Sirio B è una stella molto particolare: è un po’ più piccola della Terra, ma ha una massa leggermente più grande di quella del Sole. La sua densità media è vicina a 35.000 g/cm³, quindi essa è migliaia di volte superiore a quella della Terra che è di 5,52 g/cm³ e una pallina da ping-pong, riempita con quel materiale, peserebbe 10 quintali. Naturalmente Sirio B come qualsiasi corpo celeste non ha una struttura omogenea e infatti a mano a mano che si procede verso l’interno la densità aumenta a causa del carico sovrastante. La stessa cosa succede per il nostro pianeta che al centro ha una densità ben maggiore di quella delle rocce superficiali. Nella regione centrale il materiale che compone Sirio B raggiunge il valore di 100.000.000 g/cm³ e una pallina da ping-pong riempita di quel materiale peserebbe più di 3.000 tonnellate.

Successivamente furono osservate in cielo numerose stelle del tipo di Sirio B, tutte molto vicine a noi. A queste stelle fu assegnato il nome di «nane bianche» e si è calcolato che nella nostra Galassia ve ne dovrebbero essere svariati miliardi, impossibili tuttavia da osservare direttamente al telescopio date le loro enormi distanze e le esigue dimensioni.

Con la scoperta delle nane bianche ci si trovava di fronte al problema di stabilire di che materiale fossero fatte in quanto non si conosceva, a quel tempo, alcuna sostanza dotata di una così elevata densità. L’enigma venne risolto dal fisico indiano Subrahamanyan Chandrasekhar nel 1930, all’indomani della formulazione della teoria della meccanica quantistica.

A quel tempo già si sapeva che gli atomi sono fondamentalmente degli edifici vuoti in quanto le particelle che li costituiscono (nuclei ed elettroni) sono piccolissime rispetto alle loro dimensioni globali. Il diametro del nucleo di un atomo si aggira intorno a 10-13 cm, mentre quello di un atomo intero è circa 10-8 cm. Un atomo è quindi circa 100.000 volte più grande del suo nucleo. Per farsi un’idea delle dimensioni dell’atomo possiamo immaginare di ingrandirne uno fino a farlo diventare quanto una palestra da cinque o sei mila spettatori: il nucleo di quell’atomo non sarebbe più grande di un grano di pepe e ce ne vorrebbero 100.000 di queste minuscole sferette, collocate l’una a fianco all’altra, per attraversare per lungo la palestra. Ci vorrebbero anche un milione di miliardi (1015) di esse per riempire l’ambiente.

Era quindi ragionevole immaginare che questi atomi, all’interno di stelle molto piccole ma molto massicce, sottoposti a pressioni enormi, potessero venire frantumati e schiacciati fino a ridurre notevolmente gli spazi fra i nuclei centrali e gli elettroni periferici. La materia, ridotta in queste condizioni, viene chiamata «degenerata» e la possiamo immaginare come formata da palline di ping-pong schiacciate e a diretto contatto. Lo schiacciamento degli atomi, tuttavia, non avrebbe potuto procedere fino al punto da consentire alle particelle subatomiche di accalcarsi le une sulle altre, perché ciò gli sarebbe stato impedito da un singolare comportamento degli elettroni i quali, entrati in contatto fra loro, oppongono resistenza ad una ulteriore compressione. Si tratta di un comportamento della materia scoperto nel 1925 dal fisico austriaco Wolfang Pauli.

Esso prende il nome di «principio di esclusione» e riguarda le particelle subatomiche (come ad esempio gli elettroni) dotate di una particolare proprietà interna detta «spin». Queste particelle non possono trovarsi tutte insieme in una medesima regione dello spazio, e quindi, in pratica, non possono avvicinarsi oltre un certo limite, perché esiste una forza (che non deve essere confusa con quella elettrica di repulsione) che glielo impedisce. In virtù di questa forza (detta «pressione di Fermi») le nuvole elettroniche che orbitano nelle regioni più esterne degli atomi, se la pressione a cui sono sottoposti è intensa, ma non esageratamente elevata, si avvicinano ai nuclei ma senza collassare definitivamente su di essi. Chandrasekhar calcolò che se la massa di una stella non è troppo grande (per la precisione inferiore a 1,4 masse solari, massa che viene detta «limite di Chandrasekhar») il definitivo collasso gravitativo su sé stessa non avrebbe luogo in quanto sarebbe impedito dalla pressione di Fermi e la stella raggiungerebbe una situazione di equilibrio con i nuclei atomici molto vicini fra loro ma non a diretto contatto. In queste condizioni la materia si troverebbe con i nuclei atomici in grado di potersi muovere liberamente quasi si trattasse delle molecole di un gas: questo stato della materia infatti viene anche detto «gas degenere».

Abbiamo quindi visto che anche nel caso di una densità enorme come quella presente all’interno di una nana bianca i nuclei degli atomi sono tuttavia ancora sufficientemente separati gli uni dagli altri. Ma è possibile comprimere ulteriormente la materia? Se i nuclei e gli elettroni venissero a stretto contatto, tanto da penetrare gli uni negli altri, la densità della materia diverrebbe quasi quanto quella dei nuclei atomici. Una pallina di ping-pong riempita di questa materia peserebbe non 3000 tonnellate come quella piena della materia che si trova al centro delle nane bianche, ma più di 30 miliardi di tonnellate e non ci sarebbe al mondo alcun mezzo in grado di sollevarla e trasportarla. Esistono stelle la cui densità raggiunge quella dei nuclei atomici?

 

LE PULSAR: STELLE DI NEUTRONI

Nel 1844 l’astronomo britannico William Parsons, conte di Rosse, si mise ad ispezionare il cielo nella posizione in cui gli astronomi orientali avevano detto di aver avvistato la supernova nel 1054. In quella zona egli osservò una nebbiolina diffusa che chiamò «Nebulosa del Granchio» (Crab Nebula in lingua inglese) per il suo aspetto, con due protuberanze simili a chele, che ricordava il noto crostaceo.

Successivamente, nel 1920, il famoso astrofisico americano Edwin Hubble, utilizzando il più potente telescopio allora esistente, quello installato sul Monte Wilson in California, scattò una serie di straordinarie fotografie della Crab Nebula in cui si poteva vedere che si trattava di una massa turbolenta di gas (la quale sembrava il prodotto di una tremenda esplosione) e, al centro, una stellina molto debole.

Confrontando queste fotografie con quelle scattate in passato, Hubble notò che le attuali dimensioni della nebulosa erano leggermente maggiori di quelle precedenti. Era evidente che la Nebulosa del Granchio si era espansa e forse il fenomeno era tuttora in atto. Fu infatti possibile misurare la velocità di questa espansione e quindi risalire al tempo in cui la stessa ebbe inizio. I calcoli portarono a stabilire che l’inizio del fenomeno doveva essere avvenuto circa 900 anni prima, cioè proprio intorno alla data in cui nella costellazione del Toro apparve quella stella luminosissima che i cinesi chiamarono «Stella ospite». A quel punto non vi erano più dubbi: la Nebulosa del Granchio non era altro che il residuo gassoso della supernova del 1054.

Per quanto riguarda la stellina centrale, non poteva che trattarsi del residuo della stella originaria esplosa come supernova e in un primo momento si pensò ad una nana bianca, ma poi, in seguito ad una serie di osservazioni e di argomentazioni teoriche, si dovette cambiare idea. Le osservazioni portarono a concludere che la stellina sistemata al centro della Nebulosa del Granchio doveva essere un corpo caldissimo perché emetteva radiazioni di lunghezza d’onda molto breve, quindi ricche di energia, come raggi X e raggi gamma. Questo stesso tipo di radiazione esce anche dai sincrotroni, le apparecchiature di grandi dimensioni utilizzate dai fisici per accelerare, all’interno di forti campi magnetici, le particelle subatomiche cariche di elettricità. Le radia­zioni emesse dalla stellina centrale della Crab Nebula furono chiamate «radiazioni di sincrotrone» e avrebbero potuto essere originate da elettroni ad alta velocità costretti a muoversi all’interno di un campo magnetico molto intenso.

In seguito a questa scoperta ci si convinse che anche le altre supernovae avrebbero dovuto lasciare residui del tipo di quello scoperto nella Nebulosa del Granchio. Si andò quindi alla ricerca di nebulose in zone del cielo in cui erano apparse le supernovae negli ultimi 1.000 anni. In effetti, da tutte queste nebulose, ma pure da altre, presumibilmente corrispondenti a supernovae esplose in tempi molto antichi, provenivano delle radiazioni molto intense del tipo di quelle scoperte nel­la Nebulosa del Granchio, però senza l’evidenza di una stellina centrale.

Il dubbio che la stellina di dimensioni estremamente ridotte ma in grado di produrre enormi quantità di energia non fosse una nana bianca, venne al noto astronomo indiano-americano Subrahamanyan Chandrasekhar, intorno agli anni Trenta. Egli fece notare che le nane bianche che si era riusciti ad osservare e studiare avevano tutte una massa inferiore a 1,4 masse solari. Queste stelle, nonostante la fortissima forza gravitazionale che la loro stessa massa produce, non riescono tuttavia a contrarsi oltre un certo limite perché gli elettroni che si muovono disordinatamente al loro interno glielo impediscono. Ma che cosa sarebbe successo se la massa del residuo stellare in contrazione fosse stata superiore al limite di 1,4 masse solari? Chandrasekhar pensò che se gli elettroni di carica negativa, invece che vagare liberi, si infilassero nei protoni di carica positiva, si otterrebbero delle particelle neutre (i neutroni) che sotto l’effetto della gravità si dovrebbero ammassare per formare una sfera molto più densa di quella rappresentata dalla nana bianca. Queste ipotetiche stelle superdense vennero chiamate «stelle di neutroni» e si pensò che proprio questo tipo di corpi celesti avrebbero potuto rappresentare il residuo dell’esplosione di una supernova. Per farsi un’idea della densità incredibile che regna all’interno di una stella di neutroni si tenga presente che se la Terra venisse compressa fino a convertire tutta la sua materia in neutroni ammassati gli uni sugli altri, essa assumerebbe le dimensioni di una sfera che potrebbe trovare comodamente sistemazione all’interno di uno stadio.

Il Sole e tanto meno la Terra non potrebbero mai trasformarsi in corpi di neutroni. Chandrasekhar calcolò che un astro, per poter evolvere verso una stella di neutroni, avrebbe dovuto essere grande almeno una volta e mezzo il Sole (per la precisione più di 1,4 volte la sua massa). Ma una stella di neutroni è solo il residuo di un corpo celeste molto più grande che ha dato origine ad una supernova. Una supernova doveva quindi essere all’origine una stella tanto grande che, nonostante la perdita durante la fase esplosiva di gran parte della sua massa, ne possedeva ancora a sufficienza così da superare abbondantemente quella del Sole. Ora, stelle tanto massicce sono piuttosto rare, ma si calcolò che se anche ve ne fosse stata solo una su cento, dato il numero complessivo molto alto, le stelle pesanti si dovrebbero contare a milioni anche solo all’interno della nostra Galassia.

Sorse allora il sospetto che al centro della nebulosa del Granchio e di molte altre nebulose, residuo anch’esse di esplosioni di supernovae, vi dovesse essere una stella di neutroni e non una nana bianca come si era sempre ritenuto. Le stelle di neutroni dovrebbero essere corpi celesti estremamente piccoli con un diametro non superiore a poche decine di kilometri e quindi forse quella che era stata vista al centro della Nebulosa del Granchio non era il residuo dell’esplosione del 1054. Quello che si cercava doveva infatti essere di dimensioni molto piccole, e pertanto, a quella distanza, invisibile. Come fare per vedere stelle di dimensioni così piccole?

Nell’agosto del 1967 una giovane astronoma inglese, di nome Susan Jocelyn Bell, facendo uso di una apparecchiatura speciale, notò una periodica emissione di onde radio proveniente da una zona del cielo dove apparentemente non vi erano stelle. Gli impulsi radio si susseguivano ad intervalli molto brevi (poco più di un secondo) e molto regolari, tanto che all’inizio si pensò a segnali lanciati da esseri intelligenti (i fantomatici «omini verdi» dei romanzi di fantascienza). Successivamente però fu chiaro che non poteva trattarsi di segnali prodotti da esseri intelligenti proprio perché erano molto regolari e quindi non davano alcuna informazione e secondariamente perché la produzione di quegli impulsi avrebbe richiesto una quantità di energia miliardi di volte superiore a quella che il genere umano è in grado di produrre. Nessun essere intelligente, se veramente tale, avrebbe potuto dissipare una così grande quantità di energia per lanciare segnali praticamente privi di significato. Non poteva quindi che trattarsi di un astro che subiva mutamenti in modo ciclico. Che tipo di corpo celeste poteva essere?

Si pensò a varie soluzioni, come quella di un corpo che emetteva onde radio e che veniva periodicamente occultato da un altro che gli girava intorno. Si pensò anche che poteva trattarsi di un corpo che girava intorno al proprio asse, rivolgendo periodicamente verso Terra una particolare zona della sua superficie che emetteva radioonde. Infine poteva essere un oggetto che pulsava. A quel tempo si optò proprio per quest’ultima soluzione e il corpo misterioso fu chiamato «stella pulsante» o, in modo abbreviato, «pulsar» (dall’inglese pulsating star).

Oggi sappiamo che le pulsar in realtà sono stelle di neutroni che ruotano molto velocemente su sé stesse formando un intenso campo magnetico che trattiene i corpuscoli carichi elettricamente. Gli altri corpuscoli, quelli senza carica, sarebbero trattenuti dal campo gravitazionale fornito a sua volta di fortissima intensità. Il campo magnetico, però, non riesce a trattenere gli elettroni in corrispondenza dei poli magnetici, da dove gli stessi sfuggirebbero a grande velocità. Gli elettroni che fuggono dalla stella, nel momento in cui rallentano la loro corsa, generano radiazioni che possono venire raccolte da un osservatore posto a Terra tutte le volte che un polo magnetico della stella si affaccia al nostro pianeta. La pulsar sarebbe quindi come un enorme faro (non di luce, ma di onde radio), che appare acceso solo quando è rivolto verso l’osservatore, e quindi non si tratterebbe di stelle pulsanti, come si era pensato in un primo momento, ma di stelle rotanti.

Sappiamo dalla fisica che quando un corpo carico di elettricità accelera o decelera la sua marcia, emette energia sotto forma di radiazioni elettromagnetiche. Gli elettroni che escono da una pulsar decelerano allontanandosi dall’astro e quindi emettono radiazioni, ma non è detto che queste debbano essere necessariamente onde radio. Le radiazioni emesse da una pulsar potevano essere di tutte le lunghezze d’onda e quindi, in particolare, anche radiazioni del visibile, cioè luce.

Si andò quindi a vedere se la piccola stellina di luce molto intensa posta al centro della nebulosa del Granchio non fosse per caso una pulsar ottica. Per verificare se essa si accendeva e si spegneva a brevissimi intervalli di tempo, si doveva far uso di apparecchiature adatte. Nel gennaio del 1969 venne puntato verso la stella in oggetto un apparecchio capace di catturare gli impulsi luminosi e si notò che effettivamente quella che era sempre stata ritenuta una nana bianca era invece una stella di neutroni.

Ma perché le pulsar dovrebbero essere stelle di neutroni? La risposta si ottiene attraverso ragionamenti logici. Innanzitutto le pulsar dovrebbero essere oggetti molto piccoli perché solo oggetti molto piccoli possono ruotare a velocità tali da consentire di produrre impulsi elettromagnetici estremamente frequenti. Le pulsar inoltre dovrebbero essere anche molto dense altrimenti la forza centrifuga provocata dalla rotazione vincerebbe la forza di gravità con conseguente disintegrazione. Si è calcolato che, per evitare che la stella vada a pezzi in seguito alla rotazione, la densità dovrebbe essere di almeno un milione di tonnellate per centimetro cubo (un’enorme petroliera a pieno carico ridotta alle dimensioni di uno spillo), quindi ben maggiore di quella delle nane bianche. Le pulsar pertanto non potrebbero essere nane bianche rotanti, perché queste ultime non hanno la densità richiesta.

Appare così opportuno chiarire come una stella di neutroni possa acquistare una velocità di rotazione tanto elevata. Una stella di questo tipo, come abbiamo visto, si forma in seguito al collasso gravitazionale di un corpo di grande massa che ruota su sé stesso sempre più velocemente a mano a mano che si riducono le sue dimensioni. Si tratta del ben noto principio di conservazione del momento angolare utilizzato anche dalle ballerine le quali, per girare su sé stesse molto velocemente, si imprimono prima una rotazione tenendo le braccia ben larghe e poi le rinserrano al petto di colpo. Si può dimostrare che la velocità angolare di una stella che collassa cresce in proporzione inversa del quadrato del raggio. In pratica, se questo si riducesse di 100 mila volte (come è il caso delle stelle di neutroni), la velocità angolare aumenterebbe di 10 miliardi di volte rispetto al valore di partenza. Se il Sole, ad esempio, potesse diventare una stella di neutroni (ma come abbiamo visto non ne ha la massa sufficiente) il suo periodo di rotazione, che è di 25 giorni, si ridurrebbe a solo due decimillesimi di secondo.

Le stelle di neutroni in rotazione emettono energia dai poli magnetici e quindi dovrebbero diminuire la loro velocità di rotazione. Se ciò è vero, le pulsar giovani dovrebbero avere una velocità di rotazione maggiore rispetto a quelle più vecchie. La stella che si trova al centro della nebulosa del Granchio è senza dubbio una stella molto giovane ed è infatti anche la pulsar più rapida che si conosca. Il periodo di rotazione della pulsar della nebulosa del Granchio è stato misurato con grande precisione e si è potuto constatare che effettivamente aumenta di alcuni milionesimi di secondo all’anno. Lo stesso fenomeno è stato osservato anche su altre pulsar.

 

I BUCHI NERI

Come abbiamo visto, l’esistenza di una stella è determinata dal sottile equilibrio tra la pressione verso l’esterno esercitata dal suo gas reso caldo dalle reazioni nucleari che si realizzano nel nucleo centrale e l’attrazione gravitazionale verso l’interno, dovuta alla sua stessa massa. Quando una stella esaurisce le scorte di combustibile nucleare l’equilibrio, che nel tempo aveva subito vari aggiustamenti, si rompe definitivamente e la stella si raffredda e si contrae. A questo punto il suo destino è segnato.

Se la stella è abbastanza piccola, se cioè le sue dimensioni sono inferiori a 1,4 masse solari, si contrarrà enormemente, ma alla fine riuscirà a trovare una nuova situazione di equilibrio quando l’attrazione gravitazionale verrà bilanciata da una folla di elettroni in continuo movimento: si formerà, in questo modo, una nana bianca che poi lentamente si spegnerà divenendo nana nera. Le stelle di massa maggiore finiranno invece la loro esistenza in modo traumatico e altamente spettacolare esplodendo e lanciando nello spazio gran parte della materia che le costituiva. Questo evento, come sappiamo, viene detto esplosione di supernova e produce immense nubi di gas in espansione originate dagli strati più esterni della stella. Se la massa che rimane dopo l’esplosione è compresa fra 1,4 e 3,2 masse solari essa subisce un collasso gravitazionale alla fine del quale gli elettroni penetrano all’interno dei protoni dando origine ai neutroni. Si forma in questo modo un oggetto molto più compatto e denso della nana bianca: la stella di neutroni. In essa ora sarà la forza nucleare ad arrestare l’opera distruttiva della gravità.

Abbiamo anche visto che per quanto riguarda le dimensioni dei residui stellari i ruoli sono invertiti, nel senso che le nane bianche che si formano a partire da stelle di dimensioni relativamente piccole finiscono la loro esistenza in corpi celesti piuttosto grandi (il Sole si ridurrà alle dimensioni della Terra) mentre le stelle di neutroni che si sono formate a partire da corpi celesti di grosse dimensioni finiranno la loro esistenza in corpi di non più di 20 o 30 km di diametro. La densità media di una nana bianca è di alcune decine di kilogrammi per centimetro cubo, mentre quella di una stella di neutroni è migliaia di miliardi di volte superiore.

Esistono tuttavia nel firmamento stelle di massa ancora maggiore di quella che forma le stelle di neutroni. Qual è la loro sorte?

Nel 1939 il fisico americano J. Robert Oppenheimer aveva calcolato che un corpo di massa notevole (almeno tre volte e mezzo la massa del Sole) avrebbe potuto continuare a collassare senza alcun impedimento, fino a ridursi a zero. Naturalmente si trattava di uno studio teorico perché in pratica non è possibile che la massa di una stella si concentri in un punto senza dimensioni.

Si può però immaginare un collasso di una stella che proceda fino a polverizzare i neutroni e in cui anche la forza nucleare sia costretta a piegarsi alla gravitazione. Si verrebbe a formare un corpo di densità elevatissima tale che il suo campo gravitazionale diventasse così intenso che nulla ne potesse più uscire. Sappiamo infatti che affinché un oggetto possa abbandonare un corpo al quale è legato gravitazionalmente, deve possedere una velocità iniziale maggiore della cosiddetta velocità di fuga.

Per comprendere cosa sia la velocità di fuga di un corpo basta immaginare di lanciare un sasso verso l’alto: il sasso raggiungerebbe una certa altezza, quindi arresterebbe la sua corsa, invertirebbe la marcia e tornerebbe a terra. Se al sasso venisse impressa una forza maggiore procederebbe più velocemente, raggiungerebbe un’altezza maggiore ma poi, come prima, si fermerebbe, invertirebbe la marcia e ricadrebbe a terra. Ciò succede perché la Terra esercita sul sasso una forza (la forza di gravità), che tende a riportare i corpi al suolo. Con l’aumentare dell’altezza la forza di gravità diminuisce di intensità e pertanto un oggetto che si trovasse a notevole altezza risentirebbe in minor misura dell’attrazione gravitazionale terrestre rispetto ad uno di massa uguale che fosse vicino al suolo. Da ciò si deduce che un corpo lanciato verso l’alto, a mano a mano che sale, viene attratto verso Terra con sempre minore forza.

Pertanto, se un corpo venisse lanciato verso l’alto con una notevole velocità iniziale, indubbiamente rallenterebbe gradualmente la sua corsa, ma non è detto che dovrebbe necessariamente fermarsi e quindi invertire la marcia. Infatti, se la sua velocità iniziale fosse superiore a 11,2 kilometri al secondo il corpo non si fermerebbe mai e quindi non tornerebbe più indietro.

La velocità di 11,2 km/s è la velocità di fuga della Terra che può essere definita come la velocità necessaria ad un corpo per sfuggire alla gravità superficiale terrestre ed evitare di ricadere al suolo. E’ possibile calcolare la velocità di fuga di qualsiasi altro corpo celeste, in funzione della sua massa e delle sue dimensioni; per esempio la velocità di fuga della Luna è di 2,4 km al secondo, mentre la velocità di fuga del Sole è 617,7 km/s.

Sappiamo che la velocità massima che può raggiungere un corpo è 300.000 km/s. Questa, in realtà, è la velocità della luce e a questa velocità può viaggiare solo la luce stessa, mentre i corpi materiali (razzi, proiettili o particelle) possono raggiungere, al massimo, velocità leggermente inferiori a questo limite. Ora, se immaginiamo un corpo tanto massiccio e denso da produrre un campo gravitazionale in grado di impedire che da esso possa sfuggire anche un oggetto che possedesse la velocità iniziale di 300.000 km al secondo, da quel corpo non potrebbe uscire nulla, nemmeno la luce.

Un corpo di tal fatta era stato ipotizzato già alla fine del XVIII secolo dal reverendo John Michell e da Pierre Simon marchese di Laplace, i quali, portando alle estreme conseguenze la teoria della gravitazione universale di Newton, immaginarono l’esistenza di una stella di dimensioni enormi la quale avrebbe attratto a sé ogni cosa, compresa la luce. Essi calcolarono che una stella di densità uguale a quella del Sole, ma con un raggio 500 volte maggiore (e quindi con un volume 100 milioni di volte più grande) avrebbe generato sulla sua superficie una forza gravitativa così intensa da impedire alla luce da essa stessa prodotta di uscire. La luce, a quel tempo, veniva immaginata formata da corpuscoli, come aveva suggerito Newton ma successivamente, con il prevalere della teoria ondulatoria, fu lo stesso Laplace a scartare la sua geniale intuizione: un’onda non è un oggetto materiale e quindi non può risentire dell’attrazione gravitazionale.

Oggi sappiamo che stelle grandi come le aveva immaginate Laplace non possono esistere perché collasserebbero sotto l’effetto del loro stesso peso. La qual cosa comunque non altera l’essenza del problema che tuttavia si manifesterebbe solo in oggetti di dimensioni ridotte, ma molto pesanti. Anche la luce, che dopo la teoria newtoniana per lungo tempo è stata considerata un fenomeno ondulatorio, oggi, sulla base della teoria quantomeccanica della materia, si può di nuovo immaginare formata da particelle, i fotoni appunto, corpuscoli senza massa quando sono fermi, ma dotati di energia e quindi con massa quando sono in movimento.

Un corpo con queste proprietà eccezionali viene chiamato «buco nero», anche se in realtà è tutt’altro che un buco: esso è infatti un oggetto molto massiccio e molto denso, che deriva dalla contrazione di un corpo celeste di grandi dimensioni. Per quale motivo allora viene chiamato buco? Il nome gli fu assegnato negli anni sessanta dal fisico americano J. Archibald Wheeler, il quale cercava per questi oggetti una definizione più semplice e di maggior efficacia descrittiva che non fosse quella di “oggetto collassato per effetto gravitazionale”. Egli pensò che l’espressione “buco nero”, che derivò dalla teoria einsteiniana dello spazio, potesse colpire meglio l’immaginazione. Per Einstein lo spazio è una realtà che subisce deformazioni per la presenza in esso di corpi di grande massa. Possiamo immaginarcelo come un telo di gommapiuma sul quale vengono riposte delle sfere di peso diverso. Il telo si affossa, nei punti in cui è poggiato il corpo massiccio, in misura tanto maggiore quanto più è pesante il corpo. Negli affossamenti scivolano i corpi più leggeri che stanno vicino dando l’impressione di venire attratti da quello centrale. Se l’oggetto è molto pesante, esso potrebbe addirittura sfondare il telo di gommapiuma generando uno strappo, un vero e pro­prio buco. Ora, qualsiasi cosa dovesse finire nell’avvallamento e poi nel buco creato dal corpo pesante non riuscirebbe più ad uscire. Allo stesso modo, e fuor di metafora, lo spazio si incurva sempre più per effetto di corpi pesanti fino a creare una voragine che inghiotte ogni cosa e dalla quale nulla può emergere. Ecco perché Wheeler chiamò “buco” l’oggetto molto massiccio; mentre l’aggettivo “nero” si riferisce al fatto che da esso non può uscire la luce, né qualsiasi altra radiazione elettromagnetica.

Abbiamo detto che una stella per poter diventare un buco nero dovrebbe avere una massa notevole. Nella nostra galassia esistono stelle decine di volte più massicce del Sole e naturalmente anche in passato possono essere esistite stelle di questo tipo. Alcune di queste stelle, contraendosi, potrebbero finire come supernovae ed espellere parte del materiale che le costituisce. Se ciò che rimane è più pesante di 3,2 masse solari, invece che una stella di neutroni, dovrebbe formarsi un buco nero. I fisici sono convinti che i buchi neri siano molto numerosi. Ma come fare per individuarli?

Questi strani oggetti celesti sono difficilissimi da scoprire perché non possono essere osservati nel solito modo, dato che non emettono luce né radiazioni di altro tipo. I buchi neri però hanno un campo gravitazionale intensissimo e quindi creano una forte attrazione su oggetti vicini. Verso la fine degli anni Sessanta il fisico americano Joseph Weber dichiarò di essere riuscito a rilevare la presenza di alcuni gravitoni (che sono l’aspetto corpuscolare delle onde gravitazionali, come i fotoni lo sono delle onde luminose) servendosi di alcuni grandi cilindri sistemati nello spazio. La notizia suscitò molto interesse ma anche alcuni dubbi, perché i gravitoni sono corpuscoli molto poco energetici perfino se prodotti dai buchi neri. Furono fatti in seguito vari tentativi di ripetere l’esperimento di Weber ma nessuno con esito favorevole, così che oggi vi è il sospetto che i gravitoni non possano essere individuati.

In genere i corpi celesti sono molto lontani fra loro e il campo gravitazionale di un buco nero, per quanto intenso, non sarebbe in grado di creare un’attrazione sensibile su stelle che fossero lontane da esso alcuni anni luce, però se una stella si trovasse abbastanza vicina ad un buco nero, come succede nei sistemi stellari binari, questo risucchierebbe da essa parte della sua materia carica di elettricità la quale, precipitando a grande velocità sulla sua superficie, emetterebbe radiazioni di varia natura come fanno tutti i corpi elettrici in moto accelerato. Queste radiazioni, osservate da Terra, potrebbero indicare la presenza di un oggetto di quel genere.

Nel 1965 nella costellazione del Cigno è stata individuata una sorgente di raggi X, chiamata Cygnus X-1, che potrebbe indicare la presenza di un buco nero. La cosa non è certa e i fisici procedono con grande cautela perché raggi X vengono emessi anche da altri oggetti celesti. Nelle vicinanze di questa sorgente di radiazione vi è però una stella visibile di grande massa, circa 30 volte quella del Sole, la quale sembra girare intorno a qualche cosa che non esiste.

Cerchiamo di spiegare questa osservazione facendo riferimento al Sole. Che cosa succederebbe se l’astro che ci illumina, all’improvviso, collassasse concentrando tutta la materia di cui è fatto in una sfera di meno di tre kilometri di raggio? Sappiamo che non può farlo, ma in quel caso la forza di gravità alla sua superficie diventerebbe enorme e nemmeno la luce potrebbe evadere. Il Sole, in altre parole, diventerebbe un buco nero e non lo si vedrebbe più. Nulla però cambierebbe rispetto all’attrazione che il nostro astro e­sercita sui pianeti i quali continuerebbero a girargli intorno come fanno attualmente, e non gli finirebbero addosso come qualcuno potrebbe pensare.

Nel 1974 l’inglese Steven Hawking, uno dei più grandi fisici teorici che l’umanità abbia mai conosciuto, suggerì che, in base alle leggi della meccanica quantistica, il destino dei buchi neri potrebbe anche essere diverso da quello immaginato. Fino a quel tempo si pensava infatti che un buco nero fosse lo stadio finale a cui poteva ridursi la materia e che, una volta formato, avrebbe continuato ad esistere per sempre; anzi, in alcuni casi, per la ca­duta in esso di altra materia, avrebbe addirittura potuto accrescersi.

Hawking mostrò invece che la materia potrebbe sfuggire dal buco nero fino a farlo completamente “evaporare”. Per comprendere il fenomeno suggerito dal fisico inglese dobbiamo rifarci al principio di indeterminazione, un principio fondamentale della meccanica quantistica, di cui abbiamo già fatto cenno.

Abbiamo visto che, secondo la meccanica quantistica, il nulla in assoluto non esiste nel senso che anche dove si ritiene che non possa esserci alcunché, in realtà qualche cosa si potrebbe sempre materializzare. Si tratta della comparsa improvvisa di coppie di particelle (già sappiamo che le particelle compaiono sempre a coppie, ad esempio elettrone e positone insieme). Queste entità però, appena create devono sparire immediatamente, altrimenti verrebbe violato il principio di conservazione della materia-energia: una delle leggi fondamentali della fisica. Particelle che scompaiono appena dopo nate, come si ricorderà, vengono dette “virtuali” per distinguerle da quelle che vivono più a lungo, e che pertanto possono essere osservate per mezzo di adatti rilevatori, le quali vengono dette “reali”.

Ora però, se la produzione della particella e dell’antiparticella virtuale avvenisse in prossimità del bordo di un buco nero, la forza di marea creata dallo stesso buco nero potrebbe risucchiare una delle due al suo interno lasciando l’altra senza la compagna con cui annichilirsi. La particella abbandonata all’esterno potrebbe a sua volta cadere nel buco nero oppure allontanarsi rendendosi visibile sotto forma di radiazione. La particella che si allontana dal buco nero non è più una particella virtuale, ma reale e quindi possiede energia. Da dove proviene questa energia? Evidentemente dallo stesso buco nero il quale ha inghiottito una particella che, vista da un osservatore esterno, apparirebbe fornita di energia negativa, cioè di una quantità di energia che, sommandosi con quella positiva dell’astro che l’ha risucchiata, determinerebbe la riduzione dell’energia totale dello stesso buco nero e di conseguenza della sua massa.

Con l’andar del tempo, la massa e il volume del buco nero diminuirebbero sensibilmente e questo rimpicciolimento faciliterebbe l’evasione di altre particelle fino a consumarsi del tutto. I buchi neri però sono oggetti molto grandi e per evaporare completamente dovrebbero impiegare tempi biblici. Si calcola che un buco nero con la massa del nostro Sole impiegherebbe 1066 anni (miliardi, miliardi e miliardi… di anni) per scomparire del tutto. Ma un mini-buco nero lo farebbe in meno tempo e potrebbe evaporare con una velocità tale da emettere quantità notevoli di raggi X.

Alcuni fisici ritengono che dovrebbero esistere numerosi mini-buchi neri, cioè buchi neri dotati di piccola massa e forniti di dimensioni non più grandi del protone, che si sarebbero formati all’inizio dei tempi quando le condizioni fisiche dell’ambiente erano diverse dalle attuali. I buchi neri che si formano attualmente sono di grosse dimensioni perché derivano da stelle di grande massa le quali vengono compresse dal loro stesso peso. I buchi neri di piccole dimensioni dovrebbero derivare da oggetti piccoli come pianeti o asteroidi che però attualmente non sono in grado di comprimersi fino al punto di creare densità eccezionali. Queste compressioni invece si sarebbero realizzate, nell’Universo primitivo, per effetto di forze esercitate dal big bang stesso. I buchi neri di piccole dimensioni, ora, dopo 15 miliardi di anni dalla loro formazione, sarebbero in parte evaporati e in alcuni casi anche esplosi. Hawking ha dimostrato matematicamente che un buco nero evapora in tempi tanto più brevi quanto più è piccolo e se il buco nero fosse piccolissimo la reazione di evaporazione si completerebbe attraverso un’esplosione che libererebbe una quantità di energia pari a quella creata dall’esplosione contemporanea di milioni di bombe atomiche.

Realtà o fantasia? Né l’una né l’altra cosa: calcoli eseguiti a tavolino, non suffragati, per il momento, da alcun riscontro sperimentale. Si tenga tuttavia presente che le discipline che hanno il compito di descrivere i fenomeni della natura possiedono una base sperimentale che non può essere trascurata. La scienze naturali, in altre parole, hanno bisogno delle evidenze osservative e sperimentali per poter essere accettate dalla comunità scientifica.

Prof. Antonio Vecchia

Reply