Le Cosmologie degli anni 80

IL MODELLO DI UNIVERSO

L’attuale modello di Universo nasce dalla combinazione di teoria e osservazione. La parte teorica è rappresentata dalla Relatività Generale di Einstein e dalla Meccanica Quantistica, mentre la parte osservativa è costituita principalmente dalle misure relative al red-shift (spostamento verso il rosso delle righe spettrali) effettuate per la prima volta dall’astronomo statunitense Edwin Hubble, dalla radiazione di fondo a 3 K scoperta dagli astrofisici  Robert W. Wilson e Arno Penzias nel 1964 e dai dati trasmessi di recente dal satellite COBE (Cosmic Background Explorer).

All’inizio di questo secolo, la teoria della Relatività Generale di Einstein modificò profondamente il vecchio modello di Universo, il quale raffigurava il Cosmo come uno spazio fisso e senza limiti, uniformemente riempito di stelle; esso era anche ritenuto eterno e immutabile.

La teoria della Relatività Generale, in realtà, essendo una teoria matematica, quindi astratta, ammetteva l’esistenza di svariati tipi di Universo, finiti o infiniti, piatti o curvi, in espansione o in contrazione e anche in rotazione. Einstein escluse immediatamente il modello di Universo rotante per una serie di motivi che facevano leva sulle sue stesse teorie relativistiche. Innanzitutto egli riteneva che la rotazione, come qualsiasi movimento, dovesse essere relativa a qualcos’altro, ma l’Universo è tutto ciò che esiste. In secondo luogo, una rotazione implica la presenza di un asse centrale cosa che avrebbe comportato l’esigenza di un punto privilegiato contraddicendo il presupposto che lo spazio doveva essere lo stesso ovunque e in qualsiasi direzione. Infine, un Universo carico di masse pesantissime avrebbe dovuto generare un campo gravitazionale di tale intensità che per essere bilanciato dalla rotazione questa avrebbe dovuto effettuarsi ad una velocità superiore a quella della luce: cosa proibita dalla teoria della relatività ristretta.

Per stabilire quale fosse quello reale, fra gli altri teoricamente ammissibili, era necessario fissare qualche parametro fisico da inserire nelle equazioni al fine di applicarle al caso concreto. Le osservazioni successive alla formulazione del modello di Einstein e in particolare quella relativa alla fuga delle galassie fornirono le cosiddette condizioni fisiche esterne che fecero propendere per un Universo illimitato, finito e in continua espansione. Questo modello venne detto, con immagine efficace, «Modello del Big Bang».

Illimitato e finito significa che se si continuasse a viaggiare nello spazio in una determinata direzione si finirebbe, prima o poi, per tornare al punto di partenza, proprio come avviene sulla superficie della Terra dove è possibile dirigersi in una qualsiasi direzione e continuare a viaggiare senza incontrare ostacoli, per tornare, alla fine, al punto di partenza. La superficie della Terra, da questo punto di vista, è quindi illimitata (cioè non ha barriere o ostacoli), tuttavia è finita: essa misura, infatti, un ben determinato numero di kilometri quadrati. Allo stesso modo anche l’Universo dovrebbe essere finito, cioè misurare un ben determinato numero di kilometri cubi, ma nello stesso tempo illimitato.

Il fatto che l’Universo oggi si vada espandendo implica che in un tempo lontano doveva essere di dimensioni minori e quindi caratterizzato dalla materia concentrata in un agglomerato più denso. Inoltre, poiché l’Universo può essere immaginato come un gas le cui molecole siano rappresentate dalle galassie, e poiché l’espansione di un gas produce raffreddamento, prima che cominciasse ad espandersi l’Universo avrebbe dovuto essere, oltre che molto denso, anche molto caldo.

Dalla conoscenza del ritmo di espansione attuale e della densità media della materia in esso contenuta è possibile risalire al tempo in cui l’espansione prese l’avvio e determinare quindi l’età dell’Universo. Se l’interpretazione delle osservazioni è quella giusta, esso dovrebbe essere nato circa 15 miliardi di anni fa.

Strumenti sempre più potenti e sofisticati hanno consentito, in questi ultimi anni, una serie di osservazioni di notevole rilevanza astronomica come quella di guardare molto lontano nello spazio, fino ai limiti estremi dell’Universo. A quelle distanze si sono osservati oggetti diversi da quelli che si possono osservare vicino a noi e ciò farebbe pensare ad un Universo che muti fisionomia nello spazio. Ma non è così.

Esso, in realtà, cambia nel tempo: in altre parole, è in continua evoluzione. Guardare lontano nello spazio, infatti, vuol dire guardare indietro nel tempo. Quando ad esempio si osserva un corpo celeste che dista da noi dieci miliardi di anni luce, lo si vede in effetti come era dieci miliardi di anni fa. La luce, infatti, ha una velocità finita (anche se molto elevata), e per percorrere lo spazio che la separa dall’oggetto da cui è partita, impiega un certo tempo. L’anno luce è una misura di distanza e corrisponde allo spazio che la luce percorre in un anno viaggiando alla velocità di 300.000 km/s, cioè quasi 10.000 miliardi di kilometri.

 

L’UNIVERSO ALLE SUE ORIGINI

L’osservazione più lontana nello spazio (e quindi anche nel tempo) che l’uomo sia mai riuscito ad effettuare è quella relativa alla cosiddetta radiazione di fondo a 3 K: si tratta di una radiazione elettromagnetica equivalente a quella che emetterebbe un corpo alla temperatura di 3 gradi kelvin (cioè a 270 gradi sotto zero della nostra consueta scala Celsius). Questa radiazione rappresenterebbe il residuo delle temperature elevatissime che dovevano regnare al tempo della nascita dell’Universo. Come vedremo, questa è anche un’osservazione limite, nel senso che non sarà mai possibile osservare direttamente nulla che si trovi più lontano di così. Qualche risultato migliore si potrebbe ottenere usando invece che la luce i neutrini o i gravitoni, ma per il momento il sistema non è praticabile.

La teoria insegna che quando la materia è molto concentrata e molto calda, in essa non sono presenti atomi e molecole distinte, ma un ammasso uniforme e caotico di protoni ed elettroni, liberi e in continuo movimento, che tendono tuttavia ad unirsi per formare atomi neutri di idrogeno. L’Universo, all’inizio dei tempi, doveva, verosimilmente, trovarsi in una situazione del genere. A quel tempo, tuttavia, oltre alla materia, era presente anche energia sotto forma di fotoni. Questi fotoni, urtando gli atomi di idrogeno appena formatisi, li scindevano nelle due particelle costituenti (protone ed elettrone), che però, subito dopo, si aggregavano nuovamente.

Le reazioni di formazione e di scissione incessante degli atomi di idrogeno costringevano materia e radiazione a stare saldamente unite insieme, ma quando la temperatura, a causa del raffreddamento conseguente all’espansione, scese al di sotto di 3.000 gradi kelvin, queste reazioni terminarono. A quella temperatura, che nella storia dell’Universo si realizzò circa 500.000 anni dopo la nascita, la radiazione si disaccoppiò dalla materia perché i fotoni, troppo deboli, non erano più in grado di spezzare gli atomi di idrogeno. Da quel momento in poi la materia, definitivamente stabile, si raccolse in stelle e galassie e la radiazione iniziò a viaggiare liberamente nello spazio, indebolendosi e raffreddandosi sempre più a mano a mano che l’Universo si andava espandendo. Da allora l’Universo si è espanso di circa 1000 volte e l’onda elettromagnetica si è allungata in ugual misura seguendo la dilatazione dello spazio. Oggi, come abbiamo detto, osserviamo di quella radiazione una lunghezza d’onda 1000 volte maggiore corrispondente a quella che uscirebbe da un corpo alla temperatura di 3 gradi kelvin (cioè a 270 °C sotto zero).

Pertanto, poiché la radiazione non è stata libera di muoversi attraverso gli spazi cosmici fin dagli inizi dei tempi, ma solo da un certo momento in poi, non sarà nemmeno possibile effettuare osservazioni dirette dei momenti iniziali di vita dell’Universo. Ciò non significa tuttavia che non potremo mai sapere nulla circa le prime fasi della sua esistenza. Ci viene infatti in soccorso il modello del Big Bang il quale è in grado di suggerirci l’esistenza di alcuni fenomeni presenti nell’Universo primitivo che potrebbero aver lasciato delle tracce osservabili in quello attuale. Non solo, ma alcuni fenomeni particolari di questo primitivo Universo potrebbero anche essere riprodotti all’interno di apparecchiature capaci di creare artificialmente le condizioni fisiche di quei tempi lontani.

 

LE PROVE A SOSTEGNO DEL MODELLO DEL BIG BANG

Può anche accadere che alcune osservazioni, compiute casualmente, trovino poi giustificazione coerente proprio all’interno del modello del Big Bang, fornendo la conferma della sua validità. Questo è il caso, effettivamente verificatosi, delle abbondanze relative dell’elio e del deuterio.

Oggi l’uomo è in grado non solo di conoscere di quali elementi chimici è costituito il Cosmo, ma anche di valutarne le abbondanze relative. Ebbene, se si analizza la massa di elio presente nell’Universo, si constata che essa rappresenta il 27% di tutta la materia esistente e poiché sappiamo che l’elio si forma all’interno delle stelle, siamo in grado di calcolare quanto tempo esse avrebbero impiegato per produrre tutto l’elio presente nel Cosmo. Fatti i debiti calcoli, si desume che nemmeno ammettendo che le stelle siano entrate in attività fin dall’inizio dei tempi, esse avrebbero potuto produrre la grande quantità di elio che oggi si può osservare. Dove si è quindi formato l’elio eccedente?

Il modello del Big Bang è in grado di risolvere il dilemma relativo all’abbondanza di elio osservato. Nel tempo compreso fra i tre secondi e i tre minuti dall’inizio, la temperatura, si calcola, doveva aggirarsi intorno al miliardo di gradi e pertanto le condizioni fisiche dovevano essere simili a quelle che si realizzano all’interno delle stelle più calde. Ora si sa che in queste stelle protoni e neutroni possiedono energia cinetica sufficiente per unirsi e formare nuclei di deuterio. Subito dopo i nuclei di deuterio, che sono dovuti all’unione di un singolo protone con un singolo neutrone, si fondono a due a due originando i nuclei degli atomi di elio (due protoni e due neutroni uniti insieme).

La stessa cosa dovrebbe essere avvenuta nell’Universo primitivo, ma dopo i primi tre minuti di esistenza esso si sarebbe espanso e quindi raffreddato, in misura tale che l’energia cinetica posseduta dai protoni e dai nuclei degli elementi leggeri, i quali nel frattempo si erano formati, non sarebbe più stata sufficiente per vincere le forze di repulsione fra le cariche positive presenti sui protoni e sui nuclei atomici più complessi: si arrestò quindi la produzione dell’elio, del deuterio e di altri elementi leggeri.

I fisici hanno calcolato che nei primi tre minuti di vita dell’Universo, circa un quarto dei protoni e dei neutroni presenti ebbero tempo e modo di convertirsi in elio, mentre una piccola frazione di essi formò nuclei di deuterio e di altri elementi leggeri, come litio e berillio.

I neutroni in eccedenza, essendo particelle molto instabili quando si presentano isolati, decaddero rapidamente in protoni, e questi, assieme a quelli già esistenti, formarono i nuclei dell’idrogeno ordinario. L’abbondanza che si può osservare attualmente dell’elio, del deuterio e di altri elementi leggeri, potendo quindi essere spiegata mediante il modello del Big Bang, rappresenta una prova ulteriore della validità del modello stesso.

Un altro argomento a favore del Big Bang è la soluzione che esso è in grado di fornire al problema conosciuto con il nome di «paradosso di Olbers».

Nel 1826 l’astronomo tedesco Heinrich Olbers osservò che se le stelle fossero eterne e distribuite uniformemente in tutto lo spazio infinito, il cielo di notte dovrebbe apparire luminoso e non già buio come in effetti è. Olbers restò naturalmente perplesso di fronte a questa indagine, anche perché derivava da una serie di presupposti che a quel tempo apparivano del tutto plausibili.

Oggi sappiamo che l’Universo non è pieno di singole stelle, ma di galassie, tuttavia il paradosso rimane; per renderlo attuale possiamo quindi sostenere che se l’Universo fosse infinito e popolato di galassie uniformemente distribuite, il cielo di notte dovrebbe apparire luminoso. La fisica ci insegna infatti che la luminosità di una sorgente di luce si attenua con l’aumentare della distanza. In cielo, con l’aumentare della distanza, aumenta però anche il numero delle sorgenti luminose e aumenta in misura tale da compensare esattamente l’indebolimento della luce da esse emessa. Pertanto in un Universo infinito e statico, in qualsiasi direzione si volga lo sguardo, la linea visuale finirebbe prima o poi per intercettare la superficie di una galassia. In conseguenza di ciò il cielo notturno dovrebbe apparire luminoso come è luminosa la superficie della galassia a noi più vicina.

Poiché però il cielo notturno è buio, almeno una delle ipotesi che sono state avanzate all’inizio deve essere sbagliata, e cioè o l’Universo non è statico o non è eterno o non è omogeneo o non è infinito. In verità, fatta eccezione (forse) per l’omogeneità, l’Universo non è nulla di tutto questo. Tuttavia è sufficiente ammettere che l’Universo è in espansione per risolvere in modo elegante il paradosso di Olbers: la recessione delle galassie produce infatti uno spostamento del loro spettro verso il rosso affievolendo la luce fino al punto da renderla insufficiente ad illuminare il cielo notturno.

 

IL MODELLO DEL BIG BANG NON E’ COMPLETO

Indubbiamente il modello di Universo in espansione, proposto da George Gamow, un fisico di origine russa che all’età di trent’anni si trasferì in America dove insegnò fino alla morte avvenuta nel 1968, ha conseguito una serie di successi individuando ed interpretando correttamente diversi fatti osservativi di significato cosmologico. Il modello attualmente viene chiamato «Big Bang classico»

Nonostante i risultati positivi, rimanevano tuttavia senza risposta alcuni interrogativi di non secondaria importanza. Come mai, ad esempio, la radiazione fossile di 3 K è così omogeneamente distribuita, tanto che in qualsiasi direzione la si osservi il suo valore risulta sempre lo stesso con un altissimo grado di precisione? Osservare la radiazione fossile di 3 K identica in tutte le direzioni equivale ad osservare un corpo grande come tutto l’Universo che presenta ovunque la stessa temperatura.

Se oggi la radiazione fossile di 3 K appare all’osservazione estremamente omogenea ed isotropa, essa doveva essere altrettanto omogenea ed isotropa al tempo in cui si disaccoppiò dalla materia e cominciò a viaggiare libera nello spazio. A quel tempo, cioè quando l’Universo aveva l’età di circa 500.000 anni, la radiazione, come abbiamo visto, corrispondeva a quella di un corpo alla temperatura di 3.000 K. Come mai la temperatura era identica in tutti i punti dell’Universo di quel tempo ed è identica ovunque ancora oggi? La domanda non è banale come può sembrare.

In base ai dati forniti dal modello del Big Bang classico, al tempo in cui la radiazione si svincolò dalla materia e cominciò a viaggiare libera nello spazio, le distanze nell’Universo erano tali che molti dei suoi punti non potevano in alcun modo aver mai comunicato fra loro, nemmeno attraverso il segnale luminoso che è quello che si sposta più velocemente di qualsiasi altra cosa. In altre parole l’Universo, all’età di 500.000 anni, era già talmente esteso che la luce, pur viaggiando alla velocità incredibile di 300.000 km/s, non aveva avuto il tempo sufficiente per andare da una parte all’altra di esso.

Come abbiamo appena detto, il modo più veloce con cui si possa comunicare è per mezzo del segnale luminoso, o meglio, più in generale, attraverso la radiazione elettromagnetica. Ora, se i punti dell’Universo di 500.000 anni di età erano tanto lontani da non aver mai potuto comunicare fra loro nemmeno attraverso un segnale elettromagnetico, com’è possibile che essi si trovassero tutti alla stessa temperatura?

Si sa che per rendere omogeneo un ambiente ci vuole del tempo. Se ad esempio si lasciasse cadere una goccia di inchiostro sull’acqua contenuta in un bicchiere, questa avrebbe bisogno di un certo tempo, diciamo un paio di minuti, per distribuirsi uniformemente in tutto il volume, quindi, dopo solo 2 secondi dalla caduta della goccia non si dovrebbe vedere l’inchiostro distribuito uniformemente nell’acqua, a meno che qualcuno non l’abbia rimescolata. Allo stesso modo la radiazione elettromagnetica, in soli 500.000 anni, non avrebbe avuto il tempo di distribuirsi uniformemente in un Universo che in quel momento era già di dimensioni enormi. Il quesito che abbiamo posto si chiama «problema dell’orizzonte» ed è uno degli interrogativi a cui la teoria del Big Bang classico non riesce a dare risposta.

In realtà non si tratterebbe di una carenza vera e propria del modello in quanto si potrebbe rispondere che l’Universo attuale (e quello del tempo in cui la radiazione si disaccoppiò dalla materia) è omogeneo e isotropo perché così è nato. Il vero problema è che non si riesce a spiegare il motivo per quale l’Universo dovrebbe essere stato sempre così omogeneo e isotropo come lo vediamo oggi.

Per chiarire ulteriormente il concetto ricorriamo ad un paragone. Se il professore, correggendo i compiti svolti in classe, constatasse che sono tutti identici, sicuramente penserebbe che sono stati copiati, cioè che gli studenti, durante lo svolgimento della prova, hanno avuto modo di comunicare fra loro. Certo, egli potrebbe anche pensare che i compiti risultino tutti uguali perché così sono stati elaborati, autonomamente, dai singoli studenti. Una risposta di questo tipo richiederebbe però, da parte dell’insegnante, una buona dose di ottimismo (e di ingenuità).

Esiste un altro problema che la teoria del Big Bang classico non riesce a spiegare ed è il seguente. L’Universo attualmente è in espansione, ma un giorno potrebbe invertire la corsa e cominciare a contrarsi: tutto dipende dalla quantità di materia in esso contenuta. E’ stato calcolato che se la materia fosse in quantità superiore ad un certo valore critico la forza di gravità da essa stessa generata frenerebbe l’espansione fino a farle invertire la marcia; se invece la materia fosse in quantità inferiore a quel valore critico la forza di gravità non riuscirebbe a frenare del tutto la corsa delle galassie e l’Universo continuerebbe ad espandersi per sempre. Ebbene, le osservazioni mostrano che la materia dell’Universo è presente in quantità tale da non poter decidere se esso continuerà ad espandersi per sempre o se un giorno inizierà a contarsi. Se si considera che non esiste alcun motivo per cui nell’Universo debba esserci una ben determinata quantità di materia, si rimane sorpresi nel constatare che in esso c’è proprio una quantità giusta perché si crei la particolare configurazione di equilibrio che si osserva.

Se ad esempio la materia presente nell’Universo fosse stata anche di poco più abbondante di quella effettivamente presente, l’Universo non esisterebbe affatto, perché avrebbe subito il collasso già da lungo tempo e tutta la materia oggi sarebbe concentrata in un punto di densità infinita. Se viceversa la materia presente nell’Universo fosse stata anche solo leggermente inferiore a quella che è in realtà, le galassie non si sarebbero nemmeno potute formare e la materia si sarebbe dispersa negli spazi immensi. Come mai invece nell’Universo c’è materia proprio in quantità tale da bilanciare in modo così provvidenziale la spinta conseguente all’esplosione iniziale? Sarebbe come se si fosse riusciti a regolare lo sparo di un fucile in maniera tale che la pallottola, una volta uscita dall’arma, potesse terminare la sua corsa arrestandosi dolcemente fra le mani di un bambino. Questo problema è chiamato della «densità critica».

Un terzo interrogativo è rappresentato dalla mancanza di antimateria. La materia, come sappiamo, può essere considerata una forma di energia nel senso che è possibile crearla partendo dall’energia, come suggerisce la celeberrima equazione di Einstein, E=m·c², dove E è l’energia, m la massa e  è la velocità della luce al quadrato (un numero grandissimo); risulta dalla formulazione einsteniana che ci vuole una grande quantità di energia per produrre una piccola quantità di materia. Per fare un esempio concreto si consideri che sarebbe necessaria tutta l’energia ricavata dalla combustione del carbone trasportato da un treno merci per produrre poco più di un milligrammo di materia. Ma non è questo il punto: il problema è che le leggi della fisica impongono che tutte le volte in cui si crea materia dall’energia, per ogni particella che si materializza, deve formarsi anche l’antiparticella corrispondente. Vale anche il discorso opposto: quando una particella, ad esempio un elettrone, incontra la sua antiparticella, cioè il positone (particella uguale all’elettrone ma con carica positiva invece che negativa) avviene la reciproca annichilazione, cioè scompaiono entrambi e si forma energia indifferenziata. Questa rigorosa simmetria fra materia ed antimateria, mai smentita da una sola verifica sperimentale, fa sorgere la questione del perché nell’Universo ci sia solo materia. Dove è andata a finire l’antimateria?

Esiste infine il problema, di non poco conto, della singolarità. Secondo il modello classico del Big Bang, al tempo zero, cioè all’atto della nascita, la densità, la curvatura dello spazio-tempo e la temperatura dell’Universo dovevano avere valori infiniti, e ciò, come è facile capire, è un’assurdità. In realtà è la trattazione matematica delle equazioni di Einstein applicate alla situazione iniziale dell’Universo che porta a questa conclusione, e mette in luce semplicemente il fatto che il modello classico del Big Bang non è affidabile quando si tenta di applicarlo a situazioni molto lontane da quelle per le quali è stato elaborato.

 

LA MECCANICA QUANTISTICA

Gli interrogativi sollevati, e qualche altro che per brevità abbiamo tralasciato, sono stati affrontati, e in parte risolti, apportando una serie di modifiche e di aggiustamenti al modello classico del Big Bang che tuttavia, nelle sue linee essenziali, rimane ancora valido.

Questo modello, come abbiamo visto, rappresenta l’Universo attraverso le equazioni di Einstein le quali sono equazioni matematiche che descrivono la forza di gravità. Ora, come ben sappiamo, questa fa sentire i suoi effetti fra corpi pesanti posti ad una certa distanza, ma quando l’Universo era nelle sue prime fasi di vita, la materia, scomposta nei suoi costituenti essenziali (in pratica elettroni e quark), era tutta ammassata in uno spazio esiguo e la temperatura era elevatissima. In quelle condizioni non poteva più essere la forza di gravità a svolgere un ruolo determinante sulla materia, ma presumibilmente forze di altro tipo, tali cioè da poter agire fra i corpuscoli di piccole dimensioni posti a breve distanza: le forze nucleari.

In realtà le condizioni in cui si trovava la materia nelle prime fasi di vita dell’Universo erano tali da non poter più essere descritte per mezzo di nessuna delle leggi della fisica classica. Il comportamento dei costituenti ultimi della materia e della radiazione è infatti molto particolare e viene descritto correttamente solo da alcune leggi speciali inquadrate all’interno di una recente teoria che prende il nome di «Meccanica Quantistica».

La Meccanica Quantistica è una teoria che descrive il comportamento di entità submicroscopiche come elettroni, protoni e fotoni che presentano caratteristiche originali: a volte sembrano comportarsi come corpuscoli, a volte come onde. Prima di proseguire è necessario quindi illustrare i principi fondamentali su cui si fonda questa nuova teoria.

La Meccanica Quantistica immagina ogni cosa fatta di particelle, o meglio di entità discrete dette “quanti”. Di “quanti” sarebbe quindi costituita non solo la materia, ma anche le forze che tengono unite fra loro le particelle materiali. Secondo i dettami di questa teoria, la materia starebbe unita insieme perché, fra i suoi singoli costituenti, rimbalzerebbero in continuazione delle particelle speciali, che con il loro andirivieni li legherebbe (e certe volte li allontanerebbe), dando la sensazione che fra essi agisca una forza.

In natura esistono solo quattro tipi fondamentali di forze: la gravitazionale, l’elettromagnetica e altre due che agiscono a livello dei nuclei atomici e che sono dette semplicemente debole e forte. Noi abbiamo esperienza diretta solo delle prime due. La forza di gravità è quella che ci trattiene al suolo e che fa sì che il nostro pianeta segua la sua orbita intorno al Sole; essa è anche responsabile della coesione cosmica: tiene cioè insieme stelle e galassie. La forza elettromagnetica si esercita fra le particelle cariche di elettricità e mantiene, per esempio, gli elettroni legati ai nuclei atomici, gli atomi legati fra loro a formare le molecole, e le molecole legate a loro volta a formare i corpi materiali; essa è quindi alla base di tutte le sostanze che ci circondano, e anche di noi stessi. La forza forte e la forza debole agiscono all’interno dei nuclei degli atomi tenendo insieme protoni e neutroni, e i quark che a loro volta li costituiscono e sono responsabili di fenomeni come la bomba atomica e la radioattività.

Le particelle portatrici dei diversi tipi di forze che si manifestano nelle interazioni con le particelle materiali, vengono chiamate “bosoni” (dal nome del fisico indiano Satyendra Bose) e sono il gravitone, il mediatore della forza di gravità, il fotone che è il portatore dell’interazione elettromagnetica, i bosoni W± e Z°, portatori della forza nucleare debole, e i gluoni, i mediatori della forza nucleare forte, quella che tiene uniti quark, protoni e neutroni.

Le particelle fondamentali che costituiscono la materia nella sua struttura più intima si chiamano invece “fermioni” (dal nome di E. Fermi) e sono gli elettroni, i neutrini e i quark. Questi ultimi, unendosi a tre a tre, formano, come abbiamo appena detto, i comuni protoni e neutroni.

A scuola si impara che i fenomeni naturali vengono interpretati facendo ricorso a singole teorie indipendenti fra loro. I fisici ritengono invece che sia possibile pervenire ad una teoria unica, completa e coerente, che includa tutte le teorie parziali che conosciamo e che sia in grado di spiegare tutti i fenomeni come manifestazioni diverse di una sola realtà. In verità i fisici da molto tempo stanno lavorando in questa direzione e, procedendo per gradi, sono già riusciti ad unificare alcune teorie che una volta venivano considerate separatamente.

 

L’UNIFICAZIONE DELLE FORZE

Già nell’altro secolo, ad esempio, il fisico scozzese James Clerk Maxwell (1831-1879) riuscì a dimostrare che elettricità e magnetismo, due forze che fino a quel tempo erano state considerate indipendenti fra loro, erano in realtà un’unica cosa. Una carica elettrica in movimento, infatti, in aggiunta alla forza elettrica, ne manifesta un’altra di natura magnetica, simile a quella prodotta dalle calamite; simmetricamente un magnete in movimento sviluppa anche una forza elettrica (oltre ovviamente a quella magnetica). Maxwell riuscì quindi ad unificare due teorie parziali, che erano state impiegate fino ad allora in modo indipendente per descrivere le forze dell’elettricità e del magnetismo comprendendole in un’unica teoria detta del «campo elettromagnetico».

In seguito, dopo che Einstein formulò la teoria della Relatività Generale, che come sappiamo interpreta in modo nuovo la forza di gravità, un giovane matematico tedesco di nome T. Kaluza, scoprì che se la teoria della Relatività Generale veniva formulata su cinque dimensioni, invece che su quattro, essa incorporava automaticamente le leggi del campo elettromagnetico. In altre parole, la forza gravitazionale e quella elettromagnetica si unificherebbero spontaneamente se si considerasse lo spazio a cinque dimensioni invece che a quattro. Resta da vedere dove si dovrebbe andare a cercare la quinta dimensione dello spazio quando già la quarta rappresenta un problema.

Negli anni ’60, il fisico di origine pachistana Abdus Salam, morto di recente e fino a qualche anno addietro direttore del centro internazionale di fisica teorica di Miramare, a Trieste, insieme con il collega americano Steven Weinberg, autore fra l’altro di un libro, «I primi tre minuti», che una ventina di anni fa ebbe un notevole successo anche fra il pubblico non specializzato, riuscì ad unificare la forza elettromagnetica e la forza debole in un’unica teoria, proprio come cento anni prima Maxwell aveva unificato elettricità e magnetismo.

Gli esperimenti confermarono che ad energie molto elevate, corrispondenti a temperature dell’ordine di milioni di miliardi di gradi (1015 K), la forza elettromagnetica e la forza debole non sono più distinguibili l’una dall’altra ma risultano unificate in un’unica forza, detta «elettrodebole». Nel 1983 i fisici sperimentali del CERN di Ginevra rivelarono, all’interno dell’acceleratore di particelle LEP, la presenza dei cosiddetti bosoni vettoriali intermedi W+, W e Z°, che presentavano le proprietà fisiche previste dalla teoria.

I bosoni W± e Z° sono le particelle mediatrici della forza debole che, ad energie molto elevate, sono indistinguibili fra loro e con il fotone (il mediatore della forza elettromagnetica). Queste particelle acquistano invece una loro individualità proprio alle energie massime realizzabili all’interno del LEP di Ginevra. Al goriziano Carlo Rubbia, il quale diresse l’équipe di varie centinaia di fisici che fecero la scoperta, insieme con l’olandese Simon Van der Meer, che in modo altrettanto determinante collaborò al progetto di sperimentazione, fu assegnato il premio Nobel per la fisica nel 1984.

Sulle ali del successo, conseguito anche grazie all’utilizzo di apparecchiature molto sofisticate (e molto costose), i fisici si spinsero verso ricerche ancora più ambiziose. L’obiettivo era ora quello di tentare di inglobare in un disegno unitario non solo le altre due forze di natura, ossia la forza forte e la gravitazionale, ma anche le particelle materiali. Per il momento, tuttavia, i fisici sono solo riusciti ad elaborare una serie di teorie, note con la sigla GUT (Great Unified Theories), che prevedono l’unificazione della forza forte alla elettrodebole.

Le prove sperimentali a conferma dei modelli previsti dalle GUT non possono tuttavia essere eseguite direttamente perché richiederebbero la costruzione di macchinari in grado di produrre energie troppo elevate, impensabili non solo attualmente, ma perfino in un lontano futuro. Pure se le teorie non potranno mai essere provate attraverso esperimenti diretti, esse potrebbero tuttavia trovare conferma per altra via.

Queste nuove teorie prevedono infatti che a temperature elevatissime, oltre alle forze, anche alcune particelle di materia dovrebbero perdere la loro individualità. Queste allora si trasformerebbero le une nelle altre e, per esempio, i quark diverrebbero leptoni, cioè particelle leggere come elettroni o neutrini, e viceversa. Ora, poiché anche il protone è fatto di quark, esso dovrebbe decadere in particelle più leggere, e quindi in pratica trasformarsi. Pertanto, qualora si riuscisse ad osservare il decadimento del protone, questo fenomeno dimostrerebbe, per via indiretta, la validità delle teorie.

Fino a poco tempo fa si era convinti che il protone fosse una particella stabile e immortale; le nuove teorie prevedono invece che esso debba decadere. Tuttavia le stesse teorie suggeriscono che alle attuali temperature la trasformazione dei protoni dovrebbe avvenire ad un ritmo lentissimo, di solo uno ogni 1032 (centomila miliardi di miliardi di miliardi) all’anno. Non è certo facile realizzare un esperimento che consenta di tenere sotto controllo centinaia di tonnellate di materia in modo da cogliere, molto sporadicamente, la “morte” di un singolo protone.

Anche in questo settore della ricerca l’Italia è comunque all’avanguardia, avendo installato una serie di apparecchiature di controllo fuori dalle interferenze dei raggi cosmici, sotto il monte Bianco e sotto il Gran Sasso. Il coordinatore di queste ricerche è il fisico italiano Antonino Zichichi.

 

L’UNIVERSO INFLAZIONARIO

Che nesso intercorre fra le teorie di Grande Unificazione e il problema relativo all’origine dell’Universo? In realtà le recenti teorie sulla unificazione delle forze sono in grado di arricchire e migliorare il modello classico del Big Bang, perché possono spiegare il comportamento dell’Universo nelle sue prime fasi di vita. A quel tempo infatti l’Universo doveva trovarsi in uno stato di densità, di pressione e di temperatura elevatissime, cioè proprio nelle condizioni in cui operano le leggi previste dalle GUT.

Il fisico americano Alan Guth, nel dicembre del 1979, propose un’ipotesi molto originale sui primi istanti di vita dell’Universo: egli calcolò che quando l’Universo aveva l’età di 10-32 secondi, quindi solo un’irrilevante frazione di secondo dopo la nascita, la temperatura doveva essere elevatissima e quindi tale da tenere ancora unite tre delle quattro forze fondamentali, cioè l’elettromagnetica, la debole e la forte, mentre la gravità, come vedremo meglio in seguito, si era già separata. A quel tempo, anche le particelle fondamentali della materia dovevano risultare prive della loro individualità. Pertanto, poco dopo l’inizio dei tempi, l’Universo, di dimensioni estremamente ridotte, doveva possedere una struttura altamente simmetrica e indifferenziata, con materia ed energia strettamente amalgamate e distribuite uniformemente al suo interno.

Alla luce della teoria elaborata da Guth, in quelle condizioni l’Universo si sarebbe trovato in uno stato di forte instabilità che viene detto «falso vuoto». Il falso vuoto corrisponderebbe, all’incirca, alla situazione in cui si viene a trovare l’atomo quando alcuni dei suoi elettroni stazionano momentaneamente sulle orbite più esterne. In questo caso si dice che l’atomo è «eccitato» e tende spontaneamente a riportare gli elettroni sulle orbite più interne (quelle a minor contenuto energetico e quindi più stabili); nel far ciò emette energia.

Allo stesso modo, l’Universo nei primi istanti di vita doveva trovarsi in una situazione di equilibrio instabile, cioè eccitata, e la tendenza spontanea sarebbe stata quella di assestarsi in una situazione di minore contenuto energetico e quindi più stabile. Ciò si realizzò nel momento in cui la forza forte si disaccoppiò dalle altre, rompendo definitivamente la simmetria iniziale. Questa operazione liberò un’enorme quantità di energia, che in parte servì a fare espandere l’Universo in modo impressionante e in brevissimo tempo, e in parte si materializzò negli enti fondamentali che costituiscono il Cosmo, cioè nei fermioni e nei bosoni.

L’Universo, grazie alla spinta conseguente alla liberazione dell’energia del falso vuoto, in brevissimo tempo si espanse, raggiungendo dimensioni gigantesche. Guth chiamò questa rapidissima espansione «inflazione» perché, come in economia l’inflazione fa crescere i prezzi in modo esagerato e incontrollato, anche in questo caso si trattò di un evento straordinario e di eccezionale portata. L’Universo, in un lampo (10-32 s), raggiunse infatti le dimensioni di trenta ordini di grandezza superiori a quelle che aveva un attimo prima: fu come se il nucleo di un atomo, in un battibaleno, si fosse dilatato fino a raggiungere le dimensioni di una galassia. Oggi quindi l’Universo sarebbe in espansione non già a seguito del Big Bang, cioè di un tremendo scoppio iniziale, che in realtà non c’è mai stato, ma dell’inflazione, cioè del rigonfiamento gigantesco a cui andò incontro poco dopo la sua comparsa.

Il modello di Universo inflazionario di Guth permette di risolvere brillantemente alcuni degli enigmi che erano stati posti all’inizio, a cominciare da quello riguardante l’orizzonte. Prima dell’espansione inflazionaria, l’Universo era piccolissimo: tutte le sue parti erano in stretto contatto e le fluttuazioni energetiche, che eventualmente si fossero realizzate qua e là, avrebbero avuto tutto il tempo per uniformarsi, e quindi raggiungere la stessa temperatura. Poi l’Universo si espanse con estrema rapidità e le regioni si allontanarono moltissimo fra di loro tanto da non poter più essere collegate dal segnale elettromagnetico. L’Universo però, aveva già acquisita la propria omogeneità in precedenza; ecco perché, nonostante le notevoli dimensioni, esso appare oggi omogeneo ed isotropo in ogni sua parte.

Come conseguenza dell’inflazione si spiegherebbe anche l’apparente piattezza del Cosmo: l’Universo in cui viviamo sembra piatto, cioè privo di curvatura tridimensionale, semplicemente perché siamo in grado di vedere solo una piccolissima porzione di esso. Per farci un’idea concreta di questo fenomeno ricorriamo ad una similitudine di facile comprensione. Saliamo su un pallone da pallacanestro (sfera di una ventina di centimetri di raggio): l’equilibrio è instabile e, sotto i piedi, la curvatura del pallone appare molto pronunciata. Si immagini ora di gonfiare il pallone fino a dilatarne la superficie di un miliardo di volte: esso raggiungerà delle dimensioni che sono un milione di volte inferiori a quelle della Terra (sfera di 6.370 km di raggio), ma la superficie apparirà già abbastanza piatta. Se si gonfia ancora il pallone fino ad espandere la sua superficie di un altro miliardo di volte si raggiungeranno dimensioni mille volte superiori a quelle della Terra e la superficie, sotto i piedi dello sperimentatore, sarà ora decisamente piatta. Ebbene, l’inflazione è stata molto superiore all’espansione di un miliardo di miliardi di volte del nostro esempio; essa fu di migliaia di miliardi di miliardi di miliardi di volte (1030) le dimensioni iniziali dell’Universo. A causa di questa impressionante espansione iniziale l’Universo diventò enorme e noi viviamo in una piccolissima regione di esso, la quale naturalmente ci appare piatta, come appare piatto un campo di calcio pur essendo parte di una superficie curva, che è quella della Terra.

La teoria inflazionistica spiega inoltre l’assenza di rotazione dell’Universo. Infatti, anche se nelle sue prime fasi di vita, quando era di dimensioni ridottissime, l’Universo avesse ruotato, cosa peraltro molto probabile, l’espansione smisurata e rapidissima avrebbe rallentato la rotazione sino a stemperarla ad un livello trascurabile, come avviene alla ballerina quando allarga le braccia per rallentare la sua velocità di rotazione.

Il modello dell’Universo inflazionario è in grado anche di giustificare l’assenza di antimateria. La teoria prevede infatti che la materia di cui era costituito l’Universo nelle sue fasi iniziali fosse diversa da quella che esiste attualmente. Al tempo dell’Universo inflazionario si materializzarono infatti particelle speciali dette X e anti-X. Queste particelle conterrebbero il germe della dissimmetria. Le particelle X e le corrispondenti antiparticelle anti-X sono stabili solo a temperature elevatissime, quelle appunto che si realizzarono poco tempo dopo la nascita dell’Universo. Successivamente, quando la temperatura si abbassò, esse si trasformarono in quark e antiquark, e in leptoni e antileptoni, cioè nelle particelle di cui è costituita la materia ordinaria. Questo decadimento avvenne però in modo tale che si formarono quark e leptoni in numero lievemente superiore a quello degli antiquark e degli antileptoni: si formò cioè un po’ più di materia che di antimateria. Quando in un secondo momento quark e antiquark, leptoni e antileptoni si annichilirono scontrandosi a due a due, rimase naturalmente un eccesso di quark e di leptoni, cioè di materia.

La presenza di una dissimmetria fra materia e antimateria non è mai stata sperimentata direttamente sulla particella X, ma qualche cosa di simile è stato osservato sul mesone KL°. Si è potuto osservare come questa particella violi la simmetria rispetto alla carica (si badi, non rispetto alla massa) decadendo più facilmente in elettroni che in positoni: si conferma in questo modo che in natura esiste una generica tendenza alla dissimmetria.

 

L’UNIVERSO EMERGE DAL NULLA

Ora non rimane che compiere l’atto supremo: spiegare l’origine vera e propria dell’Universo. E’ chiaro, a questo punto, che se vogliamo rimanere all’interno di un discorso rigorosamente scientifico dobbiamo immaginare che l’Universo sia sorto senza effetti miracolosi o l’intervento divino. Ma da dove avrebbe potuto venire fuori l’Universo se esso, per definizione, è tutto ciò che esiste? Il fisico-matematico di origine inglese, Stephen Hawking, una delle massime autorità del settore, sostiene che è possibile immaginare una creazione di materia e di energia dal nulla, senza che con ciò siano violate le leggi della fisica.

Hawking è un personaggio straordinario che da più di vent’anni è costretto a vivere su una sedia a rotelle a causa di una malattia neurologica, che lo ha praticamente paralizzato. Nonostante le precarie condizioni di salute, Hawking lavora tuttavia con grande impegno e a Cambridge occupa la cattedra di matematica che fu di Newton. Lo sfortunato scienziato (ma lui, nonostante tutto, si ritiene fortunato) è divenuto noto al grande pubblico dopo la pubblicazione del libro «Dal Big Bang ai buchi neri» che tratta appunto di questo argomento.

I buchi neri sono dei corpi celesti (quindi tutt’altro che buchi) nei quali la materia è talmente concentrata e, di conseguenza, la forza di gravità talmente intensa, che nulla può sfuggire da essi, nemmeno un fotone; per questo motivo appaiono neri. Così almeno si pensava un tempo.

Di recente, però, Hawking fece notare che se ci si ponesse sul bordo di un buco nero, si potrebbe osservare una singola particella elementare (per esempio un elettrone), apparire ora all’interno di esso, ora all’esterno. Esiste infatti un principio, che è una derivazione diretta della Meccanica Quantistica, il quale asserisce che non è possibile determinare con precisione e contemporaneamente la posizione e gli spostamenti di una particella di piccole dimensioni: se si determina con precisione la posizione, risulta poi molto imprecisa la determinazione della velocità, e viceversa.

Il principio di cui si parla fu formulato dal fisico tedesco W. Heisenberg e prende il nome di «principio di indeterminazione». Esso asserisce che in natura non esistono leggi così ferree da non poter essere violate in nessun caso. Perfino la forza di gravità che è la forza che agisce rigorosamente sui corpi vincolandoli fra loro, potrebbe, in qualche caso, venire disattesa.

Pertanto in una regione di spazio molto particolare (come sarebbe appunto il bordo di un buco nero) e in una frazione di tempo ridottissima, le leggi della gravità, per una particella molto leggera (per esempio un elettrone) potrebbero non valere, e quella particella potrebbe trovarsi in una zona “proibita”, ad esempio, fuori dal buco nero, vincendo la forza di gravità che la vorrebbe trattenere all’interno.

Ora, come una particella del tipo dell’elettrone o del fotone potrebbe comparire all’improvviso in un luogo dove, secondo le leggi classiche della fisica, non dovrebbe trovarsi, allo stesso modo il nostro Universo primordiale, il quale al momento della nascita doveva essere fra l’altro di dimensioni molto più piccole di quelle delle attuali particelle subatomiche, potrebbe benissimo essere comparso dal nulla senza violare le leggi della Meccanica Quantistica.

Tuttavia, anche ammettendo la comparsa dell’Universo dal nulla sotto forma di particella quantistica, nella frazione di secondo che va dal tempo t=0 al tempo t=10-43 s, esso avrebbe comunque vissuto una fase misteriosa, detta «Era quantistica» o «Era di Plank» (dal nome del fisico che viene considerato il padre della Meccanica Quantistica) della quale non siamo in grado di descrivere lo stato nemmeno teoricamente. I fisici non sono infatti nelle condizioni di dire ciò che potrebbe essere accaduto in quel piccolo intervallo di tempo perché non possiedono una teoria che consenta loro di descrivere il comportamento della materia in quel particolare stato fisico. Per far ciò servirebbe infatti una teoria della Relatività Generale quantistica, cioè una teoria che descriva la forza di gravità secondo le regole della Meccanica Quantistica, ma nessuno finora è riuscito a mettere insieme una teoria del genere.

Tuttavia, alcune ipotesi, per la verità ancora molto incerte e incomplete, sono state di recente sottoposte all’attenzione degli esperti. Una di queste afferma che a temperature superiori a 1032 K (centinaia di migliaia di miliardi di miliardi di miliardi di gradi) anche la forza di gravità dovrebbe risultare unita alle altre per formare un’unica forza detta «supergravità». Queste temperature sarebbero proprio quelle possedute dall’Universo nell’era di Plank, cioè nei primi 10-43 s della sua esistenza. In quella fase iniziale tutti gli enti fondamentali della natura cioè spazio, tempo, forze e particelle, non avevano ancora acquistato la loro individualità e costituivano un’unica struttura indifferenziata. La teoria, per ora solo abbozzata, prende il nome di «Teoria del Tutto» (Teory of everything = Toe), o Teoria delle Superstringhe e, come abbiamo accennato, rappresenterebbe il legame fra la teoria della Relatività Generale e quella della Meccanica Quantistica.

Secondo questa teoria la supergravità di quei tempi lontani avrebbe agito all’interno di uno spazio a undici dimensioni, anziché a quattro come è attualmente. Quando l’Universo in seguito si espanse e si raffreddò, esso si sarebbe esteso su solo quattro delle undici dimensioni iniziali, mentre le rimanenti sette sarebbero rimaste compattate, arrotolate cioè su sé stesse e totalmente invisibili. Queste dimensioni compattate sono dette superstringhe e, per quanto la cosa possa apparire incredibile, esse sarebbero presenti ancora oggi ed esisterebbe perfino la possibilità di renderle evidenti attraverso l’osservazione di particolari fenomeni celesti.

Per concludere possiamo dire che i fisici ritengono che l’Universo intero possa essere scaturito dal nulla, o meglio, dal vuoto quantistico, perché esisterebbe un principio fondamentale di natura che potremmo chiamare «principio di casualità» o «principio di imprevedibilità» secondo il quale il nulla in assoluto non esisterebbe. Anche quando non vi fosse materia, non vi fosse energia, non vi fosse né tempo, né spazio, sussisterebbe tuttavia una diffusa e astratta “potenzialità”, la possibilità cioè che all’improvviso e senza motivo possa comparire qualche cosa dal nulla. Il nulla, all’interno della teoria quantistica, non deve quindi essere ritenuto assenza di ogni cosa, ma piuttosto una “condizione particolare” del Cosmo, un ambito privo di spazio e di tempo, in cui potrebbe succedere un evento improvviso e imprevedibile, come ad esempio la comparsa di una particella elementare.

La particella (assieme alla sua antiparticella) che appare dal nulla, subito dopo deve però scomparire, perché altrimenti verrebbe violata la legge di conservazione, una legge fondamentale della fisica la quale afferma che nulla può essere creato dal nulla e nulla può svanire nel nulla. Le particelle che vivono frazioni irrilevanti di tempo e che scompaiono prima che sia possibile verificarne la presenza, sono dette “virtuali”, per distinguerle da quelle che hanno vita più lunga, che sono dette “reali”.

Anche il nostro Universo, al momento della sua comparsa, potrebbe essere assimilato ad una particella di dimensioni estremamente esigue piena di qualcosa che non siamo in grado di specificare, ma che possiamo immaginare come un concentrato di energia potenziale, assolutamente indifferenziata e quindi priva di struttura. Il corpuscolo costituente il nostro Universo primordiale, subito dopo l’apparizione, sarebbe dovuto scomparire insieme all’Antiuniverso, apparso insieme ad esso, e in verità lo avrà anche fatto, ma immediatamente dopo ne sarebbe comparso un altro, per scomparire a sua volta, e così di seguito fino a quando, a causa delle fluttuazioni quantistiche del vuoto, la supersimmetria di cui la particella primordiale era dotata, non si fosse spezzata per lo svincolamento della forza di gravità dalle altre a cui era legata liberando dell’energia. L’Universo avrebbe allora preso l’avvio e la sua evoluzione non si sarebbe più arrestata.   

Dopo questo primo evento traumatico, prevedono le teorie di Grande Unificazione, l’Universo si sarebbe trovato in una situazione di grande instabilità, quella che abbiamo chiamato «falso vuoto», che avrebbe causato un secondo trauma di proporzioni colossali, vale a dire l’inflazione prevista dal modello di Guth. Dopo la gigantesca espansione inflattiva, l’Universo, sotto l’effetto della forza di gravità, avrebbe quindi frenato il suo slancio e avrebbe proseguito ad espandersi al ritmo che attualmente possiamo osservare.

Secondo le più recenti teorie la nascita del nostro Universo avrebbe quindi rappresentato un evento fortuito, e anche la sua successiva evoluzione sarebbe stato un fatto imprevisto che alla fine ci ha portato a vivere in un mondo che i fisici definiscono un «prodotto del caso».

 

LE ULTIME OSSERVAZIONI

Come abbiamo visto, la comprensione dell’origine e dell’evoluzione dell’Universo si è basata su quattro osservazioni principali. La prima è stata l’oscurità del cielo notturno; la seconda le abbondanze relative dell’elio e del deuterio; la terza l’espansione dell’Universo; la quarta la scoperta della radiazione di fondo a 3 K. Di recente è stato aggiunto un altro tassello all’interpretazione scientifica dell’evoluzione cosmica grazie ai dati forniti da uno strumento molto sofisticato, il radiometro differenziale per microonde (DMR), installato a bordo del COBE (Cosmic Background Explorer), un satellite messo in orbita dalla NASA, l’ente spaziale americano, nel novembre del 1989.

L’annuncio formale della nuova scoperta fu dato il 23 aprile del 1992 dal fisico americano George Smoot, ricercatore presso il Lawrence Berkeley Laboratory, in California. Si tratta della individuazione di piccole variazioni della debole radiazione di fondo a 3 K. Questa radiazione che, come si ricorderà, pervade l’Universo in ogni sua parte, aveva la caratteristica di essere omogenea e isotropa entro un altissimo grado di precisione. Ora si sono scoperti invece piccoli scompensi che testimonierebbero di una situazione primordiale dell’Universo non totalmente omogenea.

L’Universo, attualmente, come è facile verificare, non è per niente uniforme e omogeneo perché, oltre alle stelle e ai pianeti, vi sono in esso altri addensamenti di materia, come le galassie, gli ammassi di galassie, e tutta una serie di complicate strutture su grande scala. Come si sono formati questi addensamenti di materia?

Ebbene, mentre è facile spiegare la formazione di stelle e pianeti ricorrendo ad un processo che prende il nome di «collasso gravitazionale», lo stesso meccanismo fisico non è direttamente applicabile alla formazione delle galassie, degli ammassi e delle strutture di maggiori dimensioni. Si sapeva fin dai tempi di Newton che se in una distribuzione di materia perfettamente uniforme e omogenea si fosse venuto a formare, per un motivo qualsiasi, un germe di disomogeneità esso si sarebbe accresciuto rapidamente raccogliendo in sé materia dalle regioni circostanti meno dense. Stelle e pianeti si formano all’interno di galassie dove non è difficile immaginare onde d’urto provocate dalla esplosione di supernovae, vortici di materia prodotti da squilibri termici conseguenti a depressioni originatisi dalla rotazione stessa della galassia intorno al proprio asse o altri fenomeni capaci di generare addensamenti di materia dai quali potrebbero prendere avvio nuovi corpi celesti. Se ora, però, si volesse applicare lo stesso processo per giustificare l’origine delle galassie e degli ammassi di galassie non sapremmo individuare un meccanismo in grado di provocare addensamenti di materia all’interno di un tessuto omogeneo primordiale e non rimarrebbe quindi che ammettere la presenza di piccole disomogeneità di materia già dal bell’inizio dei tempi.

Ma, all’inizio dei tempi, tutta la materia sembrava distribuita in modo uniforme come testimoniava la radiazione di fondo a 3 K la quale presentava lo stesso valore in ogni punto dell’Universo. Solo di recente tuttavia si è ottenuta la prova che le disomogeneità esistevano realmente e che solo una misurazione molto accurata avrebbe potuto evidenziarle. Il COBE portava a bordo strumenti molto raffinati in grado di cogliere misure molto precise della temperatura delle diverse zone del cielo. E’ evidente che qualora la distribuzione della materia non fosse stata identica in ogni luogo, l’interazione dei fotoni con le particelle sarebbe stata diversa da luogo a luogo e la radiazione di fondo avrebbe presentato delle variazioni di intensità corrispondenti a variazioni di temperatura. Un maggiore addensamento di materia in una determinata regione dell’Universo avrebbe comportato, in quel punto, una maggiore attrazione gravitazionale che avrebbe strappato energia ai fotoni i quali, indeboliti, avrebbero fatto apparire quella regione relativamente più fredda rispetto al resto. Viceversa, gli spazi più rarefatti avrebbero dovuto presentarsi più caldi. Ebbene le apparecchiature installate sul COBE riuscirono a rilevare una serie di “macchie” a temperatura variabile nello spettro della radiazione di fondo a microonde.

I dati forniti dal COBE non solo hanno salvato il modello del Big Bang fornendo la soluzione relativa alla formazione delle galassie e degli ammassi in un tessuto che sembrava privo di disomogeneità, ma hanno anche rafforzato la teoria dell’Universo inflazionario. La mappa delle temperature rilevate dal COBE mostra infatti macchie di dimensioni enormi incompatibili con ciò che si osserva attualmente, ma perfettamente inquadrabili in uno spazio straordinariamente dilatato in seguito all’espansione ultrarapida e ultrabreve che, secondo la teoria dell’inflazione, avrebbe avuto luogo nel primo istante della creazione dell’Universo. Una fluttuazione di piccola entità, all’inizio dell’inflazione, sarebbe stata ampliata dall’inflazione stessa fino a farle raggiungere dimensioni enormi, mentre una fluttuazione di piccola entità, generata subito dopo l’espansione non avrebbe più avuto modo di accrescersi. A queste disomogeneità del tessuto primordiale corrispondono attualmente la distribuzione delle galassie, degli ammassi, dei superammassi nonché strutture ancora più grandi come il Grande Attrattore, la massiccia fonte gravitazionale che attrae con gran forza la nostra galassia insieme a tutte le altre che le stanno intorno.

Prof. Antonio Vecchia

Reply