Modelli di Universo

Parte I

L’uomo per secoli ha ritenuto che l’Universo fosse fisso ed
immutabile e solo di recente si è convinto che invece
anch’esso può avere avuto una sua evoluzione.

 

La teoria della Relatività Generale di Albert Einstein (1916) ha rappresentato il fondamento della cosmologia moderna, ma i progressi maggiori nella comprensione della conformazione generale dell’Universo e della sua evoluzione si sono avuti solo negli ultimi due decenni del secolo scorso, grazie soprattutto alle nuove conoscenze sulla struttura intima della materia e sulle proprietà delle forze. Queste nuove acquisizioni hanno consentito non solo una descrizione più precisa e dettagliata dell’Universo nel suo insieme, ma anche, per la prima volta, una spiegazione rigorosamente scientifica della sua origine vera e propria.

La Relatività Generale è sostanzialmente una teoria che interpreta la gravità in modo nuovo, e cioè non più come una forza misteriosa che agisce a distanza fra corpi massicci, ma come una proprietà dello spazio, il quale risulterebbe deformato per la presenza in esso della materia. Lo spazio, pertanto, alla luce della nuova teoria, non sarebbe più quel contenitore vuoto e inerte entro il quale agiscono gli oggetti materiali, ma diventerebbe esso stesso un prodotto della materia. In altre parole se prima di Einstein lo spazio poteva esistere anche senza la materia dopo Einstein, se non ci fosse la materia, non esisterebbe nemmeno lo spazio.

Per farsi un’idea concreta della nuova teoria si può immaginare lo spazio rappresentato da un materasso di gommapiuma, sul quale siano stati posti alcuni oggetti massicci che, con il loro peso, provocano delle depressioni entro le quali tendono a scivolare gli oggetti vicini. Quindi l’attrazione tra gli oggetti non è prodotta da forze che agiscono a distanza e istantaneamente, come pensava Newton, ma è semplicemente la conseguenza di una particolare configurazione che lo spazio assume a causa della presenza in esso di oggetti massicci.

Ora però, se lo spazio tridimensionale tende spontaneamente ad incurvarsi, esso dovrebbe disporre di una quarta dimensione entro cui poterlo fare, così come un piano bidimensionale, per esempio un foglio di carta, ha bisogno di una terza dimensione per potersi ripiegare. Da qui nasce l’esigenza di individuare una quarta dimensione da aggiungere alle tre di cui abbiamo esperienza diretta. Einstein pensò al tempo, ma non ad esso in quanto tale, bensì al tempo come vera e propria dimensione spaziale. Questa quarta dimensione tuttavia differisce dalle altre in quanto è caratterizzata da un’unica direzione: essa va solo in avanti.

Ora, avendo sostituito al concetto di forza quello di spazio deformato, Einstein venne in possesso di tutto ciò che era necessario per descrivere l’Universo nella sua globalità. Se la materia distorce localmente lo spazio – egli ragionò – non è da escludere che la stessa, nel suo insieme, non possa conferire una curvatura generale all’Universo intero, determinandone l’aspetto. In questo modo il fisico tedesco pervenne al suo modello di Universo curvo quadridimensionale, una struttura che sfugge tuttavia alla nostra capacità di visualizzazione. Un’immagine bidimensionale può però servire a rappresentare in modo intuitivo le caratteristiche del modello einsteiniano di Universo.

Pensiamo allora ad un Universo piatto ma curvo, come è ad esempio la superficie terrestre, su cui possa muoversi una formica che, per le ridotte dimensioni, possiamo anch’essa immaginare piatta. La nostra formica bidimensionale potrà muoversi in ogni direzione, tornare a percorrere cammini già percorsi e fare eventualmente anche il giro completo della Terra senza incontrare mai ostacoli o cadere nel vuoto. Da questo punto di vista, la superficie della Terra è illimitata, ma nello stesso tempo finita perché, per quanto grande (soprattutto per la formica), è pur sempre misurabile. Allo stesso modo l’Universo a quattro dimensioni, che scaturisce dalla teoria della Relatività Generale, è illimitato e finito, potrebbe cioè essere percorso in tutte le direzioni senza mai incontrare barriere o confini, e tuttavia avere dimensioni misurabili, anche se enormi.

Einstein, tuttavia, era condizionato dal pregiudizio che l’Universo fosse fisso ed immutabile. Questo convincimento affondava le sue radici nei tempi più antichi e lo stesso Newton ne fu vittima quando, per impedire che l’attrazione reciproca delle masse presenti in esso potesse condurre ad un collasso generale, fu costretto ad ammettere una distesa indefinita di stelle in modo che ciascuna di esse fosse attratta da tutte le parti da infinite altre. Anche le equazioni conseguenti alla teoria della Relatività Generale descrivevano in termini matematici l’attrazione reciproca dei corpi, cioè sostanzialmente un movimento di contrazione, e pertanto Einstein, per fare in modo che l’Universo intero non precipitasse su sé stesso, inserì nei calcoli un termine ad hoc, la cosiddetta «costante cosmologica», con il ruolo di forza antigravitazionale. Questa avrebbe dovuto assolvere lo stesso ruolo che, nel modello di Newton, svolgeva la presenza di un numero infinito di stelle. Di questo aggiustamento il fisico tedesco dovrà però pentirsi.

Frattanto, nonostante i pregiudizi e le apparenze contrarie, si andava facendo strada il convincimento che l’Universo non fosse fisso, immutabile ed eterno, ma che si andasse evolvendo nel tempo. E infatti, proprio nello stesso anno in cui Einstein prospettava il suo modello di Universo statico (siamo nel 1917) un astronomo olandese, di nome Willem de Sitter, dimostrò che una soluzione delle equazioni della Relatività Generale suggeriva la possibilità di un Universo in espansione. Poco più tardi, il fisico e matematico russo Aleksandr Fridmann chiarì che le equazioni di Einstein conducevano, in modo spontaneo, ad una struttura inequivocabilmente instabile di Universo come potrebbe essere ad esempio quella di una matita in equilibrio sulla punta.

Infine, nel 1927, il prete-scienziato di nazionalità belga Georges Lemaître, sempre servendosi della stessa teoria di Einstein, non solo rilanciò l’idea di un Universo in espansione, ma si spinse ben oltre immaginandone l’origine da un «atomo primordiale», cioè da un gigantesco ammasso di densità elevatissima che avrebbe dovuto racchiudere in sé, all’inizio dei tempi, tutta la materia e tutta l’energia che oggi è distribuita nelle stelle e negli spazi interstellari. Raccogliendo e comprimendo tutta la materia sparsa nell’Universo, egli calcolò che si sarebbe formato un corpo compatto grande quanto il Sistema solare.

I modelli teorici, tuttavia, non sono sufficienti da soli a fornire una visione completa dei fenomeni naturali: nella scienza servono anche, e soprattutto, i riscontri oggettivi che, anche in questo caso, non tardarono a venire.

 

Parte II

L’osservazione del moto radiale delle Galassie dimostra,
in pieno accordo con le teorie di Einstein,
l’espansione dinamica dell’Universo.

 

Nel 1929 l’astronomo americano Edwin Hubble (1889-1953), utilizzando il più grande telescopio di quel tempo, il riflettore di due metri e mezzo di Monte Wilson, in California, osservò lo «spostamento verso il rosso» (il famoso red shift) delle righe spettrali delle galassie. Questo fenomeno, interpretato come «effetto Doppler» per la luce, costituiva la prova che quegli ammassi di stelle si stanno allontanando da noi. Hubble notò anche che quanto maggiore era la distanza di una galassia, tanto maggiore era la sua velocità di allontanamento. Questa relazione lineare fra distanza e velocità delle galassie oggi si chiama “legge di Hubble” e può essere espressa nel modo seguente: V = H·d, dove V è la velocità di allontanamento della galassia, d la sua distanza e H una costante di proporzionalità il cui valore ha subito nel tempo numerose correzioni e aggiustamenti. Oggi H vale circa 50 km/s per milione di parsec corrispondente a 17 kilometri al secondo per milione di anni luce. Questo significa che una galassia che si trovasse ad un milione di anni luce da noi si allontanerebbe alla velocità di 17 kilometri al secondo, mentre una che si trovasse a 1 miliardo di anni luce da noi si allontanerebbe alla velocità di 17.000 km al secondo. Ora, poiché il fondo dell’Universo dovrebbe stare a circa 15 – 16 miliardi di anni luce, una galassia che si trovasse da quelle parti non la si vedrebbe perché si allontanerebbe alla velocità di circa 300.000 km al secondo, cioè alla stessa velocità della luce, luce che quindi non potrebbe staccarsi da quella galassia.

L’allontanamento di tutte le galassie non significa necessariamente che noi, con la nostra, ci troviamo in posizione centrale (la visione di questo allontanamento sarebbe infatti identica in qualunque punto dello spazio ci si ponesse), né che le galassie si stanno muovendo attraverso gli spazi. Per farci un’idea concreta del fenomeno bisogna pensare alle galassie come si trattasse di acini di uvetta passa dentro un panettone che sta lievitando: su qualsiasi acino si fissasse l’attenzione si vedrebbero tutti gli altri intorno che si allontanano da esso. Inoltre, pur spostandosi reciprocamente, gli acini di uva passa non viaggiano attraverso l’impasto, ma il loro movimento è determinato semplicemente dall’espandersi della pasta che lievita, cioè da quello che nella similitudine consideriamo essere lo spazio.

In seguito all’osservazione dell’allontanamento delle galassie lo stesso Einstein accettò l’idea di un Universo in espansione e riconobbe di aver commesso l’errore più grave della sua carriera scientifica quando cercò di modificare le equazioni della sua teoria (con l’introduzione del termine cosmologico) al fine di fornire un modello di Universo statico.

Dalla valutazione delle distanze delle galassie, delle loro velocità di allontanamento e del tasso di decelerazione conseguente all’attrazione gravitazionale prodotta dagli stessi corpi celesti, gli astronomi riuscirono anche a determinare il tempo trascorso dall’epoca in cui gli ammassi di stelle dovevano essere tutti molto vicini tra loro. Quel tempo venne calcolato in circa 15 miliardi di anni, e rappresenterebbe per l’appunto l’età dell’Universo.

Nel 1948 il fisico russo George Gamow (allievo di Aleksandr Fridmann), rifugiatosi per motivi politici in Europa, e successivamente trasferitosi negli Stati Uniti, modernizzò e perfezionò la teoria dell’Universo in espansione di Lemaître, che in seguito prese il nome di «modello del Big Bang», cioè del grande botto, un appellativo che gli fu assegnato in termini scherzosi dall’astronomo inglese Fred Hoyle (1915-2001) per mettere in ridicolo la teoria che lui riteneva inconsistente. Il termine invece piacque ai suoi sostenitori, venne divulgato e finì per perdere la connotazione negativa con la quale era stato proposto.

Gamow rappresenta il classico esempio di genio e sregolatezza. Egli fu uno studioso attivo in vari campi del sapere scientifico (fra l’altro fu colui che per primo intuì l’importanza biologica del DNA e ne suggerì anche la forma), oltre che un apprezzato divulgatore. Morì prematuramente, per gli eccessi dell’alcol, lasciando in molti il convincimento che fosse stato defraudato, in più occasioni, del premio Nobel. Una di queste si riferisce alla scoperta della radiazione di fondo di 3 K da parte di due tecnici dei Bell Telephone Laboratories (la società privata americana dei telefoni), Arno Penzias e Robert Wilson, nel 1965.

L’esistenza di una tale radiazione, che doveva rappresentare il residuo raffreddato di quello che era stato il globo di fuoco dell’esplosione iniziale, era stata suggerita, molto tempo prima, dallo stesso Gamow, come effetto della continua espansione e del conseguente lento e graduale raffreddamento dell’Universo. Secondo il modello del Big Bang, insieme con l’espansione dello spazio, avrebbe dovuto dilatarsi anche l’onda elettromagnetica, la quale, nei primi istanti di vita dell’Universo doveva essere cortissima e carica di energia, ma l’espansione la rese più lunga fino a farla diventare pari a quella che emergerebbe da un corpo molto freddo (per l’appunto alla temperatura di 3 gradi assoluti, cioè 270 °C sotto zero). Ma di ciò non venne mai fatto cenno nelle relazioni che seguirono alle osservazioni dei due tecnici americani.

L’Universo non esisterebbe quindi da sempre, ma sarebbe il risultato di una enorme esplosione avvenuta all’incirca 15 miliardi di anni fa. Il modello del Big Bang, suggerito da Gamow, è in grado tuttavia di descrivere, in modo soddisfacente, l’evoluzione dell’Universo solo da un certo momento in poi, e non fin dal suo primo istante di vita. Cerchiamo di spiegarne la ragione.

Il modello di Gamow è detto classico (o standard) in quanto si fonda sulle leggi della fisica classica, cioè su leggi che riguardano i fenomeni macroscopici della natura e che quindi non sono in grado di descrivere l’aspetto dell’Universo fin dall’atto della sua creazione, quando, verosimilmente, doveva essere molto piccolo e caratterizzato da materia in condizioni fisiche molto particolari.

In verità è lo stesso modello proposto da Gamow a suggerire che, all’atto della sua formazione, l’Universo doveva possedere un aspetto fisico del tutto eccezionale, con la materia tutta concentrata in uno spazio esiguo e sottoposta a temperature elevatissime. Per descrivere il comportamento della materia in quelle condizioni estreme sarebbe fuorviante fare ricorso alle leggi della fisica classica, perché quelle leggi perdono di validità quando vengono applicate a situazioni diverse da quelle entro le quali sono state ricavate.

Ma gli astronomi, nonostante tutte le difficoltà di carattere concettuale, non si arresero davanti all’evidenza e tentarono comunque di spingersi indietro nel tempo fino al momento della creazione dell’Universo, per cercare di capire come questa avrebbe potuto aver luogo. Che cosa poteva essere accaduto nell’istante stesso del Big Bang? Che forma e che consistenza avrebbe dovuto avere l’Universo nel suo stato iniziale? Che cosa eventualmente vi fu prima di tale evento?

Tutte domande molto impegnative, ma anche molto affascinanti e per le quali, in un primo tempo, sembrava non dovessero esserci risposte adeguate. Oggi però esiste la possibilità, senza scivolare nella metafisica, di rispondere anche a domande di questo tipo. I fisici dispongono infatti di nuove teorie, le quali descrivono con rigore il mondo microscopico degli atomi e delle particelle subatomiche.

 

Parte III

All’inizio dei tempi l’Universo doveva essere di dimensioni ridottissime
e quindi non poteva obbedire alle leggi della fisica classica, che sono leggi
adatte a descrivere fenomeni macroscopici della natura.
Solo di recente si è compreso che la meccanica quantistica,
una teoria che spiega i fenomeni relativi agli oggetti infinitamente piccoli,
poteva essere utilmente applicata all’Universo primordiale.

 

In base al modello standard del Big Bang, all’atto della sua “creazione”, cioè al tempo zero, l’Universo avrebbe dovuto avere tutta la materia concentrata in un punto privo di dimensioni. Questa entità di estensione nulla, avrebbe dovuto essere nello stesso tempo infinitamente pesante e infinitamente calda: una situazione, come è facile capire, assurda, perché in natura nulla può essere ridotto a zero come nulla può essere ingrandito fino a fargli assumere dimensioni infinite. In realtà, questa particolare condizione dell’Universo primordiale era stata ricavata per via puramente matematica e non aveva quindi una sua consistenza fisica. Essa venne detta «singolarità», con chiaro riferimento alle sue caratteristiche di unicità.

I fisici teorici di nazionalità inglese Roger Penrose (1931- ) e Stephen Hawking (1942- ) hanno dimostrato che la soluzione delle equazioni di Einstein porta inequivocabilmente a tale risultato. Ma come è possibile, ci si chiese, immaginare un oggetto di dimensioni nulle e, contemporaneamente, di densità infinita? La risposta l’abbiamo già data: non è possibile! Tuttavia ciò non vuole dire affatto che di un argomento del genere non si possa discutere al fine di individuare una eventuale soluzione del problema: vuol dire semplicemente che il modello standard del Big Bang è inadeguato quando lo si voglia utilizzare per descrivere l’origine vera e propria dell’Universo.

Ben lungi dal disarmare di fronte a difficoltà concettuali, i fisici hanno invece considerato, quello della singolarità, un problema stimolante che aveva bisogno, per essere risolto, di idee originali e coraggiose. E in effetti le risposte appropriate e scientificamente corrette vennero fornite, alla fine, da una teoria, la meccanica quantistica, che era stata ideata già all’inizio del Novecento dal fisico tedesco Max Planck (1858-1947), ma che, prima di allora mai nessuno aveva pensato di utilizzare per spiegare l’origine dell’Universo.

Planck scoprì, non senza stupore, che un corpo radiante, come potrebbe essere ad esempio il filo incandescente di una lampadina, emetteva energia in quantità discrete e non con flusso continuo e graduale come suggeriva la teoria di quel tempo. La luce infatti, e tutta la radiazione elettromagnetica in genere, quindi anche le onde radio, i raggi X, le microonde e così via, era interpretata, con piena soddisfazione di tutti, come si trattasse di un fenomeno ondulatorio. Ora però Planck scopriva che, in alcuni casi, una tale teoria non poteva essere accettata, perché la radiazione mostrava un comportamento particellare, quindi antitetico a quello ondulatorio. I corpuscoli di energia a cui Planck dette il nome di «quanti», furono in seguito ribattezzati «fotoni» da Einstein.

Poco tempo dopo, un giovane aristocratico francese, con lontane origini italiane, certo Louis Victor de Broglie, morto nel 1987 alla bella età di 95 anni, ipotizzò nella sua tesi di laurea che, se la radiazione elettromagnetica si comportava in duplice modo (cioè come onda e come particella), anche gli oggetti materiali, e in particolare gli elettroni, forse possedevano la doppia natura. In effetti gli esperimenti dimostrarono in modo inequivocabile che gli elettroni, oltre al normale comportamento particellare, presentano anche quello ondulatorio. In seguito fu osservata la natura ondulatoria di altre particelle materiali, ma sempre di piccole dimensioni.

Nasceva in questo modo un dualismo onda-corpuscolo sia della radiazione, sia della materia ed essa metteva in luce come le teorie, impiegate per spiegare i fenomeni del mondo macroscopico, non potevano essere utilizzate per interpretare anche i fenomeni del mondo microscopico. Il comportamento duplice, ora da corpuscolo ora da onda delle particelle subatomiche, appariva infatti del tutto diverso da quello degli oggetti macroscopici, i quali non si comportano mai in modo ambiguo: un’entità macroscopica, ad esempio una palla da tennis, si comporta sempre come corpo materiale e mai come onda, e d’altra parte l’onda del mare non appare mai con le sembianze di un pallone. Questa osservazione dimostrava che mentre per interpretare i fenomeni macroscopici erano pienamente funzionali le teorie note, per spiegare il comportamento dei costituenti ultimi della materia si rendeva necessaria la formulazione di una nuova teoria. La diversità fra gli oggetti macroscopici e le entità più recondite della materia tuttavia non risiedeva semplicemente nelle dimensioni estremamente ridotte di queste ultime, ma in qualche cosa di più profondo ed essenziale che coinvolgeva la loro stessa natura. Le entità microscopiche della materia dovevano possedere, in altre parole, una natura tutta particolare, e molto diversa da quella dei corpi del mondo ordinario che appaiono ai nostri sensi duri, compatti e di forma definita.

La nuova teoria prenderà il nome di «meccanica quantistica» e sarà una teoria prettamente matematica. Dovendo infatti rinunciare, per i motivi che abbiamo appena esposto, alla possibilità di una rappresentazione visiva concreta di entità che a volte si comportano come onde, a volte come corpuscoli, la teoria si vedrà costretta a ripiegare sulla loro descrizione espressa nei simboli del linguaggio matematico astratto. La meccanica quantistica è infatti una teoria statistica che descrive le particelle atomiche in termini probabilistici.

A differenza però di altre discipline che si fondano anch’esse su metodi di analisi statistica, come per esempio quelle inerenti a problemi demografici o a quelli economici, la natura probabilistica della teoria quantomeccanica non è dovuta alla scarsa conoscenza dei particolari, ma, come abbiamo appena detto, alla specifica natura della materia stessa che non si lascia indagare nel suo profondo. In altre parole, per quanto riguarda le particelle ultime della materia, la conoscenza dei dettagli non sarebbe possibile nemmeno teoricamente. Questa constatazione condurrà al cosiddetto «principio di indeterminazione» formalizzato dal fisico tedesco Werner Heisenberg (1901-1976).

Affinché un oggetto possa essere studiato in termini scientifici, esso deve poter essere misurato. Quindi, da un punto di vista scientifico, per conoscere è necessario misurare: se non si può misurare non si può nemmeno conoscere. In verità non è sempre indispensabile eseguire materialmente la misurazione: difficoltà tecniche potrebbero rendere impossibile l’operazione. E’ necessario però che la misura stessa sia, almeno concettualmente, fattibile: per fare un esempio, è possibile immaginare di determinare il numero delle stelle presenti nella galassia di Andromeda, o camminare su Marte, anche se in pratica nessuno lo ha mai fatto. Ma non è possibile immaginare di viaggiare a velocità doppia della velocità della luce, o di dividere in due l’elettrone, perché rigorose leggi fisiche lo proibiscono.

A parte i limiti dettati dalle leggi fisiche che non possono essere violate, esiste tuttavia anche un principio di natura che impone delle restrizioni alla possibilità di cogliere, anche solo teoricamente, il valore esatto di una grandezza fisica. Questo è quanto afferma il principio di indeterminazione, a cui si è fatto cenno in precedenza. Cercheremo di capire nel prossimo numero quali potrebbero essere le conseguenze di una tale limitazione.

 

Parte IV

Recentemente i fisici hanno tentato d’indagare la natura
dell’Universo con l’ausilio della fisica quantistica

alla luce della quale 
non è per nulla assurdo immaginare
un Universo che si sia formato spontaneamente dal nulla.

 

Il principio di indeterminazione di Heisenberg, con il quale ci siamo lasciati nel numero precedente, afferma che non è possibile ottenere informazioni dirette (nemmeno in linea di principio) da oggetti di dimensioni molto piccole, a causa della particolare natura della materia. In conseguenza di queste limitazioni non è quindi nemmeno possibile immaginare la consistenza e le dimensioni dell’Universo all’atto della sua creazione, qualora lo stesso fosse effettivamente scaturito da una singolarità. Prima di vedere se esiste una possibilità alternativa, è necessaria una premessa di carattere generale.

Immaginiamo di trovarci nella necessità di dover estrarre delle informazioni dall’interno di uno spazio molto ristretto e di doverlo fare entro un tempo definito. Prima di azzardare una risposta dobbiamo chiederci se esiste eventualmente un limite alle dimensioni dello spazio e dell’intervallo temporale, o se le due grandezze possono essere ridotte di dimensione quanto si vuole. Ebbene, questo limite effettivamente esiste. Infatti, affinché da un luogo di esigue dimensioni possa uscire un’informazione di qualsiasi tipo, bisogna che in esso vi sia spazio sufficiente per contenere una certa quantità di energia, la quale, a sua volta, per poter portare con sé l’informazione, dovrebbe emergere da quel luogo e colpire il nostro occhio o un qualsiasi altro apparecchio rilevatore.

Il segnale che affiora dal nostro ambiente di dimensioni anguste, per quanto lo si possa immaginare rapidissimo, non potrà certo essere di durata nulla, altrimenti il segnale stesso non esisterebbe affatto. Se si trattasse ad esempio di un segnale luminoso, esso dovrebbe durare almeno il tempo sufficiente per permettere all’energia elettromagnetica, che lo caratterizza, di compiere un’oscillazione completa, cioè il tempo necessario per il formarsi di una singola onda; questo è un tempo indubbiamente molto breve, ma non nullo. Inoltre, si intuisce facilmente che, se l’onda è lunga, ci vuole più tempo perché si formi, se l’onda è corta, ci vuole meno tempo.

Ora si può dimostrare che quanto più corta è l’onda relativa ad un determinato segnale elettromagnetico, tanto maggiore è l’energia in essa contenuta, e quanto più lunga è l’onda tanto minore è l’energia posseduta: energia e lunghezza dell’onda che la trasporta sono quindi grandezze inversamente proporzionali. Per fare un esempio concreto si pensi ad una radiazione gamma che rappresenta un segnale molto energetico: essa è trasportata da un’onda molto corta, quindi di durata molto breve. Un segnale di bassa intensità, invece, come ad esempio un’onda radio, conterrà poca energia, ma sarà trasportato su di un’onda molto lunga e quindi si protrarrà molto a lungo nel tempo. Da quanto detto si deduce che, per avere un’informazione entro un intervallo di tempo molto piccolo, si devono impiegare energie molto grandi, e viceversa. Naturalmente, quello che abbiamo detto per l’energia di tipo elettromagnetico, vale per qualsiasi altra forma di energia, altrimenti sorgerebbero contraddizioni nelle leggi della fisica.

Planck calcolò quali avrebbero dovuto essere le grandezze fisiche minime al di sotto delle quali non sarebbe stato più possibile ottenere alcuna informazione, neppure in linea di principio. Risultò così, ad esempio per quanto riguardava le dimensioni lineari, che la lunghezza minima al di sotto della quale non era possibile compiere una misurazione doveva essere di 10-33 cm (una grandezza alcuni miliardi di miliardi di volte inferiore al raggio di un protone); dividendo questa minuscola lunghezza per la velocità della luce si ottiene il più piccolo intervallo di tempo misurabile:10-43 secondi. Lo spazio entro cui sarebbe ancora possibile indagare, non dovrebbe quindi avere dimensioni inferiori a 10-99 cm3; e, infine, la massa non doveva essere inferiore a 10-5 g, un valore quest’ultimo, se riferito alle grandezze precedenti, sorprendentemente alto. Queste sono le dimensioni minime, calcolate da Planck, al di sotto delle quali non sarebbe consentito, in alcun modo, l’accesso sperimentale.

Ritorniamo ora al problema dell’origine dell’Universo. Secondo la teoria della Relatività Generale, l’Universo, al tempo t=0, avrebbe dovuto essere di dimensioni nulle, una condizione teorica che è stata chiamata «singolarità» e che da un punto di vista fisico deve essere scartata, perché priva di significato. Si ricorderà che in seguito a questa osservazione abbiamo concluso che le leggi della fisica classica non sono in grado di descrivere lo stato dell’Universo fin dalla sua origine.

Cerchiamo ora di capire se sia possibile ottenere un risultato migliore, facendo ricorso alla meccanica quantistica. In questo caso, come abbiamo appena visto, non è consentito estrapolare il tempo, né le altre grandezze fisiche, fino al valore zero, perché anche in questo caso le leggi perdono di significato quando si scende al di sotto di certi valori minimi. Pretendere quindi di ottenere (anche solo teoricamente) una qualche informazione su ciò che potrebbe essere accaduto nell’Universo prima del tempo di Planck, semplicemente non ha senso.

A questo punto non rimangono che due possibilità: o aspettare che vengano scoperte nuove leggi fisiche applicabili agli oggetti di dimensioni nulle, ovvero che vengano avanzate teorie in grado di eliminare la singolarità, e nel frattempo rimanere a braccia conserte, oppure utilizzare ciò che abbiamo a disposizione per avanzare una risposta purchessia alla nostra domanda. In quest’ultimo caso dobbiamo immaginare che l’Universo possa essere emerso dal nulla, tutto intero e già bello e formato nei suoi contenuti essenziali, però di grandezza non inferiore alle dimensioni di Planck, per esempio sotto forma di “pallina” con un volume non inferiore a 10-99 cm3.

Quest’ultima eventualità non sarebbe per nulla assurda, perché la meccanica quantistica prevede che particelle di materia possano effettivamente emergere dal nulla all’improvviso e senza motivo ed inserirsi fra quelle già esistenti. La stessa teoria prevede però che subito dopo la loro comparsa tali particelle debbano sparire senza lasciare traccia di sé. Queste particelle che compaiono all’improvviso e poi scompaiono senza dare il tempo per la loro registrazione sono dette “virtuali” per distinguerle da quelle “reali”, che invece resistono più a lungo.

Possiamo quindi immaginare l’Universo, all’inizio dei tempi, come qualcosa di estremamente piccolo (un’entità di dimensioni molto inferiori perfino a quelle di un elettrone) che compare dal nulla. Questa strana “pallina”, però, invece che scomparire immediatamente, come prevedono le leggi di natura, avrebbe dovuto perdurare nel tempo e svilupparsi fino a diventare l’Universo che possiamo osservare. Il problema è ora di vedere se esistano leggi fisiche che consentano il verificarsi di un tale evento.

 

  Parte V

 I fisici ritengono che la materia e l’energia attualmente presenti
nell’Universo siano in realtà nulle in quanto perfettamente
bilanciate da una forma di energia negativa rappresentata dalla gravità.
In tal caso il Cosmo, già dall’inizio, sarebbe stato privo di materia e di energia.

 

Affermare che una particella di dimensioni ultramicroscopiche possa emergere improvvisamente dal nulla, sopravvivere per una frazione irrilevante di secondo, e quindi scomparire senza lasciare traccia di sé, non sarebbe in contraddizione con le leggi della meccanica quantistica. Quelle leggi affermano infatti che se una particella appare per un istante brevissimo, tale da non lasciare il tempo materiale per la sua rilevazione, è come se essa non fosse mai esistita. In una situazione del genere non risulterebbero nemmeno violate le leggi di conservazione della materia e dell’energia, cioè quelle leggi che affermano che in natura nulla può essere creato dal nulla e nulla può svanire nel nulla.

Come avevamo anticipato, le particelle create e distrutte prima di poter essere rilevate si dicono «virtuali», per distinguerle da quelle che sopravvivono per tempi più lunghi che sono dette «reali». Ci si potrebbe allora chiedere come si faccia a sapere se una particella virtuale è effettivamente esistita, quando non è possibile registrarla prima che scompaia. Ebbene, senza entrare nei dettagli, possiamo affermare che le particelle virtuali, quando compaiono, lasciano sulla materia reale delle tracce che possono essere registrate. La presenza delle particelle virtuali è nota quindi per via indiretta.

Utilizzando le nostre conoscenze di meccanica quantistica possiamo quindi immaginare l’Universo, agli inizi dei tempi, emergere improvvisamente dal nulla sotto forma di particella virtuale. In realtà i cosmologi chiamano «vuoto» il nulla da cui sarebbe scaturito l’Universo: un concetto che, come chiariremo subito, assume nella cosmologia quantistica un ruolo di fondamentale importanza.

Normalmente si pensa al vuoto come a ciò che rimane quando, da un dato luogo, si toglie tutto ciò che vi è contenuto. Questa idea di vuoto è stata profondamente modificata con l’avvento della meccanica quantistica. All’interno di questa teoria, infatti, il vuoto non è più il nulla in assoluto, perché in realtà esso è sede di un gran numero di eventi individualmente non rilevabili (perché protetti dal principio di indeterminazione), ma osservabili tutti assieme attraverso gli effetti della loro azione eccitante sullo spazio circostante. In definitiva, anche dove siamo convinti di vedere il vuoto, ossia il nulla, in realtà vi è tutta una serie di fenomeni connessi con la comparsa (e la scomparsa) di particelle virtuali e di “lampi” effimeri di energia.

L’Universo potrebbe quindi anch’esso essere comparso sotto forma di particella virtuale all’interno di questo cosiddetto «vuoto quantistico» ed essa avrebbe dovuto avere, all’inizio, dimensioni non inferiori a quelle imposte dai limiti di Planck. Ora però ci si chiede in che modo la particella primordiale da cui si sarebbe sviluppato l’Universo intero avrebbe potuto conservarsi e ingrandirsi, visto che le leggi impongono che una particella quantistica non possa sopravvivere che per frazioni irrilevanti di secondo.

In realtà, la meccanica quantistica afferma che in uno spazio “piatto” (ossia di enormi dimensioni), quale sarebbe quello in cui viviamo, una particella che emerge dal vuoto debba immediatamente sparire per non violare le leggi della conservazione dell’energia. Nell’Universo primordiale però lo spazio non era come quello attuale, ma fortemente incurvato e in quelle condizioni, dice sempre la teoria, non valgono le leggi che vigono nell’Universo attuale. Quindi in quella situazione del tutto particolare non ha senso parlare di conservazione dell’energia; anzi è stato dimostrato che in uno spazio curvo una particella quantistica sopravviva tanto più a lungo quanto più è leggera; così che, se fosse di massa nulla, sopravvivrebbe per sempre e il nostro Universo sicuramente aveva una massa molto piccola, quando emerse spontaneamente dal vuoto tanto che per esso i fisici hanno ritenuto più appropriata la definizione di «bolla», proprio a significare qualche cosa priva di materia e di energia, ma piena di potenzialità. Ora, se questa «bolla» emersa dal nulla fosse stata leggerissima (come d’altra parte dovrebbe essere una bolla), avrebbe avuto una vita quasi infinita.

Tuttavia qualora l’Universo all’inizio dei tempi fosse stato effettivamente di massa ed energia nulle (o quasi nulle), anche oggi dovrebbe esserlo, perché altrimenti risulterebbero, ora sì, violate le leggi di conservazione, prima ricordate. L’Universo attuale, come tutti possono osservare, è però tutt’altro che privo di materia e di energia. Come possiamo allora giustificare un bilancio materiale ed energetico nullo? Per farlo dobbiamo supporre che nell’Universo vi sia materia ed energia positiva, insieme con materia ed energia negativa.

Prima di procedere, è opportuno ricordare che materia ed energia sono due entità equivalenti, nel senso che la materia può trasformarsi in energia, e viceversa, come prevede la celeberrima equazione di Einstein: E=mc2 (E = energia, m = massa, c²= velocità della luce al quadrato). In virtù di questa legge, possiamo considerare tutta la materia e tutta l’energia presente nell’Universo, come l’equivalente di una massa (o di una quantità di energia) molto grande che assumeremo di segno positivo. Dall’altra parte vi è l’energia gravitazionale, che può essere considerata come una forma di energia (o di massa) negativa. Cerchiamo di spiegare perché.

Si immagini di dover allontanare due corpi che stanno vicini. Per farlo dovremo fornire loro energia allo scopo di superare la forza di gravità che li tiene uniti: ma l’energia fornita dall’esterno verrà assunta dai due corpi i quali si troveranno, una volta lontani l’uno dall’altro, dotati di una massa maggiore di prima, avendo trasformato l’energia acquisita in materia. Immaginiamo ora l’operazione inversa, cioè l’avvicinamento spontaneo di due corpi lontani, attirati dalla forza di gravità: essi, a mano a mano che si avvicinano, perdono massa (che si allontana sotto forma di energia) divenendo più leggeri. La gravità può essere quindi considerata una forma di energia negativa, in quanto, quando si manifesta, lo fa sottraendosi dall’energia positiva della materia.

Se ora si somma algebricamente l’energia negativa della gravità con quella positiva dell’equivalente massa-energia presente nell’Universo, si ottiene un totale uguale a zero (o almeno molto vicino a zero). Così hanno calcolato i fisici.

Per concludere, se l’attuale massa-energia totale dell’Universo fosse veramente prossima allo zero, anche quando esso emerse dal vuoto sotto forma di particella quantistica (o bolla), massa ed energia dovevano essere nulle o quasi nulle.

Rimane ancora da chiarire il modo in cui l’Universo, una volta emerso dal nulla, si sia poi potuto espandere e sviluppare e questo sarà oggetto di indagine nei prossimi numeri.

 

Parte VI

 È paradossale il fatto che per comprendere l’oggetto 
più grande che ci sia, cioè l’Universo intero,
si debba ricorrere alle leggi che governano le entità più piccole,
 
cioè quelle trattate dalla meccanica quantistica.

 

Quello del Big Bang rappresenta il modello di Universo attualmente più accreditato. Come è noto, in campo scientifico si fa largo uso di modelli per avere una rappresentazione sia pur semplificata e incompleta di un oggetto inaccessibile all’osservazione diretta. Un modello scientifico può essere paragonato al modellino di un’automobile, che riproduce alcune caratteristiche dell’automobile vera, ma non è identico ad essa. Questi strumenti concettuali, pur avendo validità limitata, risultano tuttavia utili agli scienziati perché, oltre a dare unità e coerenza agli oggetti naturali che simboleggiano, vengono anche utilizzati per comprendere meglio il fenomeno dal quale gli stessi hanno tratto origine. Come un qualsiasi modello, anche quello del Big Bang non ha dunque la pretesa di rappresentare tutti i dettagli della struttura dell’Universo reale, ma solo alcuni suoi aspetti essenziali; esso ad esempio considera l’Universo come un fluido perfetto di materia e radiazione distribuito in modo assolutamente uniforme su tutto lo spazio: l’agglomerarsi della materia in stelle e galassie viene ignorata salvo poi riprendere questo particolare argomento quando si decida di indagare sull’origine e sulla distribuzione dei corpi celesti.

Nonostante certi risultati favorevoli, il modello standard del Big Bang poneva tuttavia alcune questioni che lasciavano perplessi, ma prima di parlarne bisogna accennare al fatto che questo non è l’unico modello che venne proposto utilizzando la teoria della Relatività generale di Einstein e l’osservazione del red shift  delle galassie.

Fu proprio quel Fred Hoyle che aveva deriso il modello di Gamow definendolo un “grande bum” a proporne uno alternativo. Insieme ai colleghi austriaci Hermann Bondi e Thomas Gold con i quali durante la seconda guerra mondiale aveva lavorato al perfezionamento degli apparecchi radar, Hoyle presentò un modello da contrapporre a quello dell’Universo in evoluzione che prese il nome di «Modello di Universo in stato stazionario» e rappresentò l’ultimo disperato tentativo di salvare l’idea dell’immobilismo cosmico.

Per non cadere in contraddizione con i fondamenti primi della relatività generale – pensarono i tre scienziati – l’aspetto dell’Universo su larga scala dovrebbe rimanere immutato non solo nello spazio, ma anche nel tempo. Pertanto, benché questi studiosi convengano sul fatto che l’Universo sia in espansione, ciò nondimeno la densità della materia sarebbe dovuta rimanere costante nel tempo e quindi, a mano a mano che le galassie si allontanavano fra loro e lo spazio diventava sempre più vuoto, nuove galassie si sarebbero dovute formare per compensare il diradarsi delle vecchie.

Il modello prevedeva quindi una cosa a prima vista assurda: la creazione di materia dal nulla. Esisterebbe infatti, secondo Hoyle e i suoi colleghi, un «campo creazionale» (in analogia con il «campo gravitazionale») generato dalla materia già esistente, in grado di produrne di nuova: il ritmo con cui avverrebbe la formazione di materia sarebbe tuttavia lentissimo (si formerebbe non più di un atomo di idrogeno per metro cubo ogni miliardo di anni) e comunque tale da rendere impossibile il suo rilevamento.

Se quindi da un lato il modello di Universo stazionario poneva il problema sconcertante della creazione di materia dal nulla, dall’altro ne evitava altri, non meno imbarazzanti, come ad esempio quello dell’origine. Infatti secondo Hoyle l’Universo non ebbe inizio, né avrà fine: esso è sempre esistito ed esisterà per sempre.

Nella storia della scienza, tuttavia, è capitato spesso che le teorie più originali e convincenti siano state poi impietosamente demolite da osservazioni insignificanti e fortuite: così avvenne anche nel caso del modello dello stato stazionario. La radiazione cosmica di fondo, quella dei 3 gradi K, individuata dai due tecnici americani dei telefoni, di cui abbiamo già parlato, non trovava infatti giustificazione coerente all’interno del modello di Hoyle, che dovette pertanto essere abbandonato. In verità la scoperta di Penzias e Wilson, per la quale i due tecnici ricevettero il premio Nobel nel 1978, non fu l’unica evidenza osservativa contraria al modello dello stato stazionario; in precedenza si era ad esempio osservato che le quasar, i corpi celesti di dimensioni di poco superiori a quelli delle stelle, ma che irradiano quantità colossali di energia, erano più abbondanti a grande che a piccola distanza. Ora, poiché guardare in lontananza corrisponde a guardare indietro nel tempo, si doveva concludere che l’aspetto dell’Universo di miliardi di anni fa fosse diverso dall’attuale, smentendo quel principio cosmologico perfetto che prevedeva un Universo identico in ogni luogo e in ogni tempo, al quale si era appellato Hoyle.

Accenniamo ora a due osservazioni a cui il modello standard del Big Bang non era in grado di dare risposta coerente. Per prima cosa ci si chiedeva attraverso quale meccanismo si sarebbe potuto formare dal niente l’Universo intero; in secondo luogo, anche qualora l’Universo fosse effettivamente apparso dal nulla, da dove avrebbe potuto poi trarre l’energia necessaria a produrre un’esplosione di tale violenza da scaraventare lontano le galassie, tanto che oggi, dopo 15 miliardi di anni da quell’evento, stanno ancora viaggiando a grandissima velocità.

Alla prima domanda sta tentando di dare risposta il fisico inglese Stephen Hawking, una specie di fenomeno vivente che rappresenta un caso eccezionale, non tanto e non solo per il suo eccelso valore scientifico (occupa la cattedra lucasiana di matematica – che un tempo fu di Newton – a Cambridge, ed è considerato il più grande fisico teorico vivente), ma piuttosto per le sue condizioni di salute estremamente precarie. Una grave malattia del sistema nervoso lo ha infatti reso praticamente immobile su di una sedia a rotelle da oltre trent’anni. Egli, nonostante le gravissime menomazioni (per evitare che si soffocasse è stato anche necessario asportargli la laringe, privandolo dell’uso della parola), ha mantenuto intatte le capacità intellettive e lavora scrivendo e comunicando per mezzo di un computer controllato da un interruttore, che aziona con un solo dito. Intervenendo a Padova, con l’aiuto di un interprete, nella sala dell’Università in cui teneva lezione Galilei, annunciò, nel 1983, di essere riuscito a derivare la funzione d’onda che descrive l’Universo al suo apparire. La funzione d’onda è un’espressione matematica prodotta dalla meccanica quantistica che definisce, in termini probabilistici, le proprietà di una particella di piccole dimensioni. Le proprietà degli elettroni che si muovono intorno al nucleo atomico, ad esempio, sono definite anch’esse da un’analoga funzione d’onda (il cosiddetto “orbitale”).

La necessità della descrizione del moto di una particella in termini probabilistici deriva dalla impossibilità, imposta dal principio di indeterminazione, di raccogliere misure precise relativamente alla traiettoria seguita da una particella di dimensioni molto piccole. E, come per l’elettrone in movimento è possibile una sua descrizione solo in termini probabilistici, così anche per l’Universo al suo apparire (cioè quando era di dimensioni molto più piccole dell’elettrone stesso) non è possibile altra descrizione se non negli stessi termini.

Prima di rispondere alla domanda riguardante il luogo da cui l’Universo appena emerso dal nulla avrebbe estratto l’energia necessaria per espandersi e riempirsi a sua volta di materia e radiazione è necessario spendere qualche parola sulle cosiddette grandi teorie unificate.

 

Parte VII

 Il mondo subatomico della materia è costituito da alcune particelle 
elementari, a cui si devono aggiungere le mediatrici delle forze.
 
Secondo le teorie più moderne, infatti, non solo la materia, ma anche le forze
che agiscono su di essa sarebbero costituite di particelle.

 

Oggi sappiamo che la materia è formata da pochi tipi di particelle elementari, tenuti insieme da quattro forze (o interazioni come preferiscono chiamarle i fisici) fondamentali. Le particelle elementari che costituiscono tutti gli oggetti materiali stabili sono gli elettroni e i quark i quali ultimi, combinandosi fra loro, formano protoni e neutroni, i componenti del nucleo atomico. Le quattro forze fondamentali sono: la gravitazionale, l’elettromagnetica, la nucleare debole e la nucleare forte.

La gravitazionale è la forza più debole di tutte, ma è anche quella che fa sentire i suoi effetti alle distanze maggiori: essa, oltre a regolare il moto di stelle e pianeti, determinerà il destino ultimo dell’Universo il quale, per il momento, si sta espandendo, ma fra qualche tempo potrebbe iniziare a contrarsi, proprio per l’azione che la forza di gravità esercita sulle masse. La forza elettromagnetica tiene uniti gli elettroni ai nuclei atomici e inoltre lega insieme gli atomi e le molecole che formano le diverse sostanze. La debole e la forte sono forze molto intense (soprattutto la seconda), ma fanno sentire la loro azione solo a breve distanza: la prima è responsabile di alcuni tipi di disintegrazione radioattiva, mentre la seconda tiene uniti protoni e neutroni, e gli stessi quark che a loro volta li costituiscono.

Le forze, che all’apparenza sembrano manifestarsi come qualche cosa di immateriale, secondo le visioni più moderne della fisica, agirebbero invece per mezzo di particelle che si spostano incessantemente fra un corpo e l’altro. Queste particelle sono dette gluoni (da glue che in inglese vuol dire “colla”) e rappresenterebbero per l’appunto la colla che tiene unito il mondo. Il gluone associato all’interazione gravitazionale è detto gravitone mentre il portatore dell’interazione elettromagnetica è il fotone, la particella che fuori dell’atomo è il quanto di luce. I bosoni medi (o particelle W± e Z°) sono quelli che mediano la forza nucleare debole, e i gluoni “colorati” generano le forze che tengono uniti quark, protoni e neutroni.

Quindi, come la materia, anche le forze sarebbero fatte di particelle. Alcune delle particelle portatrici di forze sono note, mentre altre sono solo ipotizzate: così ad esempio nessuno ha mai visto fino ad ora il gravitone.

Secondo le teorie più moderne le quattro forze fondamentali, che oggi ci appaiono distinte, sarebbero state unite tutte insieme in un’unica forza quando l’Universo era nella fase iniziale della sua esistenza. Queste teorie impongono infatti che le forze si unifichino quando le temperature sono molto elevate e, in tempi lontani, l’Universo doveva essere, per l’appunto, molto caldo.

L’Universo, nonostante le apparenze, attualmente è spazio freddo e quasi privo di materia: la sua temperatura, a prescindere da quei puntini luminosi e caldi che sono le stelle, a stento raggiunge i 3 gradi assoluti (3 K) corrispondenti a 270 gradi centigradi sotto zero (-270 °C) e gli enormi spazi fra stelle e galassie sono molto più vuoti del vuoto più spinto che si riesce ad ottenere in laboratorio (si usa dire che l’Universo è pieno di stelle ma in realtà esso è pieno di vuoto mentre le stelle rappresentano l’eccezione).

Per simulare istanti sempre più remoti dell’Universo primordiale, immaginiamo di innalzare, senza limiti, la temperatura all’interno di un forno ideale (se fosse reale alle temperature previste dal nostro esperimento si dissolverebbe ben presto). Prima di accendere il nostro forno svuotiamolo di ogni cosa, compresa l’aria, e portiamolo alla temperatura dello zero assoluto, in modo che al suo interno non vi siano né atomi né fotoni e poi diamo inizio all’esperimento.

A mano a mano che la temperatura sale il forno si riempie di fotoni sempre più numerosi e sempre più energetici. Quando la temperatura raggiunge alcuni miliardi di gradi (molti di più di quelli che si registrano all’interno delle stelle) i fotoni iniziano a interagire per formare particelle materiali. Si sa che materia ed energia sono entità interscambiabili nel senso che da materia si può ottenere energia e da energia materia, come suggerisce la ben nota legge di Einstein: E=mc² (E è l’energia, m la massa e c la velocità della luce). Ora, come l’annichilazione di particelle elementari può generare fotoni così l’incontro di due fotoni altamente energetici può generare un elettrone e un positone (particella identica all’elettrone ma con carica positiva invece che negativa). Ogni particella (escluso il fotone) quando si materializza appare sempre accompagnata dalla sua antiparticella: nel caso dell’elettrone esso si presenta sempre insieme con il positone (alcuni lo chiamano positrone ma forse, tenuto conto dell’etimologia del termine, la “r” è di troppo).

Aumentando ancora la temperatura gli stessi elettroni e positoni possono, anziché ridiventare fotoni, dar vita a coppie neutrino-antineutrino; e qualora si protraesse il processo di riscaldamento, alla temperatura di 1014 K si formerebbero coppie protone-antiprotone e neutrone-antineutrone.

A temperature ancora più alte si noterebbe la disintegrazione di protoni e neutroni con liberazione dei quark e delle corrispondenti particelle mediatrici delle forze che li tenevano uniti. A temperature così elevate non solo si libererebbero i gluoni dall’interno della materia ma alcuni di essi perderebbero la loro identità. Nel 1983 il fisico goriziano Carlo Rubbia, insieme con il collega olandese Simon Van der Meer, servendosi del potente acceleratore di particelle presente al CERN (Centro Europeo per la Ricerca Nucleare) di Ginevra riuscì a dimostrare che alle massime energie ottenibili all’interno di quella pista circolare che corre nel sottosuolo al confine fra Svizzera e Francia, non si notava più alcuna distinzione fra l’interazione elettromagnetica e la nucleare debole, in quanto le particelle Wˉ, W+ e Z° diventavano dei quanti praticamente privi di massa e quindi identici ai fotoni. L’esperimento mostrava pertanto che alla temperatura di 1015 K non vi sono più quattro forze, ma solo tre: elettrodebole (elettromagnetica e debole unite insieme), forte e gravitazionale.

Più in là di così con l’esperimento non si riesce ad andare perché per unificare le altre forze si dovrebbe disporre di energie tanto elevate che neppure un acceleratore che si sviluppasse attorno alla Terra lungo l’equatore riuscirebbe a produrre. Esistono però le teorie, alcune delle quali tentano di unire alla elettrodebole anche la forza forte: esse sono note come Grandi Teorie Unificate (GUT), un titolo piuttosto esagerato perché in realtà non si tratta di grandi teorie né tanto meno di teorie pienamente unificate. Attualmente l’ambizione massima dei fisici è tuttavia quella di trovare una teoria che associ alle altre anche la gravitazionale in una singola Superforza unificata.

Le teorie che tentano di unificare le quattro forze fondamentali prevedono che quando la temperatura raggiunge i 1028 K si vengano a formare particelle misteriose denominate X e anti-X le quali renderebbero possibile la trasformazione di particelle leggere (ad esempio elettroni) in quark, e viceversa. A temperature superiori a 1028 K sparirebbero inoltre le individualità fra tutte le particelle e non si distinguerebbe più nemmeno fra particelle di forze e particelle di materia. Finalmente, approssimandosi al cosiddetto limite di Planck (1032 K), il nostro forno sperimentale si ridurrebbe ad una bolla piena di niente, ovvero di niente di tutto ciò che è proprio della nostra esperienza diretta: si finirebbe cioè in una specie di “terra di nessuno” in cui il caos più completo prenderebbe il posto delle leggi di natura.

 

Parte VIII

Poco dopo essere emerso dal nulla, l’Universo si dilatò con straordinaria 
violenza, ma venne subito energicamente frenato dalla forza di gravità.
Un attimo più tardi subì però una seconda dilatazione che gli fece assumere,
in un tempo brevissimo, dimensioni incredibilmente enormi.

 

Cerchiamo ora di descrivere le prime fasi della storia dell’Universo in modo un po’ più dettagliato di quanto non si sia fatto in precedenza.

Se accettiamo per l’Universo una genesi quantistica, non possiamo partire dal tempo t=0, ma dobbiamo accontentarci di iniziare la descrizione della sua evoluzione dal tempo t=10-43 secondi, dal momento cioè in cui ha un senso applicare le leggi della fisica a noi note. Il primo periodo di vita dell’Universo, quello che ci è impossibile descrivere, è detto «Epoca della Gravità Quantistica» o «Epoca di Planck».

Al tempo t=10-43 s l’Universo aveva già raggiunto le dimensioni di Planck, cioè era un “oggettino” di grandezza minima (10-99 cm3), che pesava 10-5 grammi (meno di un granello di polvere): eppure un’entità in apparenza insignificante quale è questa particella, possedeva una densità enorme (1094 grammi per centimetro cubo).  Per farsi un’idea di cosa significhi una densità del genere dobbiamo considerare le stelle di un gran numero di galassie contenute in un volume non più grande di un protone: un oggetto inaccessibile alla nostra immaginazione. In realtà non si trattava nemmeno di un oggetto vero e proprio, ma di una struttura contenente l’equivalente in energia di quella massa e quindi in pratica una cosa vuota di ciò che appare nel mondo macroscopico ordinario ma piena di potenzialità e per la quale i fisici hanno coniato il termine di «bolla». Questa entità rappresenterebbe una delle tante particelle virtuali che, in quella fase, si formavano, scoppiavano e si riformavano in continuazione a causa delle fluttuazioni quantistiche del vuoto, proprio come fanno le bollicine che stanno all’interno della panna.

Ora, la prima difficoltà che si incontra in questo scenario è quella di capire come una particella virtuale si sia potuta trasformare in reale, anche perché le leggi della meccanica quantistica impongono che ogni particella elementare debba essere sempre accompagnata dalla sua antiparticella, cioè da una particella identica alla prima, ma diversa per qualche fondamentale proprietà. Quindi, quando dal vuoto quantistico emerge una particella nasce, nello stesso tempo, anche la sua antiparticella: l’incontro fra particella ed antiparticella conduce poi alla reciproca annichilazione e il loro posto viene preso da energia indifferenziata.

Allo stesso modo, quando l’Universo primordiale emerse dal nulla, sotto forma di particella quantistica, dovette comparire insieme con esso, anche il suo omologo e contrario, ossia un «Antiuniverso». I due Universi, poi, ovviamente non si scontrarono altrimenti sarebbero sprofondati nuovamente nel vuoto quantistico. Da dove trassero la forza per evitare lo scontro? Questa energia, dicono i fisici, sarebbe stata messa a disposizione dal vuoto stesso: ma si trattò solo di un prestito, una specie di mutuo contratto con la “banca universale” che prima o poi dovrà essere restituito, altrimenti verrebbe violata una legge fondamentale di natura (quella che impone che nulla possa essere creato dal nulla).

La cosiddetta «Epoca della Gravitazione Quantistica» è caratterizzata dall’unificazione di tutte e quattro le forze fondamentali. Essa termina al tempo t=10-43 s, e, come abbiamo detto, è solo da quel momento in poi che ha un senso applicare le leggi della fisica. Nell’istante iniziale, la temperatura doveva avere un valore superiore a quello imposto dai limiti di Planck, cioè 1032 K (centomila miliardi di miliardi di miliardi di gradi sopra lo zero assoluto) e le particelle materiali e le forze dovevano essere riunite tutte insieme in un amalgama indistinto, privo di qualsiasi struttura e forma e quindi perfettamente simmetrico.

L’Universo, appena posto in essere, avrebbe dovuto iniziare ad espandersi e ad arricchirsi di materia ed energia, e questo rappresenta il secondo grosso problema che i fisici hanno dovuto risolvere. Da dove avrebbe tratto l’energia necessaria per espandersi un oggetto tanto denso che il suo stesso campo gravitazionale, inevitabilmente, avrebbe dovuto trasformarlo in un buco nero? La risposta, anche in questo caso, viene fornita da un modello che, purtroppo, per quanto attraente e profondo possa apparire, non potrà mai essere verificato sperimentalmente. Esso farà la fine di tanti altri modelli teorici quando alcune scoperte, per ora imprevedibili, lo renderanno incoerente: verrà cioè abbandonato.

In precedenza avevamo fatto osservare che per riunire tutte insieme forze e particelle materiali si dovevano impiegare grandi quantità di energia; ora è intuitivo che nell’operazione contraria questa energia in qualche modo debba essere messa in libertà. Secondo la teoria più accreditata, si sarebbero verificati, nell’Universo primitivo, gli stessi fenomeni (ma di entità ben maggiore) a cui si può assistere oggi nei passaggi di stato.

Tutti sanno che quando la materia passa ad esempio dallo stato solido a quello liquido, cioè da una condizione a struttura ordinata ad una più disordinata viene assorbita energia dall’ambiente esterno, mentre, quando un liquido si trasforma in solido, cioè quando la struttura acquista maggior ordine, quest’energia viene rimessa in libertà. Ebbene, proprio i concetti di rottura spontanea di simmetria e di transizione di fase, sono fondamentali, nelle più recenti teorie, per la descrizione dell’evoluzione dell’Universo.

Questo, per un breve istante dopo che venne alla luce, era estremamente simmetrico ed omogeneo ma, al tempo t=10-43 s, avvenne la prima rottura spontanea di simmetria, causata dal distacco della forza gravitazionale dalle altre con le quali stava unita. Questo fenomeno che, come abbiamo detto, può essere assimilato ad una transizione di fase, provocò la liberazione di una notevole quantità di energia. L’Universo allora iniziò ad espandersi, ma l’espansione, in quella fase, non fu eccessiva perché venne subito energicamente frenata dall’azione stessa della forza di gravità.

Dal tempo t=10-43 s al tempo t=10-35 s l’Universo visse l’epoca detta di «Grande Unificazione». Solo dall’inizio di questa fase esso divenne osservabile, nel senso che solo da quel momento in poi è lecito applicare alla nuova struttura le leggi della fisica che conosciamo. In quest’epoca sono presenti due soli tipi di particelle materiali, quark e leptoni (dal geco leptos, che vuol dire leggero, quindi particelle interagenti piuttosto debolmente come sono ad esempio gli elettroni e i neutrini) che si tramutano in continuazione gli uni negli altri tramite le oscure particelle di scambio X e anti-X che abbiamo già incontrato all’interno del nostro forno ideale, e sono altresì presenti i fotoni (le particelle di energia).

Al tempo t=10-35 s avvenne il distacco della seconda forza dal gruppo delle tre che ancora erano rimaste unite e il tutto si realizzò nel giro di una minuscola frazione di secondo. Avvenne cioè quel fenomeno che va sotto il nome di «inflazione», un termine che fu preso in prestito dall’economia dove l’inflazione dei prezzi si fa sentire ovunque a livelli più o meno alti: il primato mondiale tuttavia va probabilmente alla Germania del primo dopoguerra quando, nel giro di pochi mesi, il prezzo di un chilo di pane lievitò da pochi marchi a milioni di marchi. Quella proposta alcuni anni fa dal giovane fisico americano Alan Guth consiste in una espansione rapidissima (molto superiore a quella dei prezzi) dell’Universo che produsse, in un tempo di soli 10-32 s, una crescita del suo diametro di un fattore di circa 1030. Si trattò di un’esplosione di portata gigantesca confrontabile con quella che porterebbe, in una frazione irrilevante di secondo, un oggetto grande quanto un atomo a dimensioni superiori a quelle dell’intera nostra Galassia. Dopo questa fase di espansione esponenziale l’evoluzione dell’Universo continuò secondo quanto previsto dal modello classico.

 

Parte IX

Secondo il nuovo modello noto come «Universo inflazionario», 
l’Universo osservabile sarebbe immerso in una regione di spazio molto 

più vasta conseguente ad una rapidissima crescita avvenuta 

una frazione irrilevante di secondo dopo l’origine.

 

Per piegare il meccanismo della “fase inflazionaria” bisogna partire dall’osservazione che la temperatura attuale del nostro Universo non raggiunge i 3 gradi assoluti, il suo raggio è stimato in circa 15 miliardi di anni luce e la sua età dovrebbe essere compresa fra i 10 e i 20 miliardi di anni; esso inoltre è in continua espansione.

Ebbene, estrapolando l’attuale ritmo di crescita a ritroso nel tempo l’Universo diventerebbe sempre più denso e più caldo. Fermiamoci al momento della grande unificazione cioè nell’attimo in cui tre delle quattro forze fondamentali risultano unite assieme. Questa situazione si verificò quando la temperatura dell’Universo in formazione era di 1028 K ed erano passati solo 10-35 secondi dalla sua nascita. Si è potuto così valutare che il raggio dell’Universo al tempo della grande unificazione era di soli 3 millimetri: una misura che sembra piccolissima, ma in realtà è enorme.

All’epoca della grande unificazione la distanza che la luce aveva potuto percorrere dall’inizio del tempo era di soli 3·10-24 mm quindi una distanza di gran lunga inferiore alle dimensioni dell’Universo di allora. Se la luce aveva potuto percorrere solo un tratto brevissimo dello spazio disponibile come si spiega il fatto che quell’ambiente fosse tanto omogeneo? Oggi l’Universo ha le stesse caratteristiche in ogni dove ed anche quando era di dimensioni molto più piccole doveva essere altrettanto omogeneo ed isotropo ma se la luce che è il segnale più veloce che ci sia non poteva aver percorso che una distanza minima all’interno di quella struttura primitiva come poteva aver connesso fra loro le varie parti di essa in modo da renderle uniformi? La risposta è una sola: all’interno di quella sfera di tre millimetri di diametro vi erano molti miliardi di piccole sferette indipendenti l’una dall’altra ma dalle caratteristiche simili e solo una di esse sarebbe diventata il nostro Universo visibile.

Sennonché qualora il granellino del nostro Universo primordiale si fosse sviluppato alla velocità a cui oggi procede l’espansione esso avrebbe raggiunto attualmente dimensioni non superiori ad un centinaio di kilometri mentre solo immaginando un’espansione più rapida nelle prime fasi di vita le sue dimensioni si sarebbero potute ampliare fino a raggiungere quelle attuali.

Per spiegare come abbia potuto l’Universo raggiungere le attuali dimensioni in “soli” 15 miliardi di anni a partire da un corpuscolo di grandezza irrilevante si è resa necessaria la modifica del modello standard in prossimità del Big Bang. L’idea di un Universo che all’inizio dei tempi si sarebbe espanso in modo impressionante venne per primo al già ricordato fisico americano Alan Guth (1947- ). Egli, alla fine del 1979, propose un’ipotesi molto originale e audace: calcolò che quando l’Universo aveva l’età di 10-35 secondi e solo la forza gravitazionale si era staccata dal resto mentre le altre erano ancora unite assieme si verificò un fenomeno impressionante e unico.

In quell’istante avvenne nell’Universo ciò che abbiamo chiamato una transizione di fase. Essa può essere assimilata, come si ricorderà, ad un passaggio di stato. Riprendiamo quindi l’analogia con riferimento all’acqua che, al variare della temperatura, cambia stato fisico: quando l’acqua diventa ghiaccio, avviene una rottura spontanea della simmetria. La struttura dell’acqua, allo stato liquido, è infatti simmetrica, perché si presenta tale da apparire con le stesse proprietà in tutte le direzioni, mentre il ghiaccio contiene assi preferenziali di cristallizzazione e di conseguenza caratteristiche morfologiche diverse nelle diverse direzioni. Il passaggio dell’acqua dallo stato liquido a quello solido comporta, come sappiamo, la liberazione di energia sotto forma di calore.

Ora, è possibile operare con l’acqua in modo tale che il suo raffreddamento sia rapidissimo: si verifica in tal caso il fenomeno che va sotto il nome di «superraffreddamento»: l’acqua cioè viene raffreddata a temperature molto basse, fino a 20 gradi sotto lo zero, senza che si verifichi la solidificazione. Il liquido, in queste condizioni, si trova però in uno stato di estrema instabilità e, all’improvviso, diventa ghiaccio liberando tutta l’energia che, per breve tempo, era rimasta immagazzinata al suo interno, mentre la sua temperatura risale a quella di congelamento, cioè a zero gradi centigradi.

Qualcosa di simile sarebbe avvenuto, secondo la teoria dell’inflazione, nell’Universo primitivo. Al tempo t=10-35 s dall’inizio, la forza forte si sarebbe separata dalle altre ma senza far seguire, a questo distacco, l’immediata liberazione di energia. Questa si sarebbe invece conservata, invisibile, all’interno della materia, fino al tempo t=10-32 s, creando una situazione di forte instabilità che è stata chiamata «falso vuoto».

Il «falso vuoto» è un concetto fondamentale all’interno del modello inflazionario per tenere in piedi il quale si ipotizza che nel momento teorico della separazione della forza forte da quella elettrodebole (elettromagnetica e debole insieme), avvenne che le tre forze rimasero invece ancora unite insieme per un brevissimo lasso di tempo, nonostante che la temperatura, nel frattempo, continuasse a scendere, creando una situazione di «stato eccitato» cioè fortemente instabile. Esso può essere paragonato alla situazione in cui si viene a trovare l’atomo quando alcuni dei suoi elettroni stazionano momentaneamente sulle orbite più esterne. In tal caso si dice che l’atomo è eccitato e tende spontaneamente a riportare gli elettroni sulle orbite più interne (quelle a minore contenuto energetico e quindi più stabili): nel fare ciò emette energia.

Allo stesso modo, quando la forza forte si separò bruscamente dalle altre due, dovette liberarsi un’enorme quantità di energia che consentì all’Universo di espandersi ad un ritmo incomparabilmente superiore a quello attuale. Nel tempo che va da 10-35 s a 10-32 s, l’Universo si accrebbe infatti in modo impressionante, passando da dimensioni infinitamente piccole (alcuni miliardi di volte inferiori a quelle di un protone), fino a quelle di una palla di una decina di centimetri di diametro. Per farsi un’idea più chiara del fenomeno si immagini una pallina di pingpong che, in una frazione irrilevante di secondo, diventi un miliardo di volte più grande della nostra galassia: questo è quanto avvenne nel nostro Universo durante la fase inflativa.

Alla fine di questa espansione l’Universo si sarebbe trovato con tutta l’energia e con tutta la materia necessaria a formare ogni cosa che lo popola: stelle, pianeti e la grande varietà di forme viventi compresi noi uomini; frattanto la sua temperatura sarebbe di nuovo risalita fino a quasi 1027 gradi centigradi.

Se le teorie di grande unificazione fossero vere, l’Universo sarebbe quindi stato messo in essere da una sequenza graduale di rotture spontanee di simmetria causate dalla separazione successiva delle forze, dall’unica primitiva che le comprendeva tutte. Ad ogni distacco di una forza si liberò dell’energia: a 10-43 s dall’inizio si rese indipendente la gravità, poi al tempo t=10-35 s si liberò l’interazione forte e infine le ultime due forze si separarono a 10-11 s dall’inizio. Se quindi vi fosse, ad esempio, una quinta forza, questa oggi si troverebbe ovviamente ancora racchiusa in una delle quattro già esistenti, ma un giorno anche questa potrebbe separarsi liberando altra energia e dando quindi un’ulteriore spinta alla crescita dell’Universo.

 

Parte X

 Il modello classico del big bang non era stato in grado 
di spiegare tutta una serie di dati di osservazione a cui, invece,
il modello dell’Universo inflazionario è riuscito
a dare giustificazione rigorosa e coerente.

 

Il modello dell’Universo inflazionario risolve alcuni problemi che il modello standard del Big Bang non era stato in grado di chiarire: descriviamone alcuni fa i più significativi. Il primo, a cui si è già fatto cenno, è noto come «problema dell’orizzonte».

Immaginiamo di osservare due regioni del cosmo sistemate in posizioni diametralmente opposte e a grande distanza (diciamo a 10 miliardi di anni luce da noi): esse sono quindi lontane 20 miliardi di anni luce l’una dall’altra. Queste due zone dello spazio non hanno mai potuto comunicare tra di loro scambiandosi un messaggio perché non è trascorso ancora abbastanza tempo da quando si verificò il Big Bang. Affinché la luce o qualsiasi altra forma di energia (che comunque non potrà mai viaggiare più veloce della luce) abbia potuto rimbalzare fra due punti distanti 20 miliardi di anni luce deve avere avuto a disposizione un tempo di almeno 20 miliardi di anni, ma 20 miliardi di anni fa l’Universo non era ancora nato. Quindi le due regioni che abbiamo scelto per le nostre osservazioni oggi non sono sufficientemente vicine per scambiarsi un segnale, ma non lo furono nemmeno in passato quando l’Universo era sì molto più piccolo di oggi, ma anche la sua età era proporzionalmente minore.

Ora, la cosa sorprendente è che queste due regioni, che non sono mai state in contatto, siano identiche. In realtà l’intero l’Universo osservabile è molto omogeneo, cioè mediamente con la stessa densità e la stessa temperatura in ogni sua parte, e questa coincidenza generale di forme non è per nulla ovvia. In qualsiasi direzione si effettuino le osservazioni, e a qualsiasi distanza, si incontrano sempre gli stessi oggetti celesti che diffondono lo stesso tipo di energia e che operano tutti in accordo con le stesse leggi della fisica. Questa constatazione stupisce e ci si chiede come sia possibile che zone così lontane da non aver mai potuto comunicare tra loro e che quindi non potevano influenzarsi a vicenda si siano trovate poi tanto d’accordo nel seguire le stesse leggi di natura.

E’ un po’ come se l’insegnante constatasse, correggendo i compiti di matematica svolti in classe dai suoi alunni, che questi sono tutti uguali, perfino nei dettagli. Che cosa dovrebbe pensare? Ovviamente che gli allievi hanno copiato, cioè che hanno avuto modo, durante la prova, di comunicare fra loro. Certo, potrebbe anche pensare che gli alunni hanno svolto il tema autonomamente e tuttavia lo svolgimento è stato identico. La cosa, anche se possibile, apparirebbe però, agli occhi del professore, quanto meno poco probabile.

Allo stesso modo, stupisce il fatto che regioni che in passato non sono mai state causalmente connesse, perché si trovavano distanti più del loro “orizzonte”, cioè più di quanto fosse necessario per poter essere mai state in un qualsiasi rapporto di causalità, si trovino oggi in condizioni di tale omogeneità e concordanza di aspetti da lasciare pensare che in passato ci possa essere stato “qualcuno” che abbia avuto tempo e modo di rimescolare accuratamente il contenuto dell’Universo distribuendo materia ed energia uniformemente. In realtà non sarebbe soddisfacente ammettere che l’Universo oggi appare così fortemente omogeneo e isotropo perché è sempre stato in queste condizioni, fin dalla sua origine. Ciò equivarrebbe alla rinuncia di una spiegazione scientifica dell’osservazione.

Il modello dell’Universo inflazionario risolve invece elegantemente questo problema. Secondo questa nuova teoria, l’Universo che siamo in grado di osservare è infatti solo una piccola parte di ciò che ha subito l’inflazione all’inizio dei tempi. Prima della fase inflazionaria tutte le parti dell’Universo che oggi osserviamo erano vicinissime tra loro ed avevano avuto modo di rimescolarsi e scambiarsi informazioni e messaggi influenzandosi a vicenda fino ad assumere una composizione omogenea. Poi vi fu quell’esplosione di proporzioni gigantesche che portò in un attimo, e ad una velocità ben superiore a quella della luce, l’Universo ad ingrandirsi di miliardi e miliardi di volte più di quello che si sarebbe potuto realizzare al ritmo di espansione attuale. E’ chiaro allora il motivo per il quale molte sue parti risultino lontanissime tra loro e tuttavia identiche: l’omogeneità generale era già stata raggiunta in precedenza.

Questa constatazione risolve anche un secondo problema a cui il modello standard non era in grado di dare risposta, ossia quello relativo alla «curvatura nulla».

Si tratta di questo: l’Universo attualmente si sta espandendo, ma questa espansione durerà per sempre o un giorno finirà ed inizierà il fenomeno contrario? Tutto dipende dalla quantità di materia presente in esso: se questa è abbondante l’attrazione gravitazionale delle galassie finirà per fermare l’espansione e l’Universo si contrarrà fino a collassare in un formidabile Big Crunch (cioè in un’implosione); un Universo di questo tipo viene definito «chiuso». Se invece la materia presente è in quantità insufficiente, l’Universo continuerà ad espandersi per sempre: in tal caso esso viene definito «aperto». Nel primo esempio la geometria dell’Universo è, come suole dirsi, di tipo sferico, cioè con proprietà simili a quelle che si manifestano sulla superficie di una sfera, nel secondo caso è di tipo iperbolico cioè con proprietà geometriche simili a quelle presenti sulla superficie di una sella.

Ora, la cosa strana è che la materia esistente nell’Universo sembra essere in quantità tale per cui lo stesso si troverebbe in una situazione intermedia, ossia in una situazione per la quale non è possibile decidere se sia chiuso o aperto. Ma se l’Universo oggi è effettivamente in queste condizioni, cioè «piatto», vuol dire che all’inizio, la violenza dell’esplosione fu tale da allontanare la materia in modo che questa, pur rallentando la sua corsa nel tempo, fosse destinata a non fermarsi mai. In altre parole, sarebbe come se, all’inizio dei tempi, fosse stata calibrata la potenza dell’esplosione tenendo conto della quantità di materia presente in modo che la conseguente espansione non risultasse né molto forte né molto debole.

Il modello dell’Universo inflazionario è in grado di risolvere brillantemente anche questo problema perché considera che l’incredibile espansione a cui andò incontro l’Universo durante la fase inflazionaria avrebbe creato uno spazio molto più vasto di quello che in realtà siamo in grado di osservare. In pratica è come se noi oggi stessimo esaminando un piccolissimo tratto della superficie di un pallone di dimensioni enormi. Questo piccolo tratto di superficie ci apparirebbe piatto, come ci appare piatto un campo di calcio benché esso rappresenti un tratto della superficie terrestre che, come tutti sanno, è curva.

Vi è un altro enigma che la teoria dell’inflazione risolve coerentemente ed è quello della “assenza dei monopoli magnetici”. Questi sono particelle ipotetiche con un solo polo magnetico (sud o nord) mentre, come tutti sanno, nelle normali calamite non è possibile separare l’uno dall’altro. La presenza di queste strane particelle (fra l’altro pesantissime) è prevista dalla teoria inflazionaria in quanto all’inizio dei tempi avrebbero svolto il ruolo di catalizzatori ossia di acceleratori delle trasformazioni dei leptoni in quark e viceversa. Sennonché, la conferma sperimentale dei monopoli è impossibile perché per produrli sarebbe necessario disporre di quantità enormi di energia; l’unica possibilità sarebbe quella di osservarli direttamente nella materia, ma finora, se si esclude un caso isolato ancorché dubbio, nessuno li ha visti. Ciò evidentemente dipende dal fatto che la materia con l’inflazione si è enormemente diluita e con essa si sono rarefatti anche i monopoli magnetici.

 

Parte XI

Fino a pochi anni fa chiedersi cosa ci fosse stato prima
del Big Bang non aveva senso perché
si pensava che con esso fosse nata ogni cosa:
materia, energia, spazio e tempo.

 

La fine del secolo che si è appena concluso ha portato con sé due grosse novità in ambito astronomico: l’una riguardante l’osservazione che l’Universo sta accelerando la sua espansione e non rallentando (come si era sempre pensato) e l’altra relativa all’affermarsi di una nuova teoria che dovrebbe portare alla unificazione di tutte e quattro le forze fondamentali della natura, ivi compresa la gravità, che fino ad ora ne era rimasta esclusa. La prima scoperta è destinata a cambiare le nostre aspettative riguardo al destino ultimo dell’Universo, mentre la seconda apre nuovi scenari relativamente alla fase precedente al Big Bang.

Iniziamo dalla prima. Fino a pochi anni fa gli astronomi erano convinti che l’Universo stesse rallentando la sua espansione frenato dalla forza di gravità che si oppone, anche se in modo sempre meno efficace, alla spinta iniziale. Ora però una serie di osservazioni eseguite su alcune supernovae hanno convinto gli astronomi che l’Universo in realtà sta accelerando la sua corsa.

Le supernovae sono stelle molto massicce le quali terminano la loro esistenza con una formidabile esplosione che le rende visibili anche in galassie molto lontane. Ne esistono di vari tipi: quelle denominate Ia (tipo primo “a”) hanno la caratteristica di essere tutte ugualmente luminose al momento dell’esplosione, ossia di presentare la stessa luminosità intrinseca e quindi di apparire tanto più fioche quanto più sono lontane. Luminosità intrinseca (o assoluta), luminosità apparente e distanza di una stella sono tre grandezze legate fra loro da una semplice relazione matematica: ragione per cui se sono note due di esse è nota anche la terza.

Ebbene, la distanza di una supernova di tipo Ia può essere determinata dalla misura del red shift della galassia entro la quale la stella si trova. Il red shift ci informa che la galassia si sta allontanando tanto più velocemente quanto più è lontana, ma non ci dice se compia tale operazione accelerando o decelerando la sua corsa. Questa informazione ci viene invece fornita dalla supernova: se l’Universo stesse decelerando la supernova sarebbe più vicina e più brillante di quanto suggerito dalla misura del red shift, se stesse accelerando la supernova sarebbe più lontana e quindi apparirebbe più debole del previsto. Le osservazioni di fine secolo hanno mostrato che le supernovae presenti in galassie non molto lontane sono tutte più deboli di quanto ci si attenderebbe e quindi l’Universo starebbe accelerando la sua espansione.

Ora però osservazioni più recenti, eseguite grazie al satellite Hubble su supernovae poste in galassie tanto lontane che i telescopi da terra non riescono a vedere, hanno mostrato che l’Universo molto antico decelera. Ciò è quanto si aspettavano anche gli esperti i quali ritenevano che se l’espansione dell’Universo fosse stata sempre in accelerazione questo continuo aumento della velocità avrebbe finito per smembrare le galassie e gli ammassi di galassie che forse in quelle condizioni non avrebbero nemmeno avuto modo di formarsi.

Ma se l’Universo è veramente in una fase di accelerazione allora diventa necessario ipotizzare l’esistenza di una forma di energia, che i cosmologi hanno chiamato “energia oscura”, la quale si aggiunge a quella che ha provocato il grande scoppio iniziale. Non si tratta di poca cosa perché si è calcolato che questa energia di natura misteriosa dovrebbe rappresentare il 70% di tutta l’energia dell’Universo; il restante sarebbe quasi interamente formato dalla cosiddetta “materia oscura” mentre la comune materia, quella che si rende visibile agli strumenti ottici, non sarebbe superiore all’uno per cento del totale. Si è anche calcolato che se la spinta generata dall’energia oscura rimanesse costante nel tempo, o dovesse addirittura aumentare in futuro, l’Universo diventerebbe sempre più vuoto e in meno di cento miliardi di anni rimarrebbero visibili solo alcune centinaia di galassie, mentre tutte le altre presenterebbero uno spostamento verso il rosso della loro luce tanto elevato da risultare praticamente invisibili.

Esaminiamo ora la seconda scoperta, che non costituisce di per sé una vera e propria novità. Nel lontano 1968 un giovane fisico italiano (oggi sessantenne) di nome Gabriele Veneziano, scoprì che le particelle puntiformi e prive di struttura interna previste dal cosiddetto “modello standard delle particelle elementari” sono in realtà dei fili sottilissimi che vibrano. I costituenti ultimi della materia sarebbero cioè minuscole cordicelle dette “stringhe” (dalla traduzione letterale del termine anglosassone string) le quali vibrando formerebbero tutti i costituenti fondamentali della materia e delle forze.

La teoria che si ottiene sostituendo gli oggetti puntiformi privi di estensione spaziale con le stringhe unidimensionali è in grado di inglobare la forza di gravità con le altre in modo naturale. La teoria delle stringhe non è unica: ne esistono ben cinque tipi diversi. Essi contemplano una serie di aspetti sconcertanti del mondo che ci circonda ad iniziare da quello in virtù del quale lo spazio non avrebbe solo le tre dimensioni di cui abbiamo esperienza diretta ma ben nove, oltre alla dimensione temporale.

Verso la fine degli anni ‘90 si è fatto un ulteriore passo in avanti scoprendo che le cinque teorie che frattanto erano diventate di superstringa, per avere incluso il principio di simmetria fra bosoni (particelle mediatrici delle forze) e fermioni (particelle di materia), sono in realtà aspetti diversi di una sola teoria fondamentale detta M-teoria, cioè madre di tutte le teorie. Questa prevede l’esistenza non più di dieci ma di undici dimensioni entro le quali sarebbero presenti oggetti più estesi delle stringhe come membrane e altre strutture a più dimensioni dette “brane” (un termine ricavato da mem-brane): le stringhe sarebbero quindi uni-brane e il punto uno zero-brana; le membrane sono delle bi-brane ma poi esisterebbero anche le tri-, le quadri- e così via fino alle nove-brane. Il nostro Universo potrebbe essere una tri-brana (detta anche brana-universo) immersa in uno spazio più grande.

Questa visione del mondo microscopico ha quindi anche implicazioni di carattere cosmologico, perché è in grado di formulare ipotesi sulla struttura dell’Universo all’inizio dei tempi. Secondo il modello cosmologico del Big Bang l’Universo ebbe origine a partire da uno stato di dimensioni nulle. La teoria delle stringhe fissa invece un limite inferiore alle distanze fisiche e stabilisce che nessuna grandezza possa diventare più piccola di un valore minimo. Non è difficile capirne il motivo: i punti privi di dimensioni spaziali, per quanto si ammucchino l’uno sull’altro, creano un volume complessivo che sarà sempre zero, mentre le stringhe, possedendo una dimensione spaziale, se si ammassassero tutte insieme formerebbero un grumo di volume non nullo. Questa osservazione elimina la singolarità e stabilisce che l’Universo all’inizio dei tempi non poteva essere di dimensioni nulle.

Se un giorno (molto lontano e nemmeno certo) l’Universo dovesse terminare di espandersi e cominciasse a collassare su sé stesso finirebbe, secondo quanto previsto dalla teoria tradizionale, in un inesorabile Big Crunch (un Big Bang alla rovescia) che si concluderebbe in un punto di dimensioni nulle. Ma la teoria delle stringhe impone che nessuna delle dimensioni spaziali possa contrarsi fino a ridursi a zero: ragione per cui arrivato vicino alla dimensione minima (cioè a quello che nella VIII puntata abbiamo visto essere il limite di Planck) invece che continuare a contrarsi l’Universo rimbalzerebbe ed inizierebbe ad espandersi nuovamente. A loro volta la temperatura e la densità anziché salire ulteriormente riprenderebbero a scendere. La nuova teoria non esclude il Big Bang, però esso non viene più visto come l’istante iniziale di ogni cosa ma piuttosto come un momento di transizione fra due fasi speculari con proprietà fisiche e geometriche opposte. Il Big Bang nel nuovo modello che scaturisce dalla teoria delle superstringhe verrebbe declassato al rango di “istante iniziale della fase attuale di Universo”.

Per concludere è bene chiarire che anche questa, come una qualsiasi questione scientifica, non è definitiva. Nuove osservazioni e nuove idee modificheranno ciò che oggi gli scienziati hanno proposto e nuove teorie sostituiranno quelle attuali.

Prof. Antonio Vecchia

One Response

  1. Alessandro

Reply