La strana storia della quinta dimensione – II Parte

di Marco Dian
– Fisica

La storia di come un’idea apparentemente impossibile e assolutamente strana ha rivoluzionato la fisica per più di un secolo. Una teoria che ha attratto le menti più brillanti del nostro tempo ma che ancora non sembra avere né una conferma né una smentita sperimentale. È la storia della quinta dimensione.

Whormhole Quinta Dimensione

Crediti: Pixabay

Nella puntata precedente

  • Durante il primo ventennio del ‘900 videro la luce due grandi teorie scientifiche: la relatività generale (che descriveva i fenomeni su larga scala) e la meccanica quantistica (per tutti i fenomeni a livello atomico)
  • Nel 1919 il matematico polacco Theodor Kaluza ebbe la geniale idea di includere una dimensione spaziale aggiuntiva nella teoria della relatività. Il risultato fu che grazie a questa dimensione extra venivano unificati gravitazione ed elettromagnetismo.
  • Nel 1926 il fisico Oscar Klein portò avanti questa idea affermando che la dimensione extra è estremamente piccola e arrotolata su se stessa a forma di cerchio in ogni punto dello spazio.
  • Purtroppo il rapporto tra la massa e la carica dell’elettrone calcolato con questa teoria differisce di molto con il valore misurato. 

Un modello per domarle, un modello per ghermirle e nella gravitazione incatenarle!

Passata la festa, passato il santo, si dice. Dopo un primo momento di eccitazione per la quinta dimensione, i fisici tornarono alla loro occupazione: la comprensione dei fenomeni atomici, subatomici e, in generale, delle interazioni tra le particelle. Negli anni ’50 venne scoperta e descritta l’interazione nucleare debole responsabile, per esempio, della radioattività. Negli anni ’60 vide la luce la descrizione dell’interazione nucleare forte, responsabile della struttura interna di protoni, neutroni e altre particelle pesanti. 

Lo sforzo dei fisici, sia teorici sia sperimentali, culminò negli anni settanta, quando si accorsero che queste interazioni fondamentali e l’elettromagnetismo potevano essere incluse in una grande teoria unificatrice. Stiamo parlando del Modello Standard delle Particelle Elementari – più brevemente Modello Standard – ed è sicuramente la più grande e complessa impalcatura mai pensata e costruita dalla mente umana.

Ci sono voluti più di cinquant’anni ma, alla fine, gli scienziati hanno fatto ordine nel caos delle particelle elementari. Sono stati talmente bravi che l’intero modello può essere riassunto in una singola figura, considerata la “tavola periodica” delle particelle elementari.

Le particelle in verde sono i leptoni (dal greco leptós, leggero), dei quali fanno parte per esempio l’elettrone e i vari neutrini. Quelle in viola sono i quark, i quali costituiscono i mattoncini del nostro universo, come protoni, neutroni e altre particelle esotiche. Le particelle in rosso sono i bosoni – che prendono il nome dal fisico indiano Satyendranath Bose il quale, assieme ad Einstein, ne descrisse il comportamento – i quali vengono scambiati dalle altre particelle durante le interazioni tra esse. Infine v’è il famoso bosone di Higgs, la star indiscussa del Modello. È talmente importante che è grazie alla sua esistenza, dimostrata definitivamente nel 2012, che le particelle hanno una massa. Crediti: Wikimedia Commons.

La descrizione dei fenomeni elettrici e magnetici, la radioattività, le reazioni nucleari, la propagazione della luce e, in sostanza, tutta la fisica che riguarda i costituenti ultimi della materia di cui siamo fatti, è descritta dal Modello Standard. Tutte le previsioni della teoria sono state verificate sperimentalmente con estrema precisione. Gli esperimenti eseguiti nei grandi collisori di particelle (LHC di Ginevra, SLAC di Stanford in California e Fermilab vicino a Chicago) hanno confermato tutti la validità delle leggi fisiche descritte dal Modello Standard. 

È senz’altro la conquista scientifica più significativa del nostro tempo. E sarebbe sicuramente la teoria definitiva dello scibile umano se non fosse per un enorme dettaglio: non include la quarta interazione fondamentale, quella gravitazionale. La gravità è come una lince nel bosco: si tiene ben lontana dall’essere scoperta e ogni volta che pensiamo di averla messa a fuoco, lei si allontana e sparisce per sempre dietro a qualche roccia. La gravità sfugge ripetutamente ai tentativi dell’uomo di uniformarla alle altre tre forze fondamentali. Del resto, vedremo che la scala di energia della gravità è completamente diversa rispetto a quella di tutte le altre forze. Il Modello Standard sembra mostrare i primi segni di cedimento. Ma non è solo colpa della gravità: come vedremo, la teoria ha molti altri lati oscuri.

C’è sempre un “ma…”

Nelle profondità della terra nei pressi della miniera di Kamioka, in Giappone, esiste un gigantesco cilindro – alto più di 40 metri e largo quasi 40 – riempito da 50mila tonnellate di acqua ultra pura. La parete del cilindro è coperta da più di 11mila rivelatori luminosi. A immaginarselo così sembra un luogo uscito da un film di fantascienza, ma è tutto vero ed è la sede dell’esperimento Super-Kamiokande o Super-K (da Kamioka Nucleon Decay Experiment). 

Questo super rivelatore venne costruito, a partire dal 1982, per studiare le particelle più elusive di tutte, i neutrini. Teorizzati negli anni ’30 da Wolfgang Pauli per spiegare lo spettro del decadimento beta, vennero osservati sperimentalmente soltanto nel 1956. Il meccanismo per rilevare una di queste particelle è relativamente semplice: quando un neutrino interagisce con gli elettroni nell’acqua, può generare elettroni o positroni che si muovono con velocità superiori a quella della luce nell’acqua; ciò genera una scia luminosa che può essere rivelata, la cosiddetta luce Cherenkov. Nel corso degli anni ’80 e ’90, il Super-K ha osservato parecchi neutrini e tutte le misurazioni concordavano con il Modello Standard, che prevedeva per essi una massa nulla.

Fotografia che mostra dell’interno dell’esperimento SuperKamiokande durante un momento di manutenzione. Crediti: Kamioka Observatory, ICRR (Institute for Cosmic Ray Research), The University of Tokyo.

L’idillio, però, finì nel 1998 quando avvenne un fatto senza precedenti. Paragonando la quantità di neutrini che attraversavano il rivelatore dal basso verso l’alto (quindi quelle particelle provenienti dalle rocce sotto il cilindro) con quella dei neutrini che arrivavano dall’alto (prodotti  cioè dalle interazioni tra i raggi cosmici e l’atmosfera), gli scienziati si accorsero che i primi erano circa la metà dei secondi. Siccome la Terra è sferica e i neutrini non interagiscono con la materia, gli studiosi  si aspettavano un uguale numero tra quelli prodotti dai raggi cosmici e quelli provenienti dalle rocce terrestri. Come mai, invece, c’era questa asimmetria?

L’unica spiegazione possibile era che i neutrini provenienti dalle rocce sotto al rivelatore si fossero trasformati in neutrini di un altro tipo, non rilevabili dai sensori del Super-K. Questa trasformazione era stata prevista dall’italiano Bruno Pontecorvo nel 1957 e prende il nome di oscillazione di neutrini. L’unico modo perché i neutrini possano cambiare tipo (in gergo si dice sapore) è che essi siano dotati di massa non nulla. 

La scoperta del 1998 al Super-K fu una cosa talmente sconcertante da valere il Nobel per la fisica nel 2015 a Takaaki Kajita dell’esperimento Super-K e ad Arthur McDonald che fece la stessa scoperta nel 2001 osservando i neutrini solari al Sudbury Neutrino Observatory. 

Il fatto che i neutrini abbiano una massa aprì una grande falla in quella perfetta impalcatura che era il Modello Standard. Fu un brutto colpo per gli scienziati. Ma i fisici non si persero d’animo e cercarono di includere la massa dei neutrini nella teoria. Tuttavia, l’unico modo per farlo era aggiungere 9 nuovi parametri, che si andavano a sommare ai 19 già presenti. 

Ventotto parametri liberi da includere a priori nella teoria non sono pochi. Anzi, questo di per sé è già un problema perché tali parametri liberi non sono altro che i valori delle masse delle particelle elementari e delle costanti di accoppiamento (quantità che rappresentano le intensità delle forze fondamentali). Questi valori devono essere determinati sperimentalmente e non sono spiegati dalla teoria ma inclusi ad hoc in essa. 

Di qui la seconda grande domanda che ci poniamo è: perché le masse e le intensità delle forze hanno esattamente i valori misurati? Da dove escono questi numeri? Il Modello Standard questo non lo dice. 

A dire il vero non ci dice molte altre cose. Per esempio non sappiamo come mai ci sono esattamente tre generazioni di fermioni – le particelle che costituiscono la materia. Inoltre, non abbiamo idea del perché nell’universo c’è più materia rispetto all’antimateria. Infatti, i modelli cosmologici prevedono che nelle prime fasi di vita dell’universo ci fosse una quantità pressoché uguale di materia e di antimateria. È quel “pressoché” a dare fastidio: è bastato uno piccolo squilibrio per portare all’annichilimento di tutta l’antimateria. Ma perché è successo? Ancora una volta, il Modello Standard non lo spiega.

A proposito di universo, ci sono domande aperte anche per il cosmo. Infatti, il modello cosmologico di riferimento – detto modello del big bang caldo – prevede che solo il 5% della massa nell’universo sia sotto forma di materia ordinaria (come pianeti, stelle, galassie), mentre il 30% sia “invisibile”, una materia oscura che interagisce solo gravitazionalmente con quella ordinaria e visibile. E, indovinate: il Modello Standard non solo non descrive come possa essere fatta la materia oscura ma non ne prevede nemmeno l’esistenza! Figuriamoci poi se può dirci qualcosa a proposito dell’ingrediente più abbondante dell’universo, quello che costituisce il 65% dell’intero cosmo: l’energia oscura.

Vi è poi un altro grande ostacolo: il Modello Standard è incompleto. Infatti, esso descrive soltanto tre delle quattro interazioni fondamentali, lasciando alla Relatività Generale il compito di descrivere la forza gravitazionale. Ma siccome ogni massa genera un campo gravitazionale, anche le particelle elementari dovrebbero generarne uno, anche se estremamente debole. Nella teoria non c’è alcun riferimento alla gravità.

Ma non è finita perché il problema più interessante l’abbiamo lasciato per ultimo. È la ciliegina sulla torta, il dessert dopo pranzo, l’amaro dopo cena. È talmente succoso che merita un capitolo tutto per sé.

Ma non è finita perché il problema più interessante l’abbiamo lasciato per ultimo. È la ciliegina sulla torta, il dessert dopo pranzo, l’amaro dopo cena. È talmente succoso che merita un capitolo tutto per se.

Problemi gerarchici

Nel Modello Standard quasi tutto concorda con le previsioni teoriche. È un traguardo incredibile, ed è straordinario perché tutte le particelle previste dalla teoria sono state effettivamente osservate. Ma sappiamo anche che presenta numerosi ostacoli e che tutto concorda con gli esperimenti soltanto se si assume, a priori, che l’intensità delle forze fondamentali e le masse dei bosoni di gauge (quelli in rosso nella figura all’inizio dell’articolo) abbiano esattamente i valori misurati negli esperimenti. 

In altre parole, se confrontiamo la massa delle particelle elementari con quella che ci si aspetterebbe facendo i calcoli con la teoria, i due numeri differiscono di una quantità mostruosa: la massa misurata dagli esperimenti è dieci milioni di miliardi di volte più piccola di quella teorizzata. Se il Modello Standard deve spiegare l’origine del valore delle masse osservate è chiaro che qualcosa non va.

Ma da cosa ha origine questa incredibile discrepanza? 

Prima di occuparcene facciamo una premessa necessaria. Nella sua formulazione odierna, il Modello Standard viene descritto mediante una teoria quantistica dei campi. Queste parole, che suonano così bene e ci rendono molto intelligenti quando le sfoggiamo a un aperitivo con gli amici, significano che tutte le particelle sono rappresentate da campi, che assumono un determinato valore in ogni punto dello spazio. Un esempio di campo è quello della temperatura: in ogni punto della stanza la temperatura dell’aria ha un valore numerico misurabile. 

Inoltre, la teoria è “quantistica” poiché i campi non possono assumere qualsiasi valore, ma sono, appunto, quantizzati. Ovvero possono assumere soltanto specifici valori discreti e non continui (a differenza della temperatura che, in linea di principio, può assumere qualsiasi valore numerico).

Detto ciò, consideriamo la particella vip del Modello, il bosone di Higgs. Dal 2012 sappiamo, perché l’abbiamo visto e misurato all’LHC di Ginevra, che ha una massa di circa 125 GeV/c2 (sì, non è una massa misurata in grammi perché per le particelle elementari viene comodo utilizzare la famosa formula di Einstein E = mc2, ed esprimere la massa in termini di energia e velocità della luce).

Nella teoria quantistica di campo, quindi, anche il bosone di Higgs è rappresentato da un campo, il campo di Higgs. La teoria inoltre prevede che dal vuoto – che in realtà tale non è, e per questo si parla di “falso vuoto” – vengano continuamente generati e distrutti altri campi, ognuno dei quali rappresenta una particella “virtuale”. Il mare del falso vuoto, brulicante di particelle che continuano a crearsi e a distruggersi, è un effetto puramente quantistico e non ha analogie nel mondo macroscopico. La cosa importante da sapere, però, è che le particelle virtuali, sebbene non esistano veramente, apportano notevoli contributi alla massa della particella di Higgs. 

La somma di tutti i contributi quantistici alla massa “nuda” del bosone di Higgs – che si possono determinare con la teoria – fanno aumentare di sedici ordini di grandezza (dieci milioni di miliardi) la massa della nostra particella. È questa la discrepanza enorme di cui parlavamo in precedenza. Il bosone di Higgs sarebbe talmente pesante da rendere rilevanti anche gli effetti della quarta interazione fondamentale, la grande esclusa del Modello Standard: la gravità.

I fisici chiamano questo problema il problema della gerarchia. E non è una cosa da poco. 

Infatti, il Modello Standard è in accordo con i dati sperimentali soltanto se si suppone che i contributi quantistici si cancellino, in modo che la massa del bosone di Higgs resti dell’ordine dei 125 GeV/c2 misurati. Per far tornare i conti con la realtà, quindi, c’è bisogno di postulare a priori una “sintonizzazione” estremamente precisa dei parametri della teoria. E, badate bene, si tratta di introdurre aggiustamenti di almeno sedici ordini di grandezza! Sarebbe un po’ improbabile che la natura ci abbia fatto questo scherzetto. Forse qualcosa ci sfugge.

Ormai sono decenni che i fisici si arrovellano attorno al problema della gerarchia e, per risolverlo, sono state esplorate moltissime opzioni. Inoltre, visti i numerosi problemi di cui soffre il Modello Standard, è evidente come sia necessario l’utilizzo di una “nuova fisica” che vada oltre il Modello Standard stesso. Occorrono idee rivoluzionarie, bisogna pensare fuori dagli schemi senza aver timore di osare e, soprattutto, è indispensabile il coraggio di farlo. In questi casi, la sfrontatezza del genio di Theodor Kaluza può essere d’ispirazione. E non solo.

LETTURE PER APPROFONDIRE

  • B. Povh, K. Rith, C. Scholz, F. Zetsche, Particelle e nuclei. Un’introduzione ai concetti fisici, Bollati Boringhieri: testo un po’ tecnico, da leggere per chi ha già una buona infarinatura in fisica.

Lisa Randall, Passaggi curvi, Il Saggiatore: libro divulgativo di riferimento per conoscere il mondo delle dimensioni extra e dove è illustrato molto chiaramente il problema della gerarchia.