Math Science Chemistry Economics Biology News Search
Una mela che cade al suolo, un fulmine che si scaglia su un albero, una limatura di ferro che diventa incandescente, una fiamma che cambia colore: fenomeni apparentemente semplici che la fisica si propone di spiegare e ciò nonostante gli scienziati non sono ancora riusciti a concepire e formalizzare un quadro coerente e completo della realtà. Ma ciò che purtroppo sembra evidente, è che la prospettiva di questo obiettivo è ben lontana. Storicamente la fisica non sembra abbia mai attraversato un periodo critico come quello odierno, iniziato intorno agli anni Ottanta.
L’unificazione di teorie apparentemente indipendenti tra loro è uno degli obiettivi più ambiti e riconosciuti dai fisici teorici di qualunque periodo storico, tanto da spingerli a credere fermamente nell’unicità della natura. Uno dei tanti a proclamare tale convinzione fu Herman Weil: Sono abbastanza audace da credere che tutto l’insieme dei fenomeni fisici si possa derivare da un’unica legge universale della massima semplicità matematica. L’universo in cui ci troviamo è interconnesso, in quanto ogni cosa interagisce con ogni altra cosa. Non è assolutamente possibile avere due teorie della natura che coprano fenomeni diversi come se una non avesse nulla a che fare con l’altra.
Le scoperte degli ultimi trent’anni si sono ridotte notevolmente rispetto al fruttuoso periodo che ebbe inizio con Newton.
Intorno al 1780, alla formulazione delle leggi del moto e della gravitazione seguirono gli esperimenti di chimica quantitativa di Antoine Lavoisier, successivamente alle porte dell’Ottocento si ebbe la teoria atomica di Dalton, e poco dopo, gli esperimenti di Thomas Young confutarono la teoria corpuscolare della luce di Newton, confermandone la natura ondulatoria; alla fine gli studi di Michael Faraday sull’elettricità e il magnetismo introdussero il concetto di campo.
Nella seconda metà del XIX secolo James Clerk Maxwell operò sugli studi di Faraday e formulò la teoria dell’elettromagnetismo, descrivendo la luce come un’onda elettromagnetica. L’ultimo periodo dell’Ottocento fu scenario della scoperta degli elettroni e del fenomeno della radioattività.
Agli inizi del ‘900 la fisica venne radicalmente sconvolta, dalla formulazione della relatività ristretta e generale e, contemporaneamente, dalla nascita della fisica quantistica; passando attraverso la descrizione delle proprietà termiche della radiazione di Planck, l’effetto fotoelettrico di Einstein, che descriveva l’energia in quantità discrete, chiamate quanti, la teoria atomica di Bohr, la natura ondulatoria-corpuscolare della materia di De Broglie, il principio di indeterminazione di Heisenberg, l’equazione d’onda di Schrodinger per finire con la predizione di un’antiparticella da parte di Paul Dirac.
L’arco di tempo compreso tra il 1930 e il 1980 è stato invece segnato dalla scoperta di innumerevoli particelle e dalla parziale formulazione di una teoria che unificasse tutte le forze e le particelle, chiamata modello standard.
Con la scoperta di J. J. Thomson l’atomo non venne più considerato come una vera particella elementare, per cui seguirono una serie di modelli che presupponevano l’esistenza di particelle subatomiche, quali l’elettrone, il protone e il neutrone.
La fisica delle particelle elementari studia non solo i costituenti fondamentali della materia, ma anche le forze fondamentali che ne governano i cambiamenti sia a livello microscopico che macroscopico.
Proprio in questo campo la fisica ha registrato i più grandi progressi: Newton universalizzò la legge della gravitazione, unificando la meccanica terrestre e celeste; Maxwell formulò le equazioni del campo elettromagnetico, unificando l’elettricità e il magnetismo, come due facce della stessa medaglia; Einstein, in un primo tempo, unificò lo spazio e il tempo in un mondo quadrimensionale, ma poi modificò la legge della gravitazione universale alla geometria dello spazio-tempo. Ognuna di queste teorie ha trasformato profondamente la nostra concezione della natura. Newton considerava che lo spazio e il tempo avessero delle proprietà eterne e immutabili, indipendentemente dai fenomeni che evolvevano in essi.
Con la teoria della relatività questa concezione fu soppiantata radicalmente da una realtà quadridimensionale mutevole, dipendente dalla natura, nella quale la forza di gravità si manifesta attraverso increspature dello spazio-tempo, secondo una geometria definita dall’equazione di Einstein, non riconducibile né a quella euclidea né ad altre.
Già nei primi decenni del ‘900 i fisici avevano preso come modello l’opera pionieristica di Maxwell cercando di unificare le due forze fin ad allora conosciute: la gravità e l’elettromagnetismo.
Se davvero la natura è unica perché esistono due campi differenti e non uno solo?
Iniziò a diffondersi l’idea di considerare la gravità e l’elettromagnetismo come aspetti di un singolo fenomeno, di un unico campo. Furono formulate due principali teorie: una avanzata dal fisico irlandese Gunnar Nordstrom, che scoprì che basta aggiungere una dimensione spaziale in più alle equazioni che descrivono l’elettromagnetismo per poterne ricavare la gravità; l’altra, proposta da Einstein, ovvero la teoria della relatività generale, nella quale viene incorporata la legge della gravitazione alla relatività ristretta. Solo quest’ultima fu accettata dalla comunità scientifica, perché sostenuta da previsioni validamente confermate, ma non come una teoria unitaria. Nello stesso periodo si sviluppò a pieno la fisica quantistica e si scoprirono anche due nuove forze: l’interazione debole e forte. Einstein tentò fino alla sua morte di formulare una teoria unificata dei campi, ma il suo rimase solo un sogno.
Purtroppo anche nel XXI secolo l’unificazione dell’infinitamente grande e dell’infinitamente piccolo è uno fondamentali problemi della fisica teorica, ovvero il problema della gravità quantistica.
In particolare sia la fisica quantistica che relativistica presentano un problema di valori infiniti: per la prima i valori infiniti coincidono con il campo (che ha un valore per ogni punto dello spazio, il che significa un numero infinito di variabili, soggette a fluttuazioni imprevedibili); invece, la relatività generale prevede valori infiniti per la forza di gravità e la densità di materia all’interno di un buco nero.
Il problema è che quest’ultima è anch’essa una teoria di campo che, applicata alla meccanica quantistica, presenterà maggiormente il problema degli infiniti tanto da rivelarsi incompatibile con la realtà. Con la scoperta della forza forte, che lega i quark nel formare un nucleone e i nucleoni stessi nel formare un nucleo atomico, e della forza debole, responsabile della trasmutazione delle particelle, come il decadimento beta, i teorici trascurarono la forza gravitazionale, che interagisce molto più debolmente con la materia rispetto alle altre, concentrandosi sulle altre tre.
L’elettromagnetismo, per primo, fu formulato nuovamente alla luce del nuovo mondo della fisica quantistica; l’unificazione ricercata è una teoria quantistica dei campi che, a differenza della teoria classica, prevede che due corpi non comunichino istantaneamente senza alcun mezzo di trasmissione, ma che interagiscano attraverso delle particelle mediatrici, chiamate particelle di campo, che, nel caso della forza elettromagnetica, viaggiano alla velocità della luce.
La particella di campo della forza elettromagnetica è il fotone che viene emesso e assorbito dalle particelle cariche elettricamente, all’interno di un determinato intervallo di tempo, determinato dal principio di indeterminazione.
La teoria che descrive l’interazione del campo elettromagnetico con la materia è la QED (Elettrodinamica Quantistica), sviluppata indipendentemente, alla fine degli anni Quaranta, da Philip Feynman, Sin-Itiro Tomonoga e Julian Schwinger.
Il modello standard aveva fatto dei passi avanti, ma a questi si accompagnarono una serie di interrogativi riguardanti lo zoo di particelle e antiparticelle che furono osservate. Gli scienziati non riuscivano a intravedere inizialmente un quadro logico, fin quando non furono scoperte abbastanza particelle da poter essere raggruppate in due gruppi: i leptoni, le particelle più leggere, come l’elettrone; e gli adroni, le particelle più pesanti, come il protone e il neutrone. Agli inizi degli anni Sessanta, fu formulata una teoria da Murray Gell-Mann e George Zweig secondo la quale gli adroni non erano particelle elementari ma erano costituiti da altre particelle che vennero chiamate quark. Queste nuove particelle, secondo le previsioni, dovevano avere carica frazionaria ma anche un’altra proprietà, rispetto alle altre, il colore, che poteva essere di tre tipi, ma non associabile a un colore reale. I quark si dovevano combinare in modo da formare una particella incolore e con carica intera. Infatti una particella incolore poteva essere ottenuta dalla combinazione di tre quark, ognuno di colore diverso, oppure dalla combinazione di un quark e un anti-quark, in modo che uno avesse l’anticolore dell’altro.
Tutte combinazione dettate dalla nuova legge di conservazione del colore. La teoria dei quark fu splendidamente confermata da un esperimento che rilevò la nuova particella prevista da Gell-Mann e Zweig, e da un altro che confermò la presenza di altre particelle all’interno di un nucleone.
Dopo il successo della QED, i fisici cercarono di applicare allo stesso modo la fisica quantistica alle due interazioni nucleari. Anche l’interazione forte, che tiene uniti i quark, come la forza elettromagnetica, ha delle particelle campo, chiamate gluoni. La teoria quantistica del campo della forza forte è la QCD (Cromodinamica Quantistica).
Le quattro forze conosciute presentavano ognuna caratteristiche enormemente differenti, in termini di intensità: l’interazione forte è molto più intensa delle altre, dell’ordine di 10-38 rispetto alla forza gravitazionale, di 10-6 rispetto all’interazione debole e di 10-2 rispetto alla forza elettromagnetica. Inoltre, solo due delle quattro, la forza elettromagnetica e gravitazionale, si manifestano nel mondo macroscopico perché agiscono su un campo di estensione infinita, al contrario delle forze nucleari che si manifestano solo su scala subatomica. Il perché di queste enormi differenze è stato oggetto di profonde riflessioni delle migliori menti teoriche del tempo, che, per risolvere il problema, riportarono in vita un’elegantissima teoria matematica di Herman Weil, formulata nel 1918. Infatti, prendendo in prestito due principi che attualmente costituiscono la pietra angolare del modello standard si è permesso alla fisica fondamentale di fare enormi passi avanti: il semplicissimo principio di simmetria (noto anche come simmetria di gauge) e la sua conseguente rottura spontanea. Una simmetria è una trasformazione che conserva le proprietà (che possono essere fisiche, matematiche, geometriche, ecc …) di un oggetto e la sua rottura spontanea è quello stato asimmetrico in cui degrada l’oggetto, che di conseguenza non è più simmetrico a quelle trasformazioni. Sembra che in natura un sistema simmetrico non sia stabile, come ad esempio un ago in equilibrio sulla punta è un sistema simmetrico per trasformazioni rotazionali rispetto al suo asse, in qualunque direzioni lo osserviamo presenta sempre le stesse proprietà geometriche. Ma per instabilità cadrà in una direzione qualunque che lo renderà asimmetrico per trasformazioni rotazionali. Negli anni ’60 Steven Weinberg, Sheldon Glashow e Abdus Salam formalizzarono questi principi applicandoli alla forza elettromagnetica e debole, elaborando una teoria quantistica nella quale quest’ultime sono considerate manifestazioni di un’unica forza elettrodebole. Lo stato in cui la forza elettromagnetica è simmetrica della forza debole, ossia è equivalente, si ha dopo una determinata soglia di energia, di 102 Gigaelettronvolt, che viene raggiunta negli acceleratori di particelle. A ciò segue una rottura spontanea della simmetria, che avviene al di sotto della stessa soglia di energia e che rende instabile il sistema, degradando le due forze in uno stato asimmetrico. Questo giustifica le diverse caratteristiche delle due forze che osserviamo al livello di energia relativamente basso in cui viviamo. La teoria quantistica del campo elettrodebole riscosse un gran successo perché previde l’esistenza di particelle non ancora osservate, i bosoni di gauge deboli (bosoni W+, W-, Z), ovvero le particelle del campo elettrodebole, che vennero osservate al CERN di Ginevra nel 1983 in un esperimento guidato da Carlo Rubbia.
La strada della fisica fondamentale che portava alla completa unificazione della natura era stata intravista dagli scienziati che, entusiasti, vollero proseguirla accorpando la QCD alla forza elettrodebole. Essi formalizzarono una teoria, chiamata GUT (Grandi Teorie Unificate), che unificava secondo gli stessi criteri usati da Weinberg, Salam e Glashow la QCD e la forza elettrodebole. La teoria si proponeva non solo di unificare tre campi di forza, ma anche i diversi tipi di particelle elementari (i leptoni che interagiscono elettrodebolmente e i quark che interagiscono fortemente), in modo da trasformare le une nelle altre.
Nonostante l’impossibilità di una verifica diretta, per l’elevata soglia di energia da oltrepassare, ben 1016 Gigaelettronvolt, non raggiungibile nemmeno negli acceleratori di particelle dei nostri tempi, la GUT fu accolta con grande entusiasmo perché non solo risolveva elegantemente dei problemi fino ad allora rimasti insoluti, ma anche perché prevedeva nuovi fenomeni, come quello, più importante, e oggetto di tanti esperimenti, in cui un quark si trasforma in leptoni, un elettrone e un neutrino.
Per confermare questa previsione i fisici hanno tentato di dimostrare l’instabilità del protone, secondo la previsione di una vita media di 1031 anni.
Molti esperimenti hanno cercato di confermare la nuova promettente teoria, uno dei più famosi ha avuto luogo 600 metri sotto il Lago Erie, qui 8000 tonnellate d’acqua depurata sono state controllate grazie a dei fotomoltiplicatori.
Ad oggi, purtroppo, nessuno degli esperimenti ha osservato un solo decadimento, il che delude enormemente le aspettative degli scienziati.
Dagli anni ’80 a questa parte, dopo l’ultima grande scoperta di Rubbia, non si è fatto alcun significativo passo avanti soprattutto in campo sperimentale. I teorici hanno formulato diverse teorie, alternative al modello standard, introducendo idee profondamente innovative e creative.
Una delle quali, che sta acquistando tuttora maggiore credito, è la teoria delle stringhe, la quale considera che ogni particella elementare è costituita da una corda, e il suo modo di vibrare ne definisce le proprietà.
La causa del suo successo è la strabiliante unificazione teorica di tutte le forze e le particelle.
Purtroppo queste teorie alternative sono ben lontane dall’essere sperimentate.
La crisi della fisica in questo trentennio è stata causata dal suo progressivo allontanamento all’approccio empirico e alla costante degradazione in pura speculazione.
La teoria delle stringhe, come le altre, si è proposta di stravolgere la nostra concezione della natura, ma fin quando non prevede qualche fenomeno, in modo da poterla verificare o confutare, resta solo un’affascinante teoria matematica.
La natura ha finora dato prova della sua unicità, bisogna soltanto percorrere la strada giusta che porti all’unica verità fondamentale e, di certo, finora le innovative teorie sviluppate non si sono dimostrate adeguate metodologicamente.
È necessario ritrovare la strada della scienza, quella strada che ha permesso di fare grandi progressi al modello standard, quella strada che sicuramente, quando ci porterà a destinazione, sconvolgerà la nostra concezione della realtà.
Iconography
· Herman Weyl, www.uni-math.gwdg.de/weyl/weyljung.png,
Mathematisches Institut, Georg-August-Universität, Göttingen;
· Elementary constitution of the matter, Kane Gordon, La fisica oltre il modello standard, in Le Scienze n°419, 07/2003;
· In search of the gravitational waves, Palmerini Chiara, Cacciatori di onde, in Le Scienze n°392, 04/2001;
· Staircase of the energy, Unification of the infinitely small and of the infinitely great, Unification of the particles and the forces, String theory, A unified physics by 2050?, in Scientific American 12/1999;
· Strong interaction, Georgi Howard,
Una teoria unificata delle particelle e delle forze, in Le Scienze n° 154, 06/1981;
· Albert Einstein, Albert David Z & Galchen Rivka, Sfida quantistica alla relatività speciale, in Le Scienze n° 489, 05/2009 ;
· Collision of particles, www.isv.uu.se/thep/pictures/CMS_Higgs-event.jpg,
Division of Nuclear and Particle Physics, Uppsala Universitet;
· Diagram’s Feynman of beta decay, Davies Paul, The forces of nature,
Cambridge University Press, Cambridge, 1979;
· The unification of the forces, Flegel Ilka, Hera shows the way to the unification of the forces of nature, Super Microscope Hera, Gazing into the Heart of Matter, The Desy Research Center, 2002;
· Standard Model, www.hep.phy.cam.ac.uk/~drw1/particleandnuclear/_41136526_standard_model2_416.gif, High Energy Physics Group, Department of physics, University of Cambridge.
Una mela che cade al suolo, un fulmine che si scaglia su un albero, una limatura di ferro che diventa incandescente, una fiamma che cambia colore: fenomeni apparentemente semplici che la fisica si propone di spiegare e ciò nonostante gli scienziati non sono ancora riusciti a concepire e formalizzare un quadro coerente e completo della realtà. Ma ciò che purtroppo sembra evidente, è che la prospettiva di questo obiettivo è ben lontana. Storicamente la fisica non sembra abbia mai attraversato un periodo critico come quello odierno, iniziato intorno agli anni Ottanta.
L’unificazione di teorie apparentemente indipendenti tra loro è uno degli obiettivi più ambiti e riconosciuti dai fisici teorici di qualunque periodo storico, tanto da spingerli a credere fermamente nell’unicità della natura. Uno dei tanti a proclamare tale convinzione fu Herman Weil: Sono abbastanza audace da credere che tutto l’insieme dei fenomeni fisici si possa derivare da un’unica legge universale della massima semplicità matematica. L’universo in cui ci troviamo è interconnesso, in quanto ogni cosa interagisce con ogni altra cosa. Non è assolutamente possibile avere due teorie della natura che coprano fenomeni diversi come se una non avesse nulla a che fare con l’altra.
Le scoperte degli ultimi trent’anni si sono ridotte notevolmente rispetto al fruttuoso periodo che ebbe inizio con Newton.
Intorno al 1780, alla formulazione delle leggi del moto e della gravitazione seguirono gli esperimenti di chimica quantitativa di Antoine Lavoisier, successivamente alle porte dell’Ottocento si ebbe la teoria atomica di Dalton, e poco dopo, gli esperimenti di Thomas Young confutarono la teoria corpuscolare della luce di Newton, confermandone la natura ondulatoria; alla fine gli studi di Michael Faraday sull’elettricità e il magnetismo introdussero il concetto di campo.
Nella seconda metà del XIX secolo James Clerk Maxwell operò sugli studi di Faraday e formulò la teoria dell’elettromagnetismo, descrivendo la luce come un’onda elettromagnetica. L’ultimo periodo dell’Ottocento fu scenario della scoperta degli elettroni e del fenomeno della radioattività.
Agli inizi del ‘900 la fisica venne radicalmente sconvolta, dalla formulazione della relatività ristretta e generale e, contemporaneamente, dalla nascita della fisica quantistica; passando attraverso la descrizione delle proprietà termiche della radiazione di Planck, l’effetto fotoelettrico di Einstein, che descriveva l’energia in quantità discrete, chiamate quanti, la teoria atomica di Bohr, la natura ondulatoria-corpuscolare della materia di De Broglie, il principio di indeterminazione di Heisenberg, l’equazione d’onda di Schrodinger per finire con la predizione di un’antiparticella da parte di Paul Dirac.
L’arco di tempo compreso tra il 1930 e il 1980 è stato invece segnato dalla scoperta di innumerevoli particelle e dalla parziale formulazione di una teoria che unificasse tutte le forze e le particelle, chiamata modello standard.
Con la scoperta di J. J. Thomson l’atomo non venne più considerato come una vera particella elementare, per cui seguirono una serie di modelli che presupponevano l’esistenza di particelle subatomiche, quali l’elettrone, il protone e il neutrone.
La fisica delle particelle elementari studia non solo i costituenti fondamentali della materia, ma anche le forze fondamentali che ne governano i cambiamenti sia a livello microscopico che macroscopico.
Proprio in questo campo la fisica ha registrato i più grandi progressi: Newton universalizzò la legge della gravitazione, unificando la meccanica terrestre e celeste; Maxwell formulò le equazioni del campo elettromagnetico, unificando l’elettricità e il magnetismo, come due facce della stessa medaglia; Einstein, in un primo tempo, unificò lo spazio e il tempo in un mondo quadrimensionale, ma poi modificò la legge della gravitazione universale alla geometria dello spazio-tempo. Ognuna di queste teorie ha trasformato profondamente la nostra concezione della natura. Newton considerava che lo spazio e il tempo avessero delle proprietà eterne e immutabili, indipendentemente dai fenomeni che evolvevano in essi.
Con la teoria della relatività questa concezione fu soppiantata radicalmente da una realtà quadridimensionale mutevole, dipendente dalla natura, nella quale la forza di gravità si manifesta attraverso increspature dello spazio-tempo, secondo una geometria definita dall’equazione di Einstein, non riconducibile né a quella euclidea né ad altre.
Già nei primi decenni del ‘900 i fisici avevano preso come modello l’opera pionieristica di Maxwell cercando di unificare le due forze fin ad allora conosciute: la gravità e l’elettromagnetismo.
Se davvero la natura è unica perché esistono due campi differenti e non uno solo?
Iniziò a diffondersi l’idea di considerare la gravità e l’elettromagnetismo come aspetti di un singolo fenomeno, di un unico campo. Furono formulate due principali teorie: una avanzata dal fisico irlandese Gunnar Nordstrom, che scoprì che basta aggiungere una dimensione spaziale in più alle equazioni che descrivono l’elettromagnetismo per poterne ricavare la gravità; l’altra, proposta da Einstein, ovvero la teoria della relatività generale, nella quale viene incorporata la legge della gravitazione alla relatività ristretta. Solo quest’ultima fu accettata dalla comunità scientifica, perché sostenuta da previsioni validamente confermate, ma non come una teoria unitaria. Nello stesso periodo si sviluppò a pieno la fisica quantistica e si scoprirono anche due nuove forze: l’interazione debole e forte. Einstein tentò fino alla sua morte di formulare una teoria unificata dei campi, ma il suo rimase solo un sogno.
Purtroppo anche nel XXI secolo l’unificazione dell’infinitamente grande e dell’infinitamente piccolo è uno fondamentali problemi della fisica teorica, ovvero il problema della gravità quantistica.
In particolare sia la fisica quantistica che relativistica presentano un problema di valori infiniti: per la prima i valori infiniti coincidono con il campo (che ha un valore per ogni punto dello spazio, il che significa un numero infinito di variabili, soggette a fluttuazioni imprevedibili); invece, la relatività generale prevede valori infiniti per la forza di gravità e la densità di materia all’interno di un buco nero.
Il problema è che quest’ultima è anch’essa una teoria di campo che, applicata alla meccanica quantistica, presenterà maggiormente il problema degli infiniti tanto da rivelarsi incompatibile con la realtà. Con la scoperta della forza forte, che lega i quark nel formare un nucleone e i nucleoni stessi nel formare un nucleo atomico, e della forza debole, responsabile della trasmutazione delle particelle, come il decadimento beta, i teorici trascurarono la forza gravitazionale, che interagisce molto più debolmente con la materia rispetto alle altre, concentrandosi sulle altre tre.
L’elettromagnetismo, per primo, fu formulato nuovamente alla luce del nuovo mondo della fisica quantistica; l’unificazione ricercata è una teoria quantistica dei campi che, a differenza della teoria classica, prevede che due corpi non comunichino istantaneamente senza alcun mezzo di trasmissione, ma che interagiscano attraverso delle particelle mediatrici, chiamate particelle di campo, che, nel caso della forza elettromagnetica, viaggiano alla velocità della luce.
La particella di campo della forza elettromagnetica è il fotone che viene emesso e assorbito dalle particelle cariche elettricamente, all’interno di un determinato intervallo di tempo, determinato dal principio di indeterminazione.
La teoria che descrive l’interazione del campo elettromagnetico con la materia è la QED (Elettrodinamica Quantistica), sviluppata indipendentemente, alla fine degli anni Quaranta, da Philip Feynman, Sin-Itiro Tomonoga e Julian Schwinger.
Il modello standard aveva fatto dei passi avanti, ma a questi si accompagnarono una serie di interrogativi riguardanti lo zoo di particelle e antiparticelle che furono osservate. Gli scienziati non riuscivano a intravedere inizialmente un quadro logico, fin quando non furono scoperte abbastanza particelle da poter essere raggruppate in due gruppi: i leptoni, le particelle più leggere, come l’elettrone; e gli adroni, le particelle più pesanti, come il protone e il neutrone. Agli inizi degli anni Sessanta, fu formulata una teoria da Murray Gell-Mann e George Zweig secondo la quale gli adroni non erano particelle elementari ma erano costituiti da altre particelle che vennero chiamate quark. Queste nuove particelle, secondo le previsioni, dovevano avere carica frazionaria ma anche un’altra proprietà, rispetto alle altre, il colore, che poteva essere di tre tipi, ma non associabile a un colore reale. I quark si dovevano combinare in modo da formare una particella incolore e con carica intera. Infatti una particella incolore poteva essere ottenuta dalla combinazione di tre quark, ognuno di colore diverso, oppure dalla combinazione di un quark e un anti-quark, in modo che uno avesse l’anticolore dell’altro.
Tutte combinazione dettate dalla nuova legge di conservazione del colore. La teoria dei quark fu splendidamente confermata da un esperimento che rilevò la nuova particella prevista da Gell-Mann e Zweig, e da un altro che confermò la presenza di altre particelle all’interno di un nucleone.
Dopo il successo della QED, i fisici cercarono di applicare allo stesso modo la fisica quantistica alle due interazioni nucleari. Anche l’interazione forte, che tiene uniti i quark, come la forza elettromagnetica, ha delle particelle campo, chiamate gluoni. La teoria quantistica del campo della forza forte è la QCD (Cromodinamica Quantistica).
Le quattro forze conosciute presentavano ognuna caratteristiche enormemente differenti, in termini di intensità: l’interazione forte è molto più intensa delle altre, dell’ordine di 10-38 rispetto alla forza gravitazionale, di 10-6 rispetto all’interazione debole e di 10-2 rispetto alla forza elettromagnetica. Inoltre, solo due delle quattro, la forza elettromagnetica e gravitazionale, si manifestano nel mondo macroscopico perché agiscono su un campo di estensione infinita, al contrario delle forze nucleari che si manifestano solo su scala subatomica. Il perché di queste enormi differenze è stato oggetto di profonde riflessioni delle migliori menti teoriche del tempo, che, per risolvere il problema, riportarono in vita un’elegantissima teoria matematica di Herman Weil, formulata nel 1918. Infatti, prendendo in prestito due principi che attualmente costituiscono la pietra angolare del modello standard si è permesso alla fisica fondamentale di fare enormi passi avanti: il semplicissimo principio di simmetria (noto anche come simmetria di gauge) e la sua conseguente rottura spontanea. Una simmetria è una trasformazione che conserva le proprietà (che possono essere fisiche, matematiche, geometriche, ecc …) di un oggetto e la sua rottura spontanea è quello stato asimmetrico in cui degrada l’oggetto, che di conseguenza non è più simmetrico a quelle trasformazioni. Sembra che in natura un sistema simmetrico non sia stabile, come ad esempio un ago in equilibrio sulla punta è un sistema simmetrico per trasformazioni rotazionali rispetto al suo asse, in qualunque direzioni lo osserviamo presenta sempre le stesse proprietà geometriche. Ma per instabilità cadrà in una direzione qualunque che lo renderà asimmetrico per trasformazioni rotazionali. Negli anni ’60 Steven Weinberg, Sheldon Glashow e Abdus Salam formalizzarono questi principi applicandoli alla forza elettromagnetica e debole, elaborando una teoria quantistica nella quale quest’ultime sono considerate manifestazioni di un’unica forza elettrodebole. Lo stato in cui la forza elettromagnetica è simmetrica della forza debole, ossia è equivalente, si ha dopo una determinata soglia di energia, di 102 Gigaelettronvolt, che viene raggiunta negli acceleratori di particelle. A ciò segue una rottura spontanea della simmetria, che avviene al di sotto della stessa soglia di energia e che rende instabile il sistema, degradando le due forze in uno stato asimmetrico. Questo giustifica le diverse caratteristiche delle due forze che osserviamo al livello di energia relativamente basso in cui viviamo. La teoria quantistica del campo elettrodebole riscosse un gran successo perché previde l’esistenza di particelle non ancora osservate, i bosoni di gauge deboli (bosoni W+, W-, Z), ovvero le particelle del campo elettrodebole, che vennero osservate al CERN di Ginevra nel 1983 in un esperimento guidato da Carlo Rubbia.
La strada della fisica fondamentale che portava alla completa unificazione della natura era stata intravista dagli scienziati che, entusiasti, vollero proseguirla accorpando la QCD alla forza elettrodebole. Essi formalizzarono una teoria, chiamata GUT (Grandi Teorie Unificate), che unificava secondo gli stessi criteri usati da Weinberg, Salam e Glashow la QCD e la forza elettrodebole. La teoria si proponeva non solo di unificare tre campi di forza, ma anche i diversi tipi di particelle elementari (i leptoni che interagiscono elettrodebolmente e i quark che interagiscono fortemente), in modo da trasformare le une nelle altre.
Nonostante l’impossibilità di una verifica diretta, per l’elevata soglia di energia da oltrepassare, ben 1016 Gigaelettronvolt, non raggiungibile nemmeno negli acceleratori di particelle dei nostri tempi, la GUT fu accolta con grande entusiasmo perché non solo risolveva elegantemente dei problemi fino ad allora rimasti insoluti, ma anche perché prevedeva nuovi fenomeni, come quello, più importante, e oggetto di tanti esperimenti, in cui un quark si trasforma in leptoni, un elettrone e un neutrino.
Per confermare questa previsione i fisici hanno tentato di dimostrare l’instabilità del protone, secondo la previsione di una vita media di 1031 anni.
Molti esperimenti hanno cercato di confermare la nuova promettente teoria, uno dei più famosi ha avuto luogo 600 metri sotto il Lago Erie, qui 8000 tonnellate d’acqua depurata sono state controllate grazie a dei fotomoltiplicatori.
Ad oggi, purtroppo, nessuno degli esperimenti ha osservato un solo decadimento, il che delude enormemente le aspettative degli scienziati.
Dagli anni ’80 a questa parte, dopo l’ultima grande scoperta di Rubbia, non si è fatto alcun significativo passo avanti soprattutto in campo sperimentale. I teorici hanno formulato diverse teorie, alternative al modello standard, introducendo idee profondamente innovative e creative.
Una delle quali, che sta acquistando tuttora maggiore credito, è la teoria delle stringhe, la quale considera che ogni particella elementare è costituita da una corda, e il suo modo di vibrare ne definisce le proprietà.
La causa del suo successo è la strabiliante unificazione teorica di tutte le forze e le particelle.
Purtroppo queste teorie alternative sono ben lontane dall’essere sperimentate.
La crisi della fisica in questo trentennio è stata causata dal suo progressivo allontanamento all’approccio empirico e alla costante degradazione in pura speculazione.
La teoria delle stringhe, come le altre, si è proposta di stravolgere la nostra concezione della natura, ma fin quando non prevede qualche fenomeno, in modo da poterla verificare o confutare, resta solo un’affascinante teoria matematica.
La natura ha finora dato prova della sua unicità, bisogna soltanto percorrere la strada giusta che porti all’unica verità fondamentale e, di certo, finora le innovative teorie sviluppate non si sono dimostrate adeguate metodologicamente.
È necessario ritrovare la strada della scienza, quella strada che ha permesso di fare grandi progressi al modello standard, quella strada che sicuramente, quando ci porterà a destinazione, sconvolgerà la nostra concezione della realtà.
Iconography
· Herman Weyl, www.uni-math.gwdg.de/weyl/weyljung.png,
Mathematisches Institut, Georg-August-Universität, Göttingen;
· Elementary constitution of the matter, Kane Gordon, La fisica oltre il modello standard, in Le Scienze n°419, 07/2003;
· In search of the gravitational waves, Palmerini Chiara, Cacciatori di onde, in Le Scienze n°392, 04/2001;
· Staircase of the energy, Unification of the infinitely small and of the infinitely great, Unification of the particles and the forces, String theory, A unified physics by 2050?, in Scientific American 12/1999;
· Strong interaction, Georgi Howard,
Una teoria unificata delle particelle e delle forze, in Le Scienze n° 154, 06/1981;
· Albert Einstein, Albert David Z & Galchen Rivka, Sfida quantistica alla relatività speciale, in Le Scienze n° 489, 05/2009 ;
· Collision of particles, www.isv.uu.se/thep/pictures/CMS_Higgs-event.jpg,
Division of Nuclear and Particle Physics, Uppsala Universitet;
· Diagram’s Feynman of beta decay, Davies Paul, The forces of nature,
Cambridge University Press, Cambridge, 1979;
· The unification of the forces, Flegel Ilka, Hera shows the way to the unification of the forces of nature, Super Microscope Hera, Gazing into the Heart of Matter, The Desy Research Center, 2002;
· Standard Model, www.hep.phy.cam.ac.uk/~drw1/particleandnuclear/_41136526_standard_model2_416.gif, High Energy Physics Group, Department of physics, University of Cambridge.
English