Fisicamente

di Roberto Renzetti

I gluoni.

           A questo punto sorge spontanea una domanda: chi o che cosa tiene insieme i quarks in un adrone ? Per rispondere a questa domanda è stato necessario introdurre delle particelle-colla (prive di massa, e con spin 1), dette gluoni. Con l’introduzione dei gluoni la cromodinamica quantistica arriva a compimento ma, a questo punto, la matematica si complica, passando da una corrispondenza uno a uno, detta simmetria unitaria  U(l), ad  una corrispondenza  tre  a  tre,  detta  simmetria unitaria SU(3), fino ad arrivare ad una corrispondenza cinque a cinque detta simmetria unitaria SU(5). Non è qui il caso di soffermarsi su aspetti particolari della Cromodinamica Quantistica, però è interessante andare a vedere come ora vengono rappresentate alcune particelle viste precedentemente.  Iniziamo con il rappresentarci un pione p che prima rappresentavamo semplicemente con una linea continua orientata. Ora la situazione è quella mostrata nella figura seguente:

Come si vede il pione non è altro che l’insieme dei due quarks costituenti che continuano a scambiarsi dei gluoni. Ma ciò è ancora approssimativo perché non abbiamo tenuto conto del colore. Mentre nell’Elettrodinamica Quantistica lo scambio di un fotone tra due, ad esempio, elettroni non modifica le particelle in oggetto, ora lo scambio di gluoni modifica il colore dei  quarks interessati  allo scambio.  Si dovranno allora considerare dei gluoni dotati anch’essi di colore; l’emissione di un gluone di un dato colore da parte di un quark toglie a quest’ultimo quel particolare tono di colore, tono che viene ad essere aggiunto al quark che assorbe questo gluone. Vi sono poi dei gluoni la cui emissione ed assorbimento non modifica i colori dei quarks. I due disegni che seguono riportano un barione ed un mesone, i quarks dei quali si scambiano gluoni colorati con la conseguenza che i quarks costituenti cambiano di colore (fermo restando che la somma complessiva dei tre colori dei quarks barionici  o dei due mesonici resta incolore).

           Resta da precisare i colori dei gluoni. Si ha a che fare con otto tipi diversi di gluoni i cui colori sono dati dalle possibili combinazioni (due a due) di colori ed anticolori con l’esclusione di alcune combinazioni in corrispondenza delle quali il risultato è incolore (solo due di queste combinazioni devono essere prese in considerazione, le ultime due che daremo). Riferendosi al simbolismo per i colori dato nella legenda di figura precedente, si dovranno considerare gli otto gluoni dati dalle seguenti combinazioni: 

e, a parte alcuni fattori correttivi (e tenendo conto che questi ultimi due gluoni sono quelli che quando vengono scambiati non alterano i colori dei quarks):

           In definitiva si ha ora a che fare con dei colori che interagiscono tra loro. Facendo un parallelo con l’elettrodinamica, si può dire che, mentre allora si aveva a che fare con le interazioni tra cariche elettriche, ora si ha a che fare con l’interazione di cariche di colore. Nell’elettrodinamica le due particelle si scambiavano un fotone; ora i due quarks si scambiano un gluone ma, e qui nasce la maggiore complessità della cromodinamica, dotati di carica di colore (il fotone non ha invece nessuna carica elettrica). E’ proprio la presenza di queste particelle dotate di carica di colore che modifica in modo radicale il tipo di forza e, in linea del tutto generale, si può dire che sono soggette a forza forte solo le particelle dotate di colore. In questo senso la forza forte riguarda solo gli adroni (costituiti da quarks colorati) e non i leptoni che non hanno la proprietà del colore.

Gli acceleratori di particelle (cenni).

           Queste macchine sono alla base dello studio della fisica delle particelle. Certamente una fonte importante di particelle, per il loro studio, sono i raggi cosmici ma, altrettanto certamente, gli acceleratori permettono di raggiungere energie più elevate e di studiare i fenomeni in laboratorio, in condizioni controlliate. Gli acceleratori, a seconda del modo con cui sono costruiti  e dei  fini che con essi  si vogliono raggiungere, possono accelerare: elettroni, protoni, positroni, antiprotoni, nuclei e frammenti di svariati atomi. Si tratta poi di far interagire queste particelle ad alta energia con pezzi di materia interposti nella loro traiettoria o tra di loro. Da questi urti violentissimi, vengono emesse le particelle oggetto di studio che vengono poi registrate mediante i rivelatori (si veda più oltre).

           Per entrare nel nucleo e crearvi particolari reazioni occorrono energie elevatissime e, poiché l’energia è proporzionale alla frequenza della radiazione impiegata, servono frequenze sempre più elevate. Ciò vuol dire che servono lunghezze d’onda sempre più piccole e quindi che occorre accelerare le particelle. Tutto ciò in accordo con la relazione di De Broglie che associa ad ogni particella una lunghezza d’onda:

 λ   =    h/mv.

Occorre avvertire che gli acceleratori funzionano solo con particelle cariche. Essi non possono accelerare neutroni, mesoni o particelle strane; per disporre di queste sorgenti ci si può sistemare al di fuori di un reattore nucleare, praticare un piccolo foro nello schermo che protegge dalle radiazioni e raccogliere la quantità dei proiettili che vengono generati nelle reazioni nucleari e scagliati fuori dal reattore (difetto di questo modo di procedere è la casualità e l’incoerenza di una tale sorgente).

           Altra, condizione necessaria affinché le particelle possano essere accelerate è relativa alla loro vita media: essa deve essere abbastanza lunga perché la loro accelerazione ed utilizzazione avvenga prima del loro spontaneo decadimento.

           L’acceleratore è quindi un sistema che deve disporre di una sorgente di particelle, quindi di un sistema che le inietti nel vero e proprio acceleratore ed infine di un bersaglio su cui farle urtare per quindi studiare le reazioni che si sono prodotte.

           Altri accorgimenti devono però essere tenuti presenti: innanzitutto le particelle devono seguire un cammino nel quale sia stato preventivamente fatto il vuoto ( più spinto possibile, ad evitare che esse vengano assorbite dalle molecole d’aria eventualmente rimaste); occorre quindi mantenere il fascio di particelle unite in un pacchetto; ed infine che questo pacchetto si muova lungo l’asse della traiettoria.

           A partire dal Tubo di Crookes del 1895, vari tipi di acceleratori sono stati successivamente realizzati. Il primo di essi, utilizzato per la scissione del nucleo atomico, fu quello di Cockcroft e Walton del 1932. E la storia a questo punto sarebbe lunga (ciclotrone, sincrociclotrone, ciclotrone a settori focalizzati, betatrone, …) ed esula dai nostri scopi; un acceleratore del passato che occorre ricordare è solo il Van de Graaf (la “macchina elettrostatica” spesso usata nei laboratori delle scuole secondarie), realizzato nel 1930, perché è ancora utilizzato come preacceleratore. Nello schema seguente vi è un riassunto dei vari tipi di acceleratori:

           Noi ci concentreremo però solo sui tre tipi di acceleratore più diffusi (a volte in combinazione); l’acceleratore lineare (LINAC), quello circolare (sincrotrone) e l’anello di accumulazione (ADA).

           Iniziamo con illustrare il funzionamento di principio di un LINAC servendoci delle due figure seguenti: 

Ad  un dato  istante  (prima figura) i cilindri  risultano carichi  come mostrato. Ciò è dovuto al fatto che la tensione alternata (nel nostro caso: radiofrequenza RF) è formata da due semiperiodi, uno positivo ed uno negativo; ciò vuol dire che, mentre il semiperiodo positivo va a caricare i cilindri dispari, il semiperiodo negativo va a caricare i cilindri pari.

           Gli elettroni, emessi per effetto termoionico da un filamento caldo S e che si trovano in A, vengono attratti dal primo cilindro che risulta carico positivamente. All’interno di questo cilindro viaggeranno a velocità costante fintantoché, nell’istante successivo (seconda figura), la carica dei cilindri non cambia segno (ricordo che la tensione è alternata). A questo punto gli elettroni, che si trovano in B, subiranno un’accelerazione, risultando respinti dal primo cilindro ed attratti dal secondo. Una volta dentro il secondo cilindro viaggeranno a velocità costante fintantoché, a seguito del cambiamento di segno nella carica dei cilindri, non verranno di nuovo accelerati nel passaggio dal secondo al terzo cilindro. Questo processo segue in questo modo per quanti cilindri si hanno nel LINAC (questi acceleratori sono lunghi anche oltre i 3 Km) e l’accelerazione degli elettroni sarà la somma di tutte le singole accelerazioni: essa. sarà maggiore quanto maggiore è il numero dei cilindri e quanto più alta è la tensione ad essi applicata e quanto più alta è la frequenza della tensione in oggetto.

           Naturalmente il cambiamento di segno della carica dei cilindri avverrà tanto più rapidamente quanto più è elevata la frequenza della tensione di alimentazione (allo scopo si usano particolari strumenti chiamati magnetron e klystron). Deve anche essere chiaro che la distanza tra i cilindri deve essere regolata in modo che gli elettroni escano da un cilindro dopo un semiperiodo di tensione alternata. E, poiché gli elettroni vengono accelerati, la lunghezza dei cilindri e la distanza tra i medesimi dovrà via via aumentare in modo che gli elettroni impieghino sempre lo stesso tempo tra un cilindro ed il successivo, restando in fase con la tensione alternata.

           Più gli elettroni accelerano, più acquistano velocità (all’uscita dell’acceleratore ci si avvicina alla velocità della luce); più acquistano velocità e più acquistano energia.

           Se, anziché di elettroni, si dispone di una sorgente di protoni, il meccanismo accelerante rimane esattamente lo stesso (salvo invertire le polarità d’innesco). Una sorgente di protoni potrebbe essere la seguente: un gas di idrogeno fortemente ionizzato; i protoni possono poi venir estratti dal gas mediante una forte differenza di potenziale e quindi avviati all’acceleratore.

           Vi sono altre cose che vanno aggiunte:

– gli acceleratori lineari sono più adatti per elettroni;

– è conveniente utilizzare un pre-acceleratore (Van de Graaf) in modo da iniettare le particelle nel LINAC con una certa velocità iniziale;

– le particelle accelerate vanno ad urtare contro il bersaglio scelto che e’ situato alla fine del percorso che le particelle cariche seguono;

– il LINAC non pone problemi di estrazione del fascio il quale, da solo, fuoriesce dall’acceleratore ;

– con i magnetron ed i klystron si riescono a raggiungere frequenze superiori ai 3.000 MHz;

– il LINAC SLAC di Stanford è lungo 3 Km ed è in grado di far raggiungere al fascio di particelle un’energia di 20 Gev;

– i LINAC, a loro volta, sono utilizzati come preacceleratori per iniettare particelle in macchine acceleratrici circolari.

      Occupiamoci ora del funzionamento di principio di un sincrotrone, servendoci anche qui di un disegno schematico.

S = sorgente; P = preacceleratore; L = LINAC; I = iniezione; A = anello costituito da una camera toroidale (dentro cui circola il fascio di particelle) circondata da svariati magneti; R = cavità acceleratrici; C = bersagli; E = estrazione del fascio; H = locali protetti da spesse mura di cemento M; F = fascio da studiare.

           Il fascio di particelle viene mantenuto su orbite circolari mediante l’azione di elettromagneti distribuiti lungo tutto l’anello. Allo scopo occorre ricordare che una particella carica che attraversi un campo magnetico viene deviata nel verso determinato dalla regola della mano sinistra:

            Naturalmente il fascio deve essere iniettato dall’esterno (mediante un sistema sorgente + preacceleratore + LINAC). All’interno dell’anello il fascio viene ulteriormente accelerato con sistemi analoghi a quelli che abbiamo incontrato nel parlare del LINAC. Per mantenere poi le particelle in moto entro un raggio quasi costante, nonostante l’aumento di energia e di momento angolare, si aumenta in proporzione il campo magnetico.   

           Macchine come i sincrotroni sono vincolate alle dimensioni dei magneti; più i magneti sono grandi, più energia si può raggiungere; più energia si vuole raggiungere maggiore deve essere il diametro dell’anello.

           Abbiamo visto dalla figura che le cavità R sono responsabili dell’accelerazione del fascio. Queste cavità sono dei campi elettrici acceleranti. Se, ad esempio, disponiamo di 16 cavità intorno ad un anello del diametro di 200 m e se tali cavità forniscono ciascuna 3.000 Volt, le particelle riceveranno 48.000 volt ogni giro e, dopo 500.000 giri, avranno raggiunto i 24 Gev.

           Una volta che si dispone del fascio all’energia richiesta, si fa urtare contro un bersaglio per provocare le reazioni da studiare (punto C di figura). E’ anche possibile estrarre l’intero fascio (punto E di figura); in questo caso le schermature devono essere di grande mole.

           Concludiamo questa breve rassegna con gli anelli di accumulazione (ADA).

           Queste macchine, che negli ultimi tempi hanno dato i maggiori contributi alla fisica delle particelle, furono concepite a Frascati nel febbraio del 1960, a partire da una idea di Bruno Touscheck (fisico austriaco che dal 1953 fino alla sua prematura morte ha vissuto e lavorato a Roma). Il problema da cui si partiva era il seguente: quando una particella è accelerata per andare ad urtare contro un bersaglio immobile, la sua energia, non è interamente utilizzabile per la produzione di nuove particelle, secondo la reazione di Einstein E  =  mc2 .   Una  gran  parte  dell’energia  della  particella  (poco meno del 95%) viene spesa per mettere in moto il sistema particella-bersaglio e quindi risultano persi per i fini che si vogliono raggiungere. Questa perdita, inoltre, aumenta all’aumentare dell’energia della particella.

           Come sfruttare l’intera energia a cui sono state portate le particelle ? Facendole urtare frontalmente con un altro fascio proveniente da verso opposto. In questo caso si può teoricamente utilizzare tutta l’energia in possesso delle particelle (somma, dell’energia dei due fasci provenienti da direzioni opposte).

          Esattamente un anno dopo l’idea di Touscheck entrò in funzione a Frasca.ti l’anello ADA, la prima di queste macchine con un diametro di soli 1,5 m. Dati gli importanti risultati che furono conseguiti con ADA, si progettò subito un altro anello di accumulazione, ADONE, con un diametro di 30 m ed una energia complessiva di 3 Gev, che entrò in funzione nel 1970. Da questo punto la corsa diventa frenetica. Ma anche i costi. Solo un accordo tra gli stati può permettere di costruire macchine di questo tipo ad energie e quindi a diametri sempre più grandi (cosa che fa egregiamente il CERN).

          Ma vediamo di cosa si tratta.

          II principio è analogo a quello dei sincrotroni, con qualche modifica sostanziale per permettere che sullo stesso anello possano ruotare in verso opposto particelle di materia ed antimateria (con masse dello stesso ordine di grandezza). Quando i due fasci vengono fatti collidere (prima della collisione marciano su traiettorie parallele), le singole particelle costituenti i fasci si annichilano; esse scompaiono in una nuvola di fuoco chiamata fotone tipo tempo; da questa nuvola, emergono in modo molto pulito ed in tempi molto brevi (< 10-16s) una miriade di particelle [ si osservi che è anche possibile, con opportuni accorgimenti, far ruotare in verso opposto fasci identici di particelle; protoni-protoni, elettroni-elettroni].

          Vediamo in uno schema il meccanismo di iniezione di un anello di accumulazione come ADONE, costruito per far collidere particelle di materia con particelle di antimateria.

S = sorgente; V = Van de Graaf; L = LINAC; M1 = magnete di deflessione; M2 = magnete di separazione;  M3 = magnete di iniezione; H  = laboratorio; C = bersaglio; A = ADONE                               

           Vediamo ora il meccanismo di iniezione dell’anello di accumulazione del CERN, l’SPS (Super Proto Sincrotrone). Si noti che esso, all’inizio, era stato progettato come un sincrotrone, come la sigla dice; fu nel 1976, da un’idea di Carlo Rubbia, che la macchina fu modificata in anello di accumulazione, sfruttando una precedente realizzazione di S. van der Mer, una macchina per la produzione di antiprotoni in quantità (accumulatore di antiprotoni: AA).

           Nella prima figura, un fascio di protoni preaccelerati viene fornito dal LINAC; questi protoni vengono ulteriormente accelerati nel PS; il fascio di protoni prelevato dal PS viene separato in due; una parte del fascio è diretto all’SPS (con la possibilità lungo questa traiettoria di  prelevare un’altra parte del fascio ed inviarlo nell’ISR), l’altra parte viene fatta urtare contro un bersaglio B per la creazione di antiprotoni. Gli antiprotoni che via via si vanno creando in. B, vengono accumulati ed accelerati in AA da dove, ad un certo punto, vengono prelevati per essere inviati ad un’ulteriore accelerazione nel PS. Dal PS viene prelevato il fascio di antiprotoni ed inviato  all’SPS (naturalmente in verso opposto a quello dei protoni). Lungo quest’ultima traiettoria, c’è la possibilità di prelevare una parte del fascio per convogliarlo nell’ISR dove viene accelerato con una traiettoria avente verso opposto a quella del fascio di protoni. Quello che a noi interessa è però la sorte dei due fasci protone-antiprotone che sono stati inviati all’SPS. Ogni fascio può essere accelerato fino ad acqui stare una energia di 300 Gev; di modo che l’energia complessiva che si ottiene dall’urto dei due fasci e’ di 600 GeV (in occasione della scoperta dei bosoni vettori  intermedi la macchina  era  stata. spinta fino ad una energia complessiva di 270 GeV per fascio , per un totale di 540 Gev).

           Attualmente al CERN, collegato con il sistema descritto, è in funzione  un anello elettrone-positrone (LEP) con un diametro di 8,5 Km. L’energia complessiva di  cui si dispone è minore di quella dell’SPS ma la macchina  è più adatta per uno studio più fine delle reazioni. Questa energia è di circa 100 GeV per fascio.

            La seconda figura mostra le proporzioni tra le macchine descritte nella prima, con l’anello SPS (che ha il diametro di 200 m). Si pensi ad un anello di 27 Km di lunghezza, come il LEP che schematicamente riporto qui sotto:

I circoletti che si vedono in alto sono le macchine che hanno permesso l’esperienza di Rubbia e che erano illustrati nella figura immediatamente precedente. L’intero apparato di Rubbia serve ora come preacceleratore per il LEP.

 I rivelatori di particelle (cenni).

          Citerò solo gli apparati più semplici e noti.

Il contatore a scintillazione: conta ogni piccolo lampo emesso da una particella quando quest’ultima attraversa materiali particolari.

II contatore Cerenkov: conta solo le particelle che hanno una determinata velocità

La camera a scintille:  ponendo due placche metalliche in un mezzo gassoso, placche che siano assai vicine tra loro, ed applicando tra esse una forte tensione, al passaggio di una particella ionizzante, cioè elettrizzate,  scocca una piccola scintilla. Collegando insieme più camere è possibile seguire la traiettoria della particella con mezzi ottici o elettronici.

La camera a nebbia:  si pone un gas  in un contenitore;  si fa quindi  espandere rapidamente il volume del contenitore per produrre un rapido raffreddamento del gas, aumentando così l’umidità oltre il 100%. Quando una particella carica passa attraverso la camera, si producono goccioline attorno agli ioni che produce e la traccia lasciata dalla particella può essere fotografata.

La camera a bolle: simile ad una camera a nebbia, solo che usa un liquido mantenuto vicino al suo punto di ebollizione. Si riduce di colpo la pressione in modo che la temperatura del liquido sia superiore a quella di ebollizione a quella data pressione.  Ma l’istante dell’abbassamento di pressione è tale che l’ebollizione inizia solo a causa degli ioni originati da particelle che passano in quel momento. In quello stesso istante si illumina al camera per fotografare la scia di bollicine. La camera a bolle, a causa della maggiore densità di un liquido rispetto ad un gas, è in grado di registrare un numero maggiore di eventi.

Oltre ai rivelatori accennati ve ne sono moltissimi altri dei più svariati tipi (emulsioni fotografiche, camera di Wilson, …) ma noi ci accontenteremo ora di dare solo una lontana idea dell’incredibile livello di sofisticazione che si è raggiunto in questi strumenti, accennando ad alcuni dati relativi ai rivelatori che sono stati realizzati appositamente per le esperienze di Carlo Rubbia. Essi sono chiamati UA 1 ed UA 2 (si veda la figura penultima per localizzarli nell’SPS).

Il rivelatore UA 1, pensato al CERN, è stato realizzato dal lavoro di équipe di più di 100 fisici di 11 istituzioni scientifiche (tra questi, 11 appartenevano all’università di Roma ed erano diretti da Giorgio Salvini). Questo strumento è lungo 10 m, è largo 5 ed è alto 10. Pesa 2.000 tonnellate. Il volume utile all’osservazione di particelle cariche e’ 6 x 3 x 3 metri cubi. Dentro il volume totale vi sono circa 20.000 cavi collegati a 40.000 amplificatori (per captare i segnali lasciati dalle particelle cariche). II rivelatore è dotato di uno dei più grandi magneti esistenti al mondo. La  foto seguente può dare un poco il senso delle dimensioni.

Il rivelatore UA 2 è un poco più piccolo di UA 1 ed è destinato alla rivelazione proprio dei bosoni vettori intermedi. Questo rivelatore è privo di campi magnetici. Ad esso, tra i molti altri, hanno lavorato fisici dell’Università di Pavia. Anche qui, la foto può fornire una idea delle dimensioni.

Il rivelatore UA 1 ha permesso, nel luglio del 1984,  la scoperta del quark verità, il sesto quark che mancava all’appello nonostante fosse cercato da vari anni. Questo quark ha una massa compresa tra le 30  e le 50 volte quella del protone; ciò spiega perché, fino ad ora, era sfuggito ad ogni ricerca: non si disponeva dell’energia sufficiente. Con l’SPS, fatto funzionare come ADA, con AA, con UA 1 e con una équipe  imponente di fisici di tutta Europa, Carlo Rubbia è riuscito nell’impresa. Una cosa deve essere osservata: tra le centinaia di milioni di eventi registrati da UA 1 ed UA 2, sono venuti fuori fenomeni strani, strane reazioni che non paiono essere spiegabili con nessuna delle teorie di cui disponiamo. Aspettiamo di saperne di più, per intanto questi strani eventi sono stati chiamati exotics.

Accenno solo che, per ulteriori esperienze con il LEP sono in fase avanzata di realizzazione altri rivelatori, ancora più potenti, come Opal, Aleph, L3 e Delphi.

L’interazione elettro-debole e l’esperienza di Rubbia.

          La. scoperta fatta dal gruppo di ricercatori (121) diretti da Carlo Rubbia (gennaio 1983) dei bosoni vettori intermedi W , W  e Z° conferma  la  validità  della teoria elettrodebole elaborata principalmente da Weinberg e da Salam. Diciamo subito che parlare di teoria elettrodebole, equivale a dire che si è giunti, sia per via teorica che sperimentale, all’unificazione dell’interazione elettromagnetica con l’interazione debole. E ciò vuol dire che da questo momento in poi non si dovrà più parlare delle quattro interazioni fondamentali, ma delle tre interazioni fondamentali: quella gravitazionale, quella elettrodebole, quella forte.

           All’unificazione fatta da Newton dei fenomeni gravitazionali (un sasso che cade è la stessa cosa della Terra che orbita intorno al Sole), a cui si aggiunsero i lavori di Relatività Generale di Einstein; all’unificazione fatta da Maxwell tra fenomeni elettrici, magnetici e luminosi (la luce è un’onda elettromagnetica), a cui si aggiunsero le elaborazioni dell’Elettrodinamica Quantistica (l’introduzione della quantizzazione dei campi); a queste unificazioni si aggiunge ora l’unificazione tra forza elettromagnetica e forza, debole (forza elettrodebole) realizzata da Weinberg e Salam (per la parte teorica) e da Rubbia (per la parte sperimentale).

           La teoria di  Weinberg e Salam è molto complessa ed al nostro  livello non possiamo far nulla per avvicinarci ad essa. Qualcosa possiamo però dirla con la speranza che aiuti sulla strada della comprensione. Innanzitutto ricordiamo le caratteristiche essenziali dell’interazione debole, aggiungendo qualche considerazione più precisa.

           Tutti i processi nei quali si osserva interazione debole sono sostanzialmente  divisibili in due gruppi fondamentali:

1) quelli nei quali c’è un cambiamento di una unità nella carica elettrica, tipici del decadimento beta

Questi processi sono anche conosciuti come correnti cariche.

2) quelli nei quali non c’è alcun cambio nella carica elettrica, tipici della dispersione di neutroni

Questi processi sono anche conosciuti come correnti neutre.

Qualunque sia, comunque, il processo di interazione debole in oggetto, è interessante osservare che in esso intervengono sempre 4 fermioni: nel primo caso un fermione si trasforma in tre fermioni, nel secondo due fermioni originano altri due fermioni. Altro fatto notevole è che l’intensità dell’interazione debole è condizionata dal valore di una costante chiamata costante di interazione debole o costante di Fermi. Fin qui nulla di strano: anche l’intensità dell’interazione elettromagnetica è determinata da una costante, detta di struttura fine; allo stesso modo anche l’intensità dell’interazione tra quarks (interazione forte) è determinato da un’altra costante [quanto sto dicendo non stupisca nessuno: nella gravitazione universale c’è da considerare la costante gravitazionale G; nella legge di Coulomb c’è da considerare la costante K]. Osserviamo subito che i valori di queste costanti determinano la forza o la debolezza di una interazione. Ebbene, allora qual è la difficoltà ? E’ che, mentre la costante che compare nella interazione elettromagnetica, allo stesso modo di quella che compare nell’interazione forte, è priva di dimensioni, quella di Fermi ha dimensioni ! Più precisamente ha le dimensioni dell’inverso di una energia elevata al quadrato! (294 GeV)-2  . Questo valore di energia ha allora un significato particolare: al di sopra di essa non dovrebbe più aver senso parlare di interazione debole ma di un qualcosa di diverso. Veniamo ora a considerare una tipica interazione elettromagnetica: l’interazione di due elettroni. L’abbiamo già vista: due elettroni si avvicinano tra loro; ad un certo punto avviene l’interazione mediante lo scambio di un fotone; quindi gli elettroni si allontanano dal luogo dell’interazione. Anche qui le cose vanno come nell’interazione debole; si hanno complessivamente 4 fermioni. Ma c’è una cosa in più: questa volta compare un fotone che, ricordiamolo, è una particella priva di massa, definibile come bosone vettore (ha spin 1) intermedio. Riprendiamo di nuovo in mano il decadimento beta. Forse che è possibi le darne una descrizione analoga a quella dell’interazione elettromagnetica ? Ciò che manca è il bosone vettore intermedio. Proviamo a metterlo e vediamo 

cosa succede. Il neutrone si disintegra in un protone ed in un bosone vettore intermedio W  (virtuale, analogamente al fotone dell’interazione elettromagnetica); quest’ultimo si disintegra a sua volta ed in tempi brevissimi in un elettrone ed in un antineutrino dell’elettrone. Tutto va come nell’interazione elettromagnetica: si deve solo sostituire il fotone con la W   e tener conto che il fotone non ha carica elettrica, contrariamente al W  . Ma c’è di più: la massa. Vedremo tra un poco che essa gioca un ruolo importante. 

            Cosa si può dire invece delle correnti deboli neutre (il secondo tipo di interazione debole) ? In questo caso nell’interazione tra il neutrino dell’elettrone e l’elettrone, poiché non compaiono nuove particelle, si dovrà considerare un bosone vettore intermedio privo di carica, Z°.          

           Descrivendo così le cose tutto si semplifica molto: ora l’interazione debole può essere pensata come l’interazione, non più tra 4 fermioni, ma tra i fermioni ed un bosone (allo stesso modo che l’interazione elettromagnetica). Ebbene, in questo nuovo modo di vedere le cose, la costante di interazione debole (di Fermi) diventa un’altra cosa: perde ora le sue dimensioni. E dove è andata a finire questa energia, quella che si trovava nella costante di interazione debole di Fermi ? Nella massa del bosone vettore intermedio. Nell’interazione elettrodebole, infatti, i bosoni W e Z hanno massa ed anche molto grande (come abbiamo visto). Questa massa deve essere in relazione con la costante di Fermi: la massa-energia di 240 Gev che abbiamo menzionato prima, deve essere uguale alla massa del bosone divisa per la nuova costante di interazione tra i fermioni ed i bosoni. Dipende dal valore di questa ultima costante il valore della massa dei  bosoni  W e Z.  E poiché non si  sapeva  nulla fino al  gennaio ’83 dell’esistenza sperimentale dei bosoni, non si sapeva neanche quale valore potesse avere la costante di interazione tra bosoni e fermioni nell’interazione debole. Nasceva così una incertezza sul valore di massa di W e Z°. Una incertezza  sui valori di massa comportava una incertezza sui valori di energia che occorreva utilizzare per localizzare questi bosoni. Era certo che con le più piccole energie precedentemente usate i W e Z° non davano traccia di sé. Si sapeva quindi che, se la teoria era corretta,  occorreva salire in energia e, conseguentemente, che la massa dei ricercati era sempre più grande. Finalmente ai 540 GeV del CERN questi bosoni sono saltati fuori e con masse enormi, fuori di ogni precedente aspettativa (ci si aspettavano masse intorno alle 40 volte quella del protone, si sono trovate masse doppie di quelle aspettate).

            A questo punto si può affermare che: ambedue le interazioni (elettromagnetica e debole) sono trasmesse da bosoni vettori intermedi, ambedue sono caratterizzate da una costante universale. Le differenze che invece esistono tra le due interazioni riguardano la massa dei bosoni in gioco (da una parte il fotone non ha massa, dall’altra i W e Z° hanno una massa molto grande) e l’intensità dell’interazione (quella debole, molto più debole di quella elettromagnetica).

            Come mettere insieme i due tipi di interazione ?  

            Si tratta, innanzitutto, di disporre complessivamente di 4 bosoni che trasmettano le interazioni:  il fotone,  il  Z°,  il W+ ed il W . Il gruppo quindi degli oggetti a nostra disposizione per la trasmissione delle interazioni si amplia [con la conseguenza che anche la matematica che deve descrivere la situazione diventa più complessa; ora, al gruppo unitario U(l) che descriveva il fotone, dovremo aggiungere  il gruppo SU(2) che descrive i due bosoni W e Z, di modo che otteniamo il gruppo complessivo dato dal prodotto dei due gruppi di partenza: U(l) x SU(2)]. Tra i quattro bosoni di partenza, due sono dotati di carica (W+ e W ) e due no (Z° e fotone). Con considerazioni legate alla simmetria di questo gruppo di 4 bosoni si scopre che essi possono venir descritti contemporaneamente in una unica teoria. La relazione più importante, all’interno di questa teoria, la hanno il fotone con il bosone Z°: nessuno dei due può esistere senza l’altro. Inoltre l’interazione dei bosoni W e Z° con altre particelle viene essenzialmente descritta da una interazione elettromagnetica..             .

           Per i nostri fini è sufficiente fermarsi qui. Ma nessuno si illuda, le cose sono enormemente complesse, soprattutto alla luce della gran mole di matematica che è in gioco.

           Resta solo da accennare ad una delle previsioni della teoria elettrodebole: il decadimento del protone. Questa particella fino ad ora ritenuta stabile, secondo questa nuova teoria, dovrebbe essere instabile, anche se con un tempo di decadimento mostruosamente grande: 1037 anni!

           Già su questa strada ci si muove in varie parti del mondo; si cercano protoni che decadano. Uno dei laboratori più avanzati in questo campo è quello situato sotto la vetta del Monte Bianco, a 5.000 m sotto la vetta. Il gruppo di ricerca che vi lavora, è il Nusex, al quale collaborano fisici dell’Infn di Frascati e di Milano, dell’Università di Milano e del CNR di Torino, diretti da  Ettore Fiorini. Fino ad ora sembra si sia registrato un solo evento di decadimento di un protone, ma non basta; ce ne vogliono almeno due. Ciò che appare sconcertante è che, se da una parte questo supposto evento discende dalla teoria elettrodebole, dall’altra la nega per il modo di decadimento. Quest’ultimo sembra più in accordo con altre teorie del tipo Supersimmetria. o Supergravità. Non resta che aspettare per cercare di capire come vanno le cose. La fisica è un campo sempre aperto: non vi sono mai verità definitive.

           In conclusione si può dire che, anche se a tutt’oggi (1985) non possediamo nessuna teoria che unifichi tutte le interazioni, certamente siamo sulla buona strada; disponiamo di una teoria elettrodebole e di svariati indizi che sembrano preludere ad una unificazione ulteriore con la forza forte (tramite i quarks che scambierebbero anch’essi bosoni vettori intermedi). Incredibilmente l’interazione più antica, la gravitazionale, è la più difficile da essere messa in riga. Intanto manca ancora l’evidenza sperimentale del gravitone, che viene assiduamente cercato (anche qui, oltre al gruppo di Weber negli Usa, è in primo piano il gruppo di Arnaldi – ora scomparso – a Frascati).

           Un’osservazione è d’obbligo: queste ricerche sono molto costose (incredibilmente!). Al di là dei facili e giustificati entusiasmi, un dubbio potrebbe insinuarsi nella mente del cittadino: a che serve ? La risposta è a ciascuno di noi; basti solo osservare che le ricadute, anche se molto mediate, sono enormi. Chi avrebbe potuto pensare solo pochi anni fa che gli acceleratori lineari sono un efficace strumento contro i tumori? Chi avrebbe potuto pensare che dai più strani effetti studiati in fisica sarebbero poi discese le radiografie, le ecografie, le sonde a fibra ottica, le risonanze magnetico-nucleari, le TAC, … Insomma, lavorare in questi campi, apre alla conoscenza non solo dell’infinitamente piccolo ma anche della costituzione dell’universo, con una montagna di tecnologia che si realizza lungo la strada e che fornisce fall-out.

           Un’ultima considerazione è relativa al perché le tre forze fondamentali della natura ci si manifestano in modi così differenti (escludendo in queste discorso la gravitazione):

Le differenze sono sensibili principalmente perché oggi l’universo è molto freddo e quindi le particelle in generale hanno bassa energia. Se si potessero eseguire esperimenti ad energia estremamente alta, l’unificazione diventerebbe chiara in tutta la sua semplicità. I leptoni ed i quarks si trasformerebbero liberamente gli uni negli altri e le tre forze avrebbero tutte la stessa intensità. Si è calcolato che l’energia necessaria per poter vedere l’unificazione delle particelle e delle forze in questa forma drammatica è di circa 1015 GeV.” (H. Georgi, su Le Scienze n° 154, pag. 56).

                                              BIBLIOGRAFIA 

Yang – La scoperta delle particelle elementari – Boringhieri 1969.

Tolansky – Introduzione alla fisica atomica. – Boringhieri 1966.

Segré – Nuclei e particelle – Zanichelli 1966.

Gouiran – Particelle ed acceleratori – II saggiatore 1967.

Ford – Fisica delle particelle – EST Mondadori 1965.

H. Fritzsch –  Quarks – Urstoff unserer Welt – Piper & Co. Verlag, Munchen 1981.

Baracca, Bergia – La spirale delle alte energie – Bompiani 1975.

Quercia – Gli acceleratori di particelle – Cappelli 1961.

Weinberg – La scoperta delle particelle subatomiche – Zanichelli 1986.

AA.VV. – Le particelle fondamentali – Letture da Le Scienze (l98l).

Cline, Rubbia, Van der Meer – Alla ricerca dei bosoni vettori intermedi – Le Scienze n° 165.

Ishikawa – Glusfere – Le Scienze n° 173.

Rebbi – Reticoli e confinamento dei quarks – Le Scienze n° 176.

Harari – La struttura dei quarks e dei leptoni – Le scienze n° 178.

Mistry, Poling, Thorndilce – Particelle dotate di bellezza nuda – Le Scienze n° 181.

Vi sono poi moltissimi altri articoli su Le Scienze che sono di grande interesse e per la cui lettura, oltre ai prerequisiti che sono almeno ciò che qui ho provato a scrivere, serve la preparazione di un bravo ed interessato studente di liceo scientifico.

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: