(e qualche problematica connessa)
Roberto Renzetti
Tento di divulgare alcuni concetti base di uno dei capitoli più importanti e più controversi della fisica, la fisica dei quanti che iniziò ad essere avanzata e quindi sviluppata proprio all’inizio del 1900. Ma poiché non vi sono mai elaborazioni teoriche o sperimentali che discendono dal nulla, occorre tornare un poco indietro per capire da quali problematiche si partiva per introdurre nella fisica questo capitolo. Chi fosse interessato alla parte formale , che è complessa ed al di fuori della finalità di questo sito, può consultare un qualunque libro di fisica dei quanti (Fong, Schiff, Pauling e Wilson, e a livelli ancora superiori, Messiah, Dirac, Cohen-Tannoudji & Diu & Laloë, ….). Chi è invece interessato alla nascita della teoria dei quanti, può trovare nel sito un lavoro dal titolo omonimo che resta comunque complesso per la matematica coinvolta. Sulle vicende che tenterò di illustrare vi è una enorme bibliografia (piccola parte della quale è in fondo all’articolo). Si sono scritte montagne di libri e queste mie note non hanno alcuna pretesa di originalità. Solo divulgazione attenta, tentando di non spacciare gatto per lepre. Solo il modo di ordinare queste cose, che nasce dalle numerose conferenze che ho fatto in proposito, è originale (almeno che a me risulti). Questo lavoro non è, nel modo più assoluto, un lavoro con caratteristiche storiche.
Come dicevo prima, occorre partire un poco da lontano ….
LA LUCE
Tra la fine del 1600 e gli inizi del 1700 vengono proposte due teorie della luce: – quella ondulatoria sviluppata dall’olandese Huygens – quella corpuscolare sviluppata dall’inglese Newton (se qui però si entrasse in dettagli storici si scoprirebbe che le cose non sono così semplici). Ambedue le teorie spiegavano bene tutti i fatti sperimentali noti a quel tempo che, essenzialmente, consistevano nei fenomeni di propagazione, riflessione e rifrazione (occorre qui osservare che nella spiegazione della rifrazione la teoria corpuscolare doveva ammettere che la luce avesse una velocità maggiore nelle sostanze più dense, contrariamente a ciò che ammetteva invece la teoria ondulatoria. Si sarebbe potuto quindi decidere quale teoria fosse la migliore se solo si fosse stati in grado di misurare la velocità della luce in sostanze di differenti densità. Ma la cosa avverrà solo 150 anni dopo). Huygens, che pure è uno dei massimi fisici della storia, non godeva del prestigio di Newton. A lato della sua imponente Meccanica, si affermò la teoria corpuscolare della luce di Newton. Tutto il ‘700 vide elaborazioni di questa teoria che si fortificava sempre più con una matematica sempre più sofisticata. Nel 1802, in un contesto sociale e filosofico mutato, il medico inglese Young scoprì un nuovo fenomeno ottico: l’interferenza della luce. Il fatto risultò sconvolgente per la sua straordinarietà: in alcune situazioni luce + luce = buio! Vi fu un affannarsi angustioso per spiegare questo fenomeno con la teoria corpuscolare …. niente! Il fatto di grande interesse fu invece che, interpretando il fenomeno con la teoria ondulatoria, esso trovava una naturale e semplice spiegazione.
L’INTERFERENZA
Huygens aveva supposto che la luce, ad esempio di una candela, fosse il risultato di tante onde elementari emesse da i singoli punti della fiamma (fig. 1). Allontanandosi dalla fiamma, tali onde elementari si componevano tra loro, creando un “inviluppo” e cioè un’unica onda (fig. 2).

fig.1

fig. 2
Se il cammino di un’onda luminosa, dalla sorgente ad uno schermo, viene interrotto da un diaframma con due piccole ed opportunamente distanziate fenditure, sullo schermo si vedranno zone illuminate alternate da zone buie (fig. 3a e 3b).

fig. 3
Come spiegare tale fenomeno? Con la teoria corpuscolare nulla da fare: i corpuscoli di luce o passano da una fenditura o dall’altra, con l’unico risultato possibile di originare due zone illuminate sullo schermo. Se invece si tiene conto che un’onda come quelle che abbiamo visto ha per sezione una sinusoide (si pensi ad un sasso che cade in uno stagno: dal punto dove entra nell’acqua si dipartono onde circolari ma, se guardiamo tali onde sezionando mentalmente l’acqua, si tratta di sinusoidi che partono da quel punto), allora si può capire come stanno le cose. Due onde sinusoidali della stessa ampiezza possono essere in fase (fig. 4a) e, se interferiscono, originano un’onda sinusoidale che è somma delle sue sinusoidi componenti: Due onde sinusoidali possono essere in controfase (fig. 4 c) e, se interferiscono, originano un’onda nulla. Vi sono poi tutti i possibili casi intermedi (fig. 4 b).

fig. 4
La figura 5 mostra in modo più chiaro cosa accade:

fig. 5
E’ inutile dire che, di fronte a questo successo spontaneo della teoria ondulatoria, essa iniziò a diventare la teoria universalmente accettata. Ma a ciò si aggiungono altri fatti sperimentali che sembrano andare a sostegno della teoria ondulatoria. Nel 1850 Fizeau riesce a misurare la velocità della luce in varie sostanze. Se ne ricava che la luce ha la sua massima velocità nel vuoto. Se si ritorna a rivedere la spiegazione della rifrazione con le due teorie (ondulatoria e corpuscolare), si scopre che anche qui è la teoria ondulatoria che fornisce previsioni più corrette.
I COLORI NELLA TEORIA CORPUSCOLARE ED ONDULATORIA
La teoria corpuscolare, anche se non esplicitamente detto, prevede che la luce consista nell’emissione, da parte di una sorgente luminosa, di una miriade di corpuscoli di “masse diverse”. E’ proprio la diversità della massa che differenzia i colori che compongono la luce bianca (Sole o lampada ad incandescenza). Noi sappiamo che se scomponiamo tale luce con un prisma, otteniamo lo spettro (continuo) dei vari colori che la compongono: si parte dal rosso, poi successivamente, arancio, giallo, verde, azzurro, indaco, viola (il passaggio da un colore all’altro non è netto ma graduale). Il rosso è il colore che ha la minore deviazione, rispetto alla perpendicolare, il viola è quello che ha massima deviazione – fig. 6 -).

fig. 6 a

fig. 6 b
Ebbene, secondo la teoria corpuscolare, il colore rosso è costituito da corpuscoli di massa maggiore. Tale massa va diminuendo per corpuscoli che vanno verso il colore viola. Il prisma è insomma un selezionatore dei corpuscoli portatori di colori differenti (la cosa è in “analogia” con dei sassi di massa differente lanciati in acqua: a massa minore, maggiore deviazione, rispetto alla perpendicolare, entrando nell’acqua). La teoria ondulatoria interpreta lo stesso fenomeno pensando i colori associati ad onde di frequenza differente: il rosso ha la frequenza minore. Tale frequenza cresce mano a mano che si va verso il viola cui compete la frequenza maggiore. In tal caso il prisma ha la funzione di selezionatore di frequenze. Ferme restando le cose dette, verso la metà dell’Ottocento vennero scoperti gli “spettri” degli elementi.
Abbiamo già visto la celebre esperienza di Newton della separazione della luce solare mediante un prisma di cristallo. Ebbene, quella striscia illuminata con i vari colori si chiama spettro e, in particolare, spettro della luce bianca. La scienza che studia gli spettri si chiama spettroscopia. Seguiamone le tappe principali:
1802 – il britannico W.H. Wollaston (1766-1828), osservando lo spettro solare prodotto da un prisma, scopre l’esistenza di sette righe scure distribuite in modo irregolare (più oltre se ne scopriranno altre);

1814 – il tedesco J. Fraunbofer (1787-1826) osserva il fenomeno in modo più approfondito: conta 560 righe scure, scopre che una di queste righe (chiamata D, quella in corrispondenza del giallo che poi si scoprirà essere una doppia riga) coincide con la doppia riga gialla del sodio (vedi oltre; Fraunhofer non sapeva ancora che quella doppia riga gialla era caratteristica del sodio: egli la otteneva osservando lo spettro prodotto da una candela, da una lampada ad elio e da una lampada ad alcool); costruisce la prima carta dello spettro solare, scopre nello spettro di Venere alcune righe presenti nello spettro del Sole, introduce i reticoli di diffrazione (che permettono di separare meglio la luce) con i quali realizza le prime determinazioni della lunghezza d’onda dei vari colori dello spettro;
1827-1855 – in questi anni si sommano diversi contributi ed in particolare: la scoperta della fotografia ad opera del francese J.P. Niepce (1765-1833); la scoperta dell’emissione di spettri da parte di solidi portati all’incandescenza, ad opera del britannico J.W. Draper (1811-1882);
1857 – il tedesco R.W. Bunsen (1811-1899) scopre che utilizzando il gas illuminante, installato nel suo laboratorio nel 1855, si ottiene una fiamma non molto luminosa ma ad alta temperatura e costruisce il becco Bunsen, con il quale si possono ottenere gli spettri dei soli corpi portati all’incandescenza senza interferenze da parte della fiamma che non ha un proprio colore specifico;
1859 – Kirchhoff e Bunsen gettano le basi della moderna spettroscopia, distinguendo con chiarezza la differenza esistente tra spettri di emissione e spettri di assorbimento : se sul becco si fa bruciare del sodio, lo spettro presenta due righe gialle che coincidono esattamente con le più brillanti delle linee oscure dello spettro del Sole (riga D); osservando poi lo spettro della luce solare lungo la cui traiettoria è interposto il becco con del sodio che brucia, non appare più la riga D nello spettro solare ed al suo posto vi sono le righe gialle del sodio; questo ultimo fenomeno si verifica solo quando la luce solare è molto attenuata, in caso contrario si continua a vedere la linea D; lo stesso fenomeno si può ottenere mantenendo costante l’intensità della luce solare e aumentando o diminuendo la temperatura della fiamma del becco. Da ciò Kirchhoff capì il significato dello spettro solare ed in particolare delle sue linee scure: la superficie del Sole emette radiazioni (fotosfera) di tutti i colori e l’atmosfera di gas incandescenti del Sole (cromosfera e corona), molto meno calda della fotosfera, assorbe una parte delle radiazioni emesse dal Sole, ed assorbe quelle che sono emesse dagli elementi componenti l’atmosfera solare. Come dice Kirchhoff: “le fiamme colorate nei cui spettri si presentano linee brillanti e marcate [spettro di emissione: quello di figura è del sodio],

indebolisce talmente i raggi del colore di queste linee quando passano attraverso di esse, che in luogo delle linee brillanti compaiono linee scure [spettro di assorbimento: quello di figura è ancora del sodio con la riga gialla di emssione che diventa nera in assorbimento]

quando si colloca dietro la fiamma una fonte di luce di sufficiente intensità e nel cui spettro mancano queste linee. Concludo quindi che le linee scure dello spettro solare, he non sono prodotte dall’ atmosfera terrestre, nascono dalla presenza nella infuocata atmosfera del Sole, di quelle sostanze che nello spettro di una fiamma presentano le linee brillanti nella stessa posizione.” Ed in questo modo Kirchhoff e Bunsen riuscirono a stabilire la presenza sul Sole di alcuni elementi: confrontando le righe che compongono lo spettro solare con quelle, ottenute in laboratorio, per elementi noti (all’esistenza di un dato insieme di righe nello spettro corrisponde sempre la presenza di un dato elemento).
Altro fondamentale risultato ottenuto da Kirchhoff nello stesso anno è il cosiddetto principio di inversione secondo il quale una sostanza assorbe le stesse radiazioni che è in grado di emettere.
Per portare avanti le loro ricerche i due si servirono di uno spettroscopio, strumento da loro realizzato e costruito da K. A. von Steinheil (famoso costruttore di strumenti ottici) nel 1853. Sulla destra della figura vi è una fenditura regolabile in ampiezza da cui far passare la luce. La luce può essere quella di una lampada (luce bianca) o quella ottenuta con un becco Bunsen sul quale è sistemata una retina metallica sulla quale si mettono delle sostanze che si fanno bruciare per vederne gli spettri. Questa “luce” passa attraverso il collimatore T, va sul prisma P dove viene separata, quindi entra nel cannocchiale C (mobile su una ghiera graduata) ai cui estremi vi è un osservatore o una lastra fotografica (al posto di P, per avere studi più sofisticati si possono sistemare dei reticoli di diffrazione).

Gli studi in questo campo portarono a stabilire senza ombra di dubbio che ciascun elemento aveva un suo spettro che differiva da tutti gli altri. Se si aveva un composto, lo spettro che veniva fuori era semplicemente la sovrapposizione degli spettri dei vari elementi che lo costituivano. Per questa via si scoprirono nuovi elementi poiché in dati composti comparivano serie di linee che non erano mai state osservate per nessun elemento. Esemplifico con gli spettri di due elementi, il primo dell’elio (elemento prima sconosciuto e che, appunto, fu trovato per via spettroscopica, analizzando lo spettro solare), il secondo del neon.


Ebbene, i dati osservativi stavano lì, avevano permesso importanti scoperte, ma non si riusciva a capire quale fosse l’origine degli spettri. Si provò a metterli dentro delle formule empiriche che rendessero conto della frequenza da assegnare ad ogni riga per differenti elementi. Nel 1885, lo svizzero Balmer riuscì a montare una formula che rendeva conto della frequenza delle varie righe dello spettro dell’idrogeno nel visibile (se si vogliono maggiori dettagli si vada all’articoli “Atomi e Molecole”).
Dallo studio della sua formula Balmer riuscì a prevedere alcuni fatti:
1) devono esistere delle righe relative ad n = 7, 8, 9, ……, ∞ nella regione dell’ultravioletto (queste righe furono osservate subito dopo con uno spettroscopio opportuno); 2) devono esistere relative ad 1/12 (nella formula) situate nel lontano ultravioletto (queste linee furono osservate sempre con uno spettroscopio opportuno da Lyman nel 1906: serie di Lyman);
3) devono esistere altre righe relative a 1/32 (nella formula) nella regione dell’infrarosso (queste righe furono osservate da Paschen nel 1908);
4) devono esistere altre righe relative a 1/42, 1/52, … nella regione dl lontano infrarosso (queste righe furono osservate negli anni seguenti da diversi ricercatori, tra cui Brackett e Pfund).
Quindi ci troviamo di fronte ad un fatto all’epoca incomprensibile e considerato solo dal suo aspetto empirico. Gli spettri discontinui saranno un grave problema per oltre 50 anni.
EFFETTO FOTOELETTRICO (TEORIA ONDULATORIA)
Secondo la teoria ondulatoria l’energia trasportata da un’onda è proporzionale alla sua ampiezza. Tale energia non dipende in alcun modo dalla frequenza dell’onda. Per intenderci, a parità di ampiezza, un’onda luminosa rossa ed una viola, trasportano la stessa energia. Quindi se inviamo un’onda rossa ed una viola (con medesime ampiezze A) contro un ostacolo, esse dovrebbero cedere all’ostacolo la stessa quantità di energia. Sperimentalmente LE COSE NON VANNO COSI’! Se disponiamo di una lamina metallica e, su di essa, inviamo luce gialla o viola, anche con ampiezze differenti (maggiore la gialla della viola), accadono fatti straordinari o, perlomeno, non comprensibili con l’ordinaria teoria ondulatoria.

fig. 7
Il fatto straordinario è che anche una debolissima luce ultravioletta (UV) è capace di strappare elettroni da un metallo, mentre un faro da 1 000 watt giallo non ci riesce. Sembra incontrovertibile che qui sia la frequenza e non l’ampiezza a giocare un ruolo fondamentale che comunque non rientra in alcun modo nei canoni esplicativi ondulatori. A questi fatti si somma un altro sorprendente fenomeno che, questa volta, non rientra nei canoni interpretativi della teoria ondulatoria: il corpo nero studiato nell’ambito degli spettri.
IL CORPO NERO
Iniziamo con il dire che, sulla Terra, un corpo nero perfetto non esiste. Una sua buona approssimazione è una crepa in un forno all’antica, crepa piena di fuliggine (fig. 8).

fig. 8
Se della radiazione entra nella bocca del forno, essa si rifletterà successivamente su tutte le pareti del forno restando ivi intrappolata. A maggior ragione la cosa si verificherà nella crepa. Se noi disponiamo di uno spettroscopio e studiamo la minima frazione di energia che riesce ad uscire dalla crepa, avremo lo spettro di emissione del corpo nero. Lo studio di un tale spettro (in modalità diverse da quelle da me illustrate ma concettualmente simili) fu fatto con dei risultati ancora sorprendenti relativamente a ciò che la teoria ondulatoria prevedeva per tale radiazione emessa dal corpo nero.

fig. 9
La curva disegnata in rosso rappresenta ciò che è fornito dall’esperimento. L’intensità I della radiazione nera emessa è minima in corrispondenza del rosso e torna minima (tende a zero) in corrispondenza del viola. I dati per piccole frequenze ν (rosso) sono in accordo con la teoria. Ma, per alte frequenze ν (viola) vi è una differenza radicale: l’esperimento parla di I = 0, mentre la teoria parla di I = ∞. Questo fatto è comunemente conosciuto come “catastrofe dell’ultravioletto”.
RICAPITOLIAMO IN BREVE
Nella seconda metà dell’Ottocento vengono scoperti alcuni fenomeni, apparentemente marginali, che non trovano spiegazione con la fisica nota:
- Kirchhoff e Bunsen (1857) scoprono gli spettri degli elementi. Perché, scaldando un elemento, emette quelle stane righe discrete?
- Hertz (1887) scopre l’effetto fotoelettrico. Una lamina metallica colpita da radiazione UV acquista una carica elettrica positiva (più tardi, con la scoperta dell’elettrone – 1897 – , si dirà che quella lamina perde elettroni). La stessa lamina è indifferente ad un fascio di luce, anche intensissimo ma, ad esempio, verde.
- Le teorie dell’emissione e dell’assorbimento di radiazione, forniscono risultati diametralmente opposti a quelli sperimentali, nel caso del corpo nero.
- Per altri versi la teoria ondulatoria della luce prevedeva, in analogia con le ordinarie onde meccaniche (come, ad esempio, quelle sull’acqua o quelle sonore), che vi fosse una qualche entità che sorreggesse le onde della luce nel loro procedere nello spazio vuoto. Si ipotizzò un etere che però sfuggiva ad ogni rivelamento.
- Altre questioni tra cui il moto browniano che però tralasciamo.
Nell’anno 1900 Kelvin aprì il secolo con un articolo che aveva per titolo: “Due nubi oscure all’orizzonte della fisica“ e, nel lavoro, faceva particolare riferimento al fatto che la fisica non riusciva a spiegare lo spettro del corpo nero e non era in grado di trovare l’etere. La soluzione del problema dell’etere venne fornita da Einstein nel 1905 con un articolo che ha per titolo “Sull’elettrodinamica dei corpi in movimento” meglio notocome l’articolo sulla relatività ristretta. La soluzione del problema del corpo nero venne avviata da Planck proprio allo scadere dell’anno 1900. Con questi due lavori si iniziarono via via a fornire spiegazioni a tutti i fenomeni fisici citati, fino ad allora non compresi.
NASCONO I QUANTI (PLANCK 1900)
Planck prese in mano la teoria del corpo nero e la rimescolò in vari modi. Si accorse che solo effettuando un ardito passaggio, la teoria avrebbe coinciso con i fatti sperimentali. Si trattava di toccare una delle grandezze fondamentali della fisica, l’energia. Questa grandezza era sempre stata comunemente intesa come continua, come un qualcosa che si prende o si dà in quantità a piacere. Planck si trovava di fronte ad un problema probabilistico del tipo: come sistemare un certo numero di oggetti in un numero dato di caselle (come suddividere l’energia tra vari stati energetici). Si trattava di “frantumare” quella grandezza continua in tante piccole parti (la cosa era già stata fatta da Boltzmann) da sistemare nelle differenti caselle. Ma mentre Boltzmann aveva fatto l’operazione di limite facendo tendere a zero le dimensioni delle quantità discrete di energia, continuando a trovare il disaccordo della teoria con l’esperienza, Planck non fa questa operazione e mantiene queste energie in quantità piccole e discrete, i quanti. Cosa vuol dire una cosa del genere? Semplicemente che, a livelli microscopici l’energia si distribuisce in quantità discrete (con un esempio macroscopico si può dire che per inviare latte da un punto A ad un punto B si può usare un tubo e versare il latte in A per riceverlo in B; oppure si possono immettere tetrabrik in A su un nastro trasportatore e ricevere il latte in B in quantità discrete: o un litro o due o tre …. mai in frazioni di litro! La cosa risultava veramente straordinaria. La si doveva ammettere solo perché questo artificio di calcolo rimetteva a posto il disaccordo esistente tra teoria ed esperienza nel fenomeno del corpo nero. La cosa comunque non piaceva, ad iniziare dallo stesso Planck … Si tratta va in definitiva, di sostituire ad una grandezza continua (l’energia E) la somma di n piccole grandezze discrete (i quanti hν, con h costante di Planck e ν frequenza della radiazione):
E = hν
che, sillabata, dice:

Quindi un corpo può cedere o acquistare energia cedendo o acquistando quanti, sempre in numero intero e mai in frazione. Dai conti fatti e successivamente perfezionati la scala dei quanti era la seguente:
1/2 h ν; 1/2 h ν + 1 h ν; 1/2 h ν + 2 h ν; 1/2 h ν + 3 h ν; ……..
in pratica vi era una quantità 1/2 h ν che si aveva all’inizio della scala e che rimaneva sempre sommata ai singoli quanti interi (questa vicenda, vedremo, sarà fondamentale per capire moltissime cose). In tal modo, la formula precedentemente data diventa:
E = (1/2 + n) . h ν.
Si può notare un fatto fondamentale che, almeno in linea di principio, ci ricollega a quanto dicevamo sull’effetto fotoelettrico: l’energia dipende dalla frequenza! Maggiore frequenza, maggiore energia. Ricordando che 1/2 ed n sono numeri puri, l’energia risulta uguale ad una frequenza ν per quella costante h che non può essere un numero puro ma deve avere delle dimensioni, quelle cioè di una energia moltiplicata per un tempo (grandezza nota come azione e mai ben chiarita). Inoltre h, invariante spazio temporale, ha un valore numerico enormemente piccolo (un 1 diviso per un numero con 34 zeri):
h = 6,63.10-34 joule.secondo
e questa piccolezza di h fa si che i quanti abbiano un peso solo in un mondo microscopico (atomico, molecolare, nucleare). Nel mondo che cade sotto i nostri sensi i quanti sono assolutamente trascurabili. Sto dicendo che la fisica ordinaria (classica o newtoniana) va benissimo per trattare il mondo macroscopico.
L’EFFETTO FOTOELETTRICO (EINSTEIN 1905)
Dicevamo che l’energia dipende ora dalla frequenza. Dicevamo pure che il mondo dei fisici non era soddisfatto dei lavori di Planck. Serviva l’intervento di un giovane fisico, Einstein, per comprendere tutta la potenza di quanto Planck aveva trovato. Il primo uso dei quanti per una spiegazione di un fenomeno fisico lo fece lui con l’effetto fotoelettrico. Usò di quella energia dipendente dalla frequenza e con un brillantissimo lavoro (che gli valse il Nobel nel 1921) spiegò l’effetto fotoelettrico, fenomeno che da venti anni sfuggiva ad ogni elaborazione. Servono “proiettili” di una data energia per staccare elettroni da un atomo e la radiazione UV ha questa energia perché dotata di maggiore frequenza della radiazione, ad esempio, verde. Questi proiettili sono “quanti di luce”, i fotoni come li ribattezzò Lewis nel 1926.
Si ritorna così ad una sorta di teoria corpuscolare con particelle (i fotoni) che hanno caratteristiche ondulatorie (la frequenza) e si comportano come particelle. Vedremo oltre le enormi implicazioni di tale affermazione.
IL 3° PRINCIPIO DELLA TERMODINAMICA (NERST 1906)
Lavorando su questioni relative alle basse temperature, sul finire dell’Ottocento, ci si convinceva sempre più che ci doveva essere una temperatura limite al di sotto della quale non si potesse andare:
t = – 273 °C che corrisponde a T ~ 0 °K (zero assoluto).
Nerst capì che questa irraggiungibilità dello zero assoluto aveva a che fare con i quanti. Per abbassare la temperatura di un corpo occorre sottrargli energia. Questa energia viene sottratta per multipli interi della quantità base h ν. Abbiamo già visto che lo stesso Planck era stato costretto a sistemare lo zero dell’energia non a 0.h ν ma ad 1/2.h ν. Ebbene, essendo quest’ultima quantità una frazione di quanto di energia (chiamata energia di punto zero) non può essere ceduta in alcun modo. Questo fenomeno è quindi alla base dell’impossibilità di togliere ogni energia alla materia. Altro grande successo immediato della fisica dei quanti.
Altri successi vennero dai più svariati campi. Tra il 1906 ed il 1907 due lavori di Einstein aprirono la strada (Debye, Karman, Born) alla completa spiegazione ed accordo con i dati sperimentali dei calori specifici delle sostanze.
LA STRUTTURA DELL’ATOMO ED I QUANTI (BOHR 1913)
Facciamo anche qui una breve cronologia dei principali fatti che portarono alle ipotesi di Bohr.
- nel 1897 il britannico J. J. Thomson scopre l’elettrone e ne misura carica e massa separatamente.
- nel 1909 il britannico E. Rutherford (con Geiger e Mardsen) scopre il nucleo dell’atomo.
- nel 1911 il danese Niels Bohr sviluppa il suo modello atomico modificando radicalmente quello planetario sviluppato in precedenza da Rutherford. Secondo tale modello

fig. 10
- l’atomo è neutro: la somma delle cariche negative degli elettroni eguaglia la carica positiva del nucleo.
- Le orbite non possono essere qualsiasi: sono possibili solo quelle orbite che hanno un’energia (per unità di tempo) pari ad un multiplo intero della costante di Planck (mvr = nh/2π). Ciò vuol dire che non vi può essere un continuo di orbite ma solo alcune: le orbite elettroniche sono quantizzate.
- Ad ogni orbita elettronica corrisponde un determinato valore di energia.
- L’acquisto di energia da parte di un elettrone lo porta su orbite via via più alte (quando questa è sufficiente l’elettrone schizza via dall’atomo, come ad esempio nell’effetto fotoelettrico).
- La perdita di energia da parte di un atomo porta l’elettrone su orbite più basse (attenzione qui: si aspetti di conoscere il Principio di Pauli del 1925!).
- Un elettrone, finché resta su una determinata orbita, non perde né acquista energia (questa affermazione, così banale, contrasta radicalmente con quanto la teoria ondulatoria ammetteva: una carica accelerata, ed un elettrone in un orbita circolare è tale, deve emettere energia e tale emissione è una perdita di energia tale da far scendere l’elettrone in orbite via via più basse).
Acquisto di energia da parte di un elettrone in un atomo
Supponiamo di avere un elettrone in un livello energetico atomico E1 . All’arrivo dall’esterno di un quanto di energia (un fotone) di energia h ν, se questo fotone ha energia sufficiente (pari o maggiore, cioè, alla differenza E2 – E1 ), allora l’elettrone salta sull’orbita superiore E2.

fig. 11
Perdita di energia da parte di un elettrone in un atomo
La situazione precedente non si può mantenere che per breve tempo se, dall’esterno, non arriva rifornimento di fotoni. In tal caso l’elettrone ritorna nella sua orbita restituendo il fotone che lo aveva eccitato:

fig. 12
Ora, poiché i livelli elettronici sono solo alcuni precisamente determinati, come già detto, solo alcuni salti saranno possibili per gli elettroni. Poiché ad ogni salto da un dato livello ad un altro corrisponde una data energia, poiché ad ogni energia corrisponde una determinata frequenza, poiché ad ogni frequenza corrisponde un determinato colore, ecco che diventa ora chiaro come si producano gli spettri discontinui! Eccitando (ad esempio, con una fiamma o con una scarica elettrica) un determinato elemento, questo vedrà i suoi atomi eccitati in modo diverso. Alcuni atomi vedranno gli elettroni saltare, ad esempio dal 1° al terzo livello, altri dal 2° al quarto, altri …., di modo che tutte le possibili transizioni tra livelli saranno rappresentate. E queste possibili transizioni sono in numero finito, appunto lo spettro del dato elemento. Da qui discende anche un’altra importante osservazione: poiché elementi diversi hanno spettri diversi, ne consegue che la struttura delle orbite elettroniche per differenti elementi è differente e, per un dato elemento, sempre la stessa.

fig. 13
nel 1913 A. Sommerfeld applica la teoria della relatività al moto dell’elettrone ed introduce ulteriori quantizzazioni, oltre quella dei livelli energetici: le orbite elettroniche sono ellittiche con eccentricità determinate e non qualunque; considerate le orbite su di un piano nello spazio, come devono, non tutti i piani possibili passanti per il nucleo possono contenere orbite, ma solo determinati (quantizzazione spaziale). Con queste correzioni ogni spettro sperimentale è ben spiegato dalla teoria (con la teoria di Bohr solo l’idrogeno vedeva coincidere dati sperimentali con teoria).

Quantizzazione delle eccentricità.

Quantizzazione dei piani spaziali su cui sono disposte le orbite.
fig. 14
L’EFFETTO COMPTON (1922-1923)
Con l’evidenza sperimentale dell’Effetto Compton, i quanti acquistano ulteriore realtà fisica. Ad essi si applica una delle leggi fondamentali della fisica: la conservazione della quantità di moto. Tale conservazione è rispettata solo ammettendo che il fotone abbia quantità di moto hν/c.

fig. 15
ottenendosi:
h ν/c = mv + h ν’/c
ONDE O PARTICELLE?
A questo punto disponiamo di fenomeni che si spiegano solo con la teoria ondulatoria (interferenza) ed altri che si spiegano solo con una sorta di teoria corpuscolare (effetto fotoelettrico). In definitiva con cosa abbiamo a che fare? Con onde o con particelle? Iniziamo, con una tabella a dare le caratteristiche salienti delle onde e delle particelle.

DE BROGLIE (1924)
E’ il francese L. De Broglie, nella sua tesi di laurea, che inizia a rispondere a questi problemi. Secondo lui deve esservi una simmetria:
se delle onde hanno caratteristiche corpuscolari
dovrà accadere che
particelle presentino caratteristiche ondulatorie.
Dovrà valere la relazione:
mv = h/λ

E ciò vuol dire che, ad una data massa m si può sempre associare una lunghezza d’onda λ:
λ = h/mv .
Questa relazione vuole intanto dire che: se si dispone di una particella di data massa, essa avrà una elevata lunghezza d’onda se è lenta (bassa velocità) e, viceversa, essa avrà piccola lunghezza d’onda se è veloce. Inoltre questa relazione si presta ad una verifica sperimentale. Si tratta di provocare l’interferenza (meglio dire: la diffrazione) di elettroni, neutroni, …. E la cosa fu realizzata da Davisson e Germer nel 1927 che ebbero l’idea di utilizzare gli ioni di un cristallo come “fenditure” (sulla lunghezza d’onda di oggetti materiali ritorneremo tra un poco).
Torniamo ora all’ipotesi di De Broglie introducendo preliminarmente un concetto classico elementare. Se uno ha una circonferenza e su di essa vuole metterci un’onda, la cosa è realizzabile solo se vi sono delle condizioni rispettate e cioè che la lunghezza della circonferenza 2πr sia un multiplo intero della lunghezza dell’onda λ:

fig. 16
deve cioè valere la relazione:
2πr = n.λ => λ = 2πr/n .
Mettendo insieme questa relazione con quella vista di De Broglie si trova una naturale spiegazione all’ipotesi di Bohr secondo la quale esistono solo determinate orbite (quelle per le quali mvr = nh/2πr). Si ha:
λ = 2 πr/n = h/mv => mvr = nh/2π.
Resta da giustificare l’altra ipotesi di Bohr, quella che vuole un elettrone in un data orbita non emettere o assorbire energia. La cosa viene spiegata da De Broglie mediante le onde stazionarie. L’elettrone che si trova su di un’orbita elettronica è descritto da un’onda stazionaria (che non si modifica nel tempo). In tale situazione non vi sono cambiamenti energetici.

In definitiva, l’ipotesi iniziale di De Broglie, nata da ragioni eminentemente euristiche, porta a spiegare ipotesi ad hoc di Bohr che, certamente spiegavano ma che, altrettanto certamente, non si capiva bene da dove provenissero. Ma, come annunciato, ritorniamo un attimo alla natura ondulatoria della materia. Riprendiamo la relazione di De Broglie:
λ = h/mv
e calcoliamoci la lunghezza d’onda di differenti “oggetti” materiali.
Lunghezza d’onda di una persona (m = 100 Kg; v = 10 m/s):
λ = h/mv = 6,6.10-34 /100.10 = 6,6.10-37 m
Lunghezza d’onda di un moscone (m = 1g; v = 10 m/s):
λ = h/mv = 6,6.10-34 /10-3.10 = 6,6.10-32 m
Lunghezza d’onda di un elettrone (m ~ 10-30 Kg; v ~ 106 m/s):
λ = h/mv = 6,6.10-34 /10-30.106 = 6,6.10-10 m
Trovate queste lunghezze d’onda, occorre verificare se hanno una qualche corrispondenza sperimentale. Bisognerebbe provocare fenomeni di diffrazione mandando a sbattere uomini o mosconi o elettroni addosso ad un diaframma fornito di due fenditure. Ma, se ricordiamo, le fenditure per provocare interferenza non possono avere dimensioni qualunque. Dico ora che tali fenditure devono avere dimensioni dell’ordine di grandezza della lunghezza d’onda dell’oggetto da diffrangere. Le più piccole fenditure che siamo in grado di costruire sono dell’ordine di grandezza di 10-15 m. Da ciò discende che non è possibile verificare sperimentalmente la diffrazione di uomini o mosconi e più in generale di oggetti macroscopici. Mentre è verificabile per gli elettroni o qualunque altra particella subatomica (ricordo che ho accennato al ruolo fondamentale giocato dalla piccolezza di h per rendere i quanti fondamentali solo nel mondo microscopico). Riporto di seguito due figure di diffrazione, l’una ottenuta da raggi X (tipicamente ondulatori) e l’altra da elettroni (caratteristiche corpuscolari):

fig. 18
Credo si capisca come i due “oggetti” fatti diffrangere, hanno stesso comportamento sperimentale.
Facciamoci ora un facile conto per vedere in modo elementare dove possano portare alcune elaborazioni. Combiniamo insieme la relazione di De Broglie (mc = h/λ , dove abbiamo sostituito a v la velocità c della luce) con quella di Planck (E = hν). Ricordando che, per la luce, ν = c/λ => λ = c/ν e sostituendo questo valore al λ della relazione di De Broglie, si trova:
mc = h/(c/ν) => mc2 = hν
e, ricordando che E = hν, si trova subito:
E = mc2.
ALCUNI SVILUPPI
Einstein capì subito l’importanza dell’idea di De Broglie, mentre lavorava alla statistica di Bose (vedi articolo su le statistiche calssiche e quantistiche) e ne parlò (1924) con Born. Lo stesso Einstein pubblicò un lavoro sulla questione nel 1925 affermando che la cosa “rappresenta più che una mera analogia”. Questo lavoro fu letto da Schrödinger e da esso partì, prendendo alla lettera l’idea di De Broglie [all’epoca il prestigio di Einstein era enorme], sviluppando la “meccanica ondulatoria” che “si affiancava” alla quantistica. Nel 1926 fu pubblicata la maggior parte dei contributi di Schrödinger alla meccanica ondulatoria. Ed in quell’anno, con matematiche differenti, furono pubblicati anche i vari lavori di Heisenberg (meccanica delle matrici), Dirac (algebra quantistica), Born e Jordan. Lo sviluppo più potente fu quello di Dirac (uso delle equazioni differenziali della meccanica analitica di Hamilton-Jacobi) che comprendeva, come casi particolari, gli sviluppi di Heisenberg e Schrödinger.
IL PRINCIPIO DI ESCLUSIONE (PAULI 1925)
Nel 1925 due fisici olandesi, Ulenbeck e Goudsmith, scoprono una proprietà magnetica dell’elettrone. Quest’ultimo, movendosi lungo la sua orbita, ruota anche rapidissimamente su se stesso come una trottola (spin). E’ inutile stare qui a discutere del fatto che in realtà si tratta di un effetto relativistico, è ora importante osservare che il valore energetico, per unità di tempo, che si accompagna a questo spin è proporzionale alla costante h di Planck, s = ± ½ (h/2π). I segni + o – stanno ad indicare le due possibili rotazioni dell’elettrone, verso orario ed antiorario, cosicché anche lo spin risulta quantizzato (la cosa è rappresentata con un vettore diretto verso l’alto o verso il basso). Nello stesso anno il tedesco W. Pauli riuscì a dimostrare che, all’interno di un atomo, non vi possono essere più di due elettroni su una medesima orbita (e ve ne sono due solo se questi hanno spin opposti) [noto a margine che la tavola periodica degli elementi, con questa scoperta di Pauli, trova una sua naturale spiegazione. Senza tale principio non conosceremmo la varietà del mondo chimico e le caratteristiche del mondo fisico sarebbero radicalmente differenti.

fig. 19
Inoltre questo principio spiega perché, abbassando drasticamente la temperatura, la materia non collassa, non si “sgonfia”.

fig. 20
FERMIONI E BOSONI
Il mondo circostante è fatto da una enorme varietà di particelle (vedi l’articolo nel sito) ma tutte hanno delle caratteristiche elementari che le fanno suddividere in due classi: esse o sono bosoni o sono fermioni. I bosoni (fotoni, nuclei di elio 4, mesoni, ….) sono le particelle che hanno come spin un numero intero o nullo; i fermioni (elettroni, protoni, neutroni, …) sono particelle che hanno come spin un numero semintero. I comportamenti di tali particelle sono del tutto diversi. Tutte le particelle, dato il gran numero che costituisce un loro insieme da studiare, sono sempre trattate con delle apposite statistiche (si veda l’articolo in proposito sul sito). Ebbene, i fermioni obbediscono alla statistica elaborata da Fermi (1925) e da Dirac (1926) ed in tutte le interazioni dell’universo il numero dei fermioni si conserva; i bosoni obbediscono alla statistica elaborata dal fisico indiano Bose (1924) e da Einstein (1925) e non si conservano, essi nell’universo possono essere creati in grandissime quantità, ad esempio accendendo una lampadina.
I NUMERI QUANTICI
Siamo a questo punto in grado di riassumere, fornendo una descrizione dei numeri quantici che caratterizzano la struttura di un atomo (vedi in proposito “Atomi e Molecole” nel sito).
Quattro sono i numeri quantici che dobbiamo considerare:
- n o numero quantico principale. Esso fu introdotto da Bohr nel 1913.Esso stabilisce il livello energetico in cui ci troviamo. Al crescere di n (che può variare da 1 fino ad infinito) cresce il valore dell’energia associato a quel livello energetico (e quindi degli elettroni che ivi si trovano). Occorre osservare che i livelli energetici sono ordinariamente raggruppati in strati energetici (i livelli sono molto vicini tra loro e praticamente indistinguibili). Vi è una facile regola pratica che per ogni n assegna n2 livelli componenti uno strato (per n = 1 vi è un solo livello e si ha a che fare con lo strato K; per n = 2 vi sono 4 livelli e si ha a che fare con lo strato L; per n = 3 vi sono 9 livelli e si ha a che fare con lo strato M; …..). Occorre poi osservare che n, in qualche modo, è legato alla distanza relativa tra i livelli energetici in un dato atomo (le distanze tra livelli sono proporzionali ad 1/n2 e ciò vuol dire che, data distanza 1 tra nucleo e primo livello, la distanza tra primo e secondo livello è 1/4, quella tra secondo e terzo è 1/9, e così via. Ciò vuol dire che, allontanandosi dal nucleo i livelli vanno infittendosi e che, in corrispondenza di n = ∞, diventano non più separati costituendo un continuo che fa sì che l’elettrone, a quel punto, non appartiene più a quell’atomo ma è “libero” (vedi la Teoria dell’elettrone libero …” nel sito).
l (lettera elle minuscola) o numero quantico secondario. Fu introdotto da Sommerfeld nel 1916. Esso stabilisce la forma e l’energia dei sottolivelli (abbiamo già detto che per ogni n si hanno n2 sottolivelli). Il suo valore varia da 0 ad n – 1.
m o numero quantico magnetico. Fu introdotto da Sommerfeld nel 1916. Esso stabilisce l’orientazione spaziale del livello energetico. Esso può valere: m = 0, ± 1, ± 2, ± 3, … ± l.
s o numero quantico di spin. Fu introdotto da Pauli nel 1925. Esso stabilisce una delle due possibili rotazioni dell’elettrone su se stesso. Può, come già detto, valere: s = ± ½ (h/2π).
LA PROBABILITA’ ENTRA NELLA STRUTTURA ATOMICA
Abbiamo già discusso di onde e particelle. Non ne siamo usciti in modo convincente. E non sarà neppure convincente l’interpretazione delle onde (associate a corpuscoli) di De Broglie che dette M. Born nel 1926. Cosa associa un’onda ad un corpuscolo? Il concetto di probabilità! Un’onda rappresenta (vedremo come) la probabilità che ad essa sia associata una particella.
Se sapessimo che in una certa zona dello spazio c’è un corpuscolo rappresentato dall’onda (a), c’è una probabilità costante di trovarlo lungo il tratto x:

fig.21
Se è (b) a rappresentare la stessa situazione avremo una probabilità nulla di trovare il corpuscolo:

fig. 22
Se la situazione è rappresentata da (c) allora il corpuscolo si troverebbe localizzato nel tratto Δx:

fig. 23
Se consideriamo Δx più ingrandito, in Δx si ha una probabilità maggiore di trovare il

fig. 24
corpuscolo in 1 ; una probabilità minore di trovarlo in 2; ed una ancora minore di trovarlo in 3. La cosa può essere pensata anche così: in Δx il corpuscolo si muove passando gran parte del suo tempo in 1, quindi in due ed infine in 3.
Nel caso la forma dell’onda in Δx fosse diversa:

fig. 25
il corpuscolo si troverebbe con maggiore probabilità in 1 che non in 2;

fig.26
nel caso di fig. 26, infine, il corpuscolo si troverebbe lungo tutto Δx con la medesima probabilità.
Se poi uno si chiedesse come si arriva alla fig. 24, nota anche come “pacchetto d’onde”, la risposta risiede nella sovrapposizione di più onde che origina quel “pacchetto” come onda risultante:

fig.27
Resta il problema della vera comprensione e della formalizzazione. Qui le cose si complicano per le difficoltà della matematica ma anche per lo sfuggire da sotto di noi il rassicurante determinismo classico. Diciamoci la verità, da questo punto le cose non sono davvero comprensibili. In ogni caso tentiamo di descrivere, almeno in modo molto approssimato, i ragionamenti di Born.
L’espressione matematica che descrive un’onda, ad esempio l’onda di un elettrone in un atomo, è una funzione matematica che è stata indicata con la lettera Ψ. La Ψ è una grandezza (?) che non può essere misurata ed è pertanto definita non osservabile. Se in un atomo abbiamo la certezza che vi sia un elettrone la probabilità P (con P compreso tra 0 ed 1) di trovarlo con una misura sarà P = 1. Ebbene, Born definì come osservabile il modulo al quadrato della funzione d’onda Ψ (si tenga conto che, se Ψ è una funzione immaginaria, il suo modulo al quadrato ci fornisce una grandezza reale):

(per avvicinarci lontanamente a questo modo indiretto di intervenire, si può dire che noi osserviamo le linee spettrali e non le orbite degli elettroni). Disegniamo ora tre diverse situazioni di Ψ e del suo modulo al quadrato:

fig. 28
Si noti che si passa da una curva, la Ψ, ad un’area e quindi ad un volume.
[osservo a parte che la Ψ non è una proprietà della particella/onda singolarmente considerata, bensì della particella/onda e della misurazione che viene eseguita].
La Ψ si ricava invece risolvendo la famosa equazione differenziale alle derivate parziali (1926) di Schrödinger (fisico austriaco) che qui riporto solo come se fosse una figura:

L’ evoluzione di questa equazione vide Dirac che, nel 1928, la modificò introducendo in essa la relatività. Risolvendo tale equazione in queste condizioni venivano fuori due strane soluzioni immaginarie che altri avrebbero scartato. Dirac affermò invece che se tali soluzioni venivano fuori vi doveva essere un motivo profondo ed ipotizzò che tali soluzioni descrivessero una materia diversa da quella a noi nota, l’antimateria. Fu necessario aspettare fino al 1932 quando il fisico statunitense Anderson scoprì dai raggi cosmici la prima particella di antimateria, il positrone o antielettrone e+. Solo nel 1955 Emilio Segré, uno della famosa scuola di Roma, scoprì, negli USA, l’antiprotone p–. Seguiranno poi l’antineutrone e varie altre antiparticelle ed antiatomi.
IL PRINCIPIO DI INDETERMINAZIONE (HEISENBERG 1926/1927)
Nelle cose che siamo andati dicendo, a partire da De Broglie, già era sparita la particella materiale. Occorreva dirlo meglio. Formalizzare. E per questo Heisenberg ebbe delle straordinarie intuizioni che poi purtroppo vennero estrapolate arbitrariamente fino a creare gravi problemi di interpretazione filosofica della meccanica quantistica. Intanto Heisenberg fa una operazione che rivoluziona il modo di osservare; egli non guarda più dall’esterno ma si mette dentro ciò che vuole osservare (non è una cosa da poco!).
Cerchiamo di capire cosa è tale principio di indeterminazione.
Quando vogliamo descrivere che farà un proiettile sparato da un cannone, non occorre che ci mettiamo ad osservare per credere che le cose vadano in un certo modo. Due calcoletti con la fisica di Newton e riusciamo a conoscere, istante per istante, la traiettoria (o velocità) e la posizione del proiettile. La cosa assume una rilevanza diversa nel mondo microscopico, dove i fenomeni vanno trattati con i quanti.
Occorre prima dire in breve il modo in cui noi vediamo gli oggetti, modo simile sia nella visione ordinaria che quantistica della luce. Dato un oggetto da osservare serve una sorgente di luce che, dopo essersi riflessa sull’oggetto da osservare, arriva agli occhi dell’osservatore informandolo che l’oggetto è proprio lì (si noti che questo toccare indiretto degli oggetti per vederli, corrisponde al toccare diretto del non vedente che si aggira in un ambiente che non conosce).

fig. 29
Riferiamoci a dei fotoni che debbano colpire un oggetto perché noi lo si possa vedere (secondo disegno). Le energie in gioco, quelle dei fotoni che colpiscono l’oggetto sono veramente ridicole rispetto all’inerzia dell’oggetto. Possiamo anche prendere un faro usato dalla protezione civile per le inondazioni ed illuminare con esso un granello di sabbia. Tale granello non si sposterà perché colpito da quell’enorme fascio di fotoni. E’ che il granello di sabbia è immensamente più grande del mondo atomico. Scendiamo allora a tale scala. Se volessimo osservare un elettrone dovremmo vederlo. Per fare ciò occorre che almeno un fotone lo colpisca. Ebbene, l’energia di un fotone è dello stesso ordine di grandezza di quella di un elettrone! Ciò vuol dire che, se vogliamo osservare l’elettrone, lo vediamo per un istante infinitesimo, ma poi lo perdiamo perché l’urto del fotone lo ha fatto schizzare via (si riveda l’effetto Compton). Quindi si potrebbe pensare di osservare la posizione di un elettrone ma, questa osservazione, ci toglie ogni possibile informazione su quale traiettoria è seguita da quell’elettrone. Ma si potrebbero usare fotoni meno energetici. Invece di quelli, ad esempio, viola, si possono usare quelli rossi. Benissimo. In tal caso non spostiamo apprezzabilmente l’elettrone dalla sua traiettoria ma non riusciamo a vederlo bene, lo vediamo sfocato. Se ci mettiamo con fotoni ad energia intermedia (verdi) perdiamo un poco di informazione sulla traiettoria e poca sulla posizione dell’elettrone.

fig. 30
In formula il principio di indeterminazione si scrive:
Δvx . Δvy . Δvz . Δx . Δy . Δz ≥ h/2πm
e qui occorrerebbe discutere di questo spazio a sei dimensioni che si è introdotto, lo spazio delle fasi, ma ci limitiamo solo a considerare il principio di indeterminazione in una dimensione, così il tutto si semplifica:
Δvx . Δx . ≥ h/2πm
dove la formula dice che il prodotto dell’indeterminazione sulla traiettoria (o velocità) per l’indeterminazione sulla posizione non può essere inferiore a quella quantità scritta al secondo membro. Facendo dei conticini facili (si veda ‘atomi e molecole’ al paragrafo “Principio di indeterminazione”) si trova che l’indeterminazione della posizione dell’elettrone in un atomo è ora grande come tutto l’atomo e ciò vuol dire che spariscono orbite e triettorie e la stessa individualità dell’elettone. Ora quest’ultimo può trovarsi dovunque dentro l’atomo ma non sappiamo dove e neppure come si muove.
Conoscere vuol dire misurare, misurare vuol dire perturbare e perturbare ci porta ad essere indeterminati nel mondo microscopico (noto a parte che nell’esperimento ideale di Heisenberg, descritto dalla figura 30, gli strumenti sono classici e non quantistici e qui si apre un altro fronte non secondario di discussione che rimandiamo oltre). Secondo il fisico russo (espatriato in USA) Gamow in un mondo quantistico non si potrebbe accarezzare un gattino senza spezzargli il collo, tali sono le cose straordinarie che accadono e che non rispondono a quello che conosciamo come senso comune. Il principio di indeterminazione, il carattere probabilistico della fisica dei quanti ed il dualismo onda-corpuscolo non sono altro che espressioni diverse di un solo modo, assai complesso, di rappresentare il mondo microscopico esterno. Si è voluto estendere a tutta la realtà del mondo questo principio con affermazioni che implicherebbero il dover abbandonare le nostre libertà metafisiche ed anche su questo torneremo oltre.
IL PRINCIPIO DI COMPLEMENTARITA’ (BOHR 1927)
Tale principio fu enunciato da Bohr in un convegno che si tenne a Como nel 1927. Dico questo perché, avrete letto, la fisica italiana brillava per la sua assenza nell’elaborazione della fisica dei quanti. I lavori di Fermi e del suo gruppo crearono però un tale prestigio intorno alla nostra fisica che scienziati di prim’ordine iniziarono ad avvicinarsi al nostro Paese.
Secondo Bohr, ogni esperienza capace di evidenziare una particella da un punto di vista corpuscolare esclude la possibilità di determinare il suo aspetto ondulatorio. In fisica quantistica niente impedisce di localizzare un elettrone ma, una volta localizzato, esso è determinato come particella. Se vogliamo invece misurare la lunghezza d’onda di un elettrone, ad esempio mediante diffrazione, dobbiamo concludere che l’elettrone è un’onda. Secondo Bohr, onda e particella non sono più concetti incompatibili ma dipendono dai risultati delle misure e dalla strumentazione utilizzata. Il dualismo onda-corpuscolo di materia e radiazione diventa, per Bohr, la complementarità dei due aspetti:
se un esperimento permette di osservare un aspetto di un fenomeno fisico, esso impedisce, al tempo stesso di osservare l’aspetto complementare dello stesso fenomeno.
Quindi il punto di vista “quantistico” è più radicale del pragmatismo dei positivisti logici, i quali sosterrebbero che è senza significato parlare di grandezze che non possono essere misurate. La complementarità asserisce che non è solo privo di significato affermare di conoscere simultaneamente gli esatti valori di velocità e posizione: queste grandezze non esistono!!! E fu proprio Bohr ad elevare il concetto di complementarità a significato filosofico più ampio. Coppie complementari erano: libero arbitrio e determinismo, vitalismo e meccanicismo, causalità e spazio-tempo, vita e descrizione scientifica, ……. (in alcune delle coppie riportate si sente l’influsso delle convinzioni del padre di Bohr, che era un fisiologo).
In definitiva risulta che le leggi della meccanica quantistica, esattamente deterministiche, governano un substrato del mondo che non è per noi direttamente accessibile perché inosservabile. Ciò che è invece osservabile può essere predetto solo probabilisticamente. Al crescere degli oggetti presi in considerazione, le relative lunghezze d’onda di De Broglie diventano più piccole, essi sono più localizzati intorno al valor medio e quindi sono descritti con accuratezza crescente dalla meccanica classica, cosicché i valori medi delle osservazioni quantistiche risultano obbedire alle leggi classiche del moto.
LA CONDUZIONE (Block 1928; Kronig e Penney 1930)
Uno dei fenomeni che non aveva trovato alcuna spiegazione con la fisica “classica” era relativo alla conduzione elettrica:
– al crescere della temperatura un conduttore conduce sempre meno;
– al crescere della temperatura un isolante conduce sempre più.
Vi è poi una questione di fondo:
– perché un materiale conduce elettricità ed un altro no?
Mediante i quanti venne sviluppata la teoria delle bande di energia (una sorta di estensione dell’atomo di Bohr ad un intero cristallo – si veda l’articolo relativo nel sito) con la quale emersero con chiarezza spiegazioni alle due questioni suddette. Ma non basta. La teoria era particolarmente buona perché, oltre a spiegare, dava previsioni e, in particolare, quella di materiali semiconduttori.
LA FISICA NUCLEARE
Nel 1932 iniziò l’impetuoso sviluppo della fisica nucleare (con determinanti contributi di Fermi e della Scuola di Roma in cui ebbero un ruolo fondamentale Amaldi e Rasetti, contrariamente a quanto dice l’ignorante Zichichi). Tale sviluppo sarebbe stato impossibile senza la fisica dei quanti (si veda l’articolo su Fermi e la Scuola di Roma nel sito).
EFFETTO TUNNEL (Wilson 1932)
Tale fenomeno ha luogo in: particolari semiconduttori, transistor, lamine superconduttrici, microscopia elettronica,…… Tento una rapida descrizione del fenomeno.
Supponiamo di avere un recipiente contenitore (bicchiere, tazza, …) ed una pallina. Secondo la visione classica si possono avere solo i due casi di figura 31.

fig. 31
– nel primo caso la pallina è dentro il contenitore;
– nel secondo caso la pallina è fuori il contenitore.
Secondo la visione quantistica, la “barriera” rappresentata dalle pareti del contenitore diventa una barriera di potenziale che ha una qualche probabilità di essere perforata (tunnel):

fig. 32
La barriera in nero è una barriera di energia mentre la curva in rosso rappresenta la probabilità di trovare la pallina in un dato luogo. Riferendoci al secondo caso visto precedentemente, la massima probabilità di trovare la pallina è ora dentro la buca di energia ma vi è una probabilità non nulla di averla fuori. La pallina è simultaneamente dentro e fuori. Una volta localizzata sparisce la curva di probabilità (principio di complementarità) e se la trovassimo fuori dalla barriera è come se avesse attraversato un tunnel:

fig. 33
A parte ogni altra considerazione, nasce un problema legato ai tempi di transito attraverso la barriera: la pallina/particella che attraversa la barriera sembra farlo in tempi inferiori a quello che impiegherebbe una particella che non deve attraversare alcuna barriera. Sembrerebbe che si abbia a che fare con un viaggio indietro nel tempo (e le fluttuazioni, a livello macroscopico, non escludono un tale evento – vedi l’Appendice alla Relatività su Le fluttuazioni -). Si viola la relatività? Il discorso sarebbe complesso ed esula da quanto mi sono proposto. Ma chi fosse interessato può trovare una discussione del problema in David Bohm, Wholeness and the implicate order, Routledge & Keagan Paul Ltd 1980 oppure, in modo più semplice, in A. M. Steinberg, P. G. Kwait e R. Y. Chiao in Più veloce della luce ? – Le Scienze n° 302, Ottobre 1993 (pagg. 20-28). In ogni caso, tornare indietro nel tempo significherebbe andare a velocità superiori a quelle della luce. Il fatto è che tali velocità non sono mai state misurate e, finché non lo saranno, non vi è alcuna violazione della Relatività. E’ comunque di interesse riportare due illustrazioni dall’articolo di Le Scienze citato:

fig. 34
In questa figura si vede Alice (nel Paese delle meraviglie di Lewis Carrol) che colpisce dei porcospini con un fenicottero, mandandoli ad urtare contro un muro. I porcospini hanno il viso di Heisenberg. Uno di essi attraversa la barriera e resta stupito osservando il suo orologio di fronte all’altro personaggio stupito, coniglio-Einstein.

fig. 35
In quest’altra figura è rappresentato proprio il momento del passaggio di Alice al di là dello specchio. Si noti che l’orologio è “attivo” mentre Alice è ancora “al di qua”, mentre diventa una sorta di clown quando Alice è passata “al di là”.
ANCORA INTERFERENZA
Una attenta discussione dell’interferenza delle particelle porta a considerare un paradosso.

fig.36
Supponiamo di ridurre l’intensità della sorgente in modo che un solo fotone per volta passi attraverso le fenditure (più corretto sembrerebbe il dire la fenditura). Dopo un certo tempo, sullo schermo, si ridisegna la classica figura di interferenza (zone chiare alternate a zone buie). Il paradosso sta nel fatto che ciascun fotone potrà passare solo attraverso una fenditura e non va ad interferire con nessun altro fotone: eppure dopo un poco di tempo c’è interferenza sullo schermo. Un fotone singolo scegliendo una fenditura obbedisce ad una legge statistica conveniente che si realizza solo se esso sa se l’altra fenditura è aperta o chiusa. E’ l’interferenza tra probabilità che origina la figura sullo schermo.
Si supponga ora che vi siano solo due possibilità:
– la particella passa per la fenditura 1 (Universo A)
– la particella passa per la fenditura 2 (universo B).
Ciascuna di queste due possibilità è, secondo Bohr, rappresentativa di un Universo differente. In un mondo la particella passa per la fenditura 1; in un altro mondo essa passa per la fenditura 2. Il mondo reale, quello dell’esperienza, è un mondo completamente diverso da questi mondi semplici. Il mondo reale è un miscuglio di ibrido di questi due mondi semplici possibili ed ogni mondo interferisce con l’altro. Se si potesse osservare attraverso quale fenditura passa la particella si eliminerebbe un mondo scegliendone uno solo: la particella risulterebbe localizzata, non vi sarebbe più interferenza. La situazione dell’esperienza è quindi descritta dalla sovrapposizione di due stati: particella in 1 che rappresentiamo così |P1> e particella in 2 che rappresentiamo allo stesso modo |P2>. Tale sovrapposizione è la funzione d’onda Ψ (t) che avrà la seguente forma (0,707 |A> è un fattore di normalizzazione):
|Ψ (t) > ~ 0,707 |A> ( |P1> + |P2> ).
E’ la nostra osservazione che, eventualmente, elimina una possibilità e quindi l’interferenza (riducendo di conseguenza la funzione d’onda).
E’ facile rendersi conto che nascono molti problemi su cosa sia la realtà ed addirittura il problema dell’esistenza della realtà. La questione venne fuori in tutta la sua drammaticità nel Congresso Solvay di Copenaghen (1927). Lì si scontrarono due schieramenti di fisici:
– Bohr, Born, Heisenberg, Dirac, Pauli, Jordan (la cosiddetta Scuola di Copenaghen);
– Einstein, De Broglie, Schrödinger, Planck, Erenfest, Lorentz, Laue.
Le questioni sul tappeto sono riassumibili in una domanda di base:
esiste una realtà indipendentemente dalle nostre osservazioni?
A tale domanda le risposte possibili sono almeno tre:
1) SI (punto di vista realista o metafisico-ontologico)
2) NO (punto di vista idealista)
3) LA QUESTIONE NON HA SENSO (punto di vista agnostico o operativista).
La fisica newtoniana è consistente con tutti e tre i punti di vista ora accennati. Non obbliga ad un punto di vista particolare. E ciò non significa che la fisica è più generale della metafisica ma solo che la fisica dei quanti impone una scelta tra i tre punti di vista limitando le nostre libertà metafisiche. La Scuola di Copenaghen scelse il 3° punto di vista: accettò come fondamentale il concetto di quanto, bandì dalla teoria tutte le grandezze non osservabili e rinunciò al determinismo. Le leggi probabilistiche della fisica dei quanti furono considerate come una realtà definitiva ed il principio di Heisenberg fu assunto a prova di un determinismo fondamentale nelle leggi della natura.
Ma si andò anche oltre.
Non ci si limitò a dire che non è possibile conoscere simultaneamente posizione e velocità di una particella; si affermò addirittura che in generale una particella non ha né una posizione né una velocità ben determinate. La particella è diffusa in tutta l’onda e quindi si trova, con maggiore o minore probabilità, contemporaneamente in tutta l’onda. La particella ha contemporaneamente, con diverse probabilità, diverse velocità.
Gli altri furono sconfitti. Fu soprattutto Einstein che per anni tentò di ribattere e di portare argomenti a sostegno delle tesi opposte a quelle che vinsero.
Ma vediamo in modo didascalico le differenze esistenti tra le varie interpretazioni della fisica quantistica riferendoci ai vari punti di vista cui abbiamo accennato.

fig. 37.
La prima colonna di fig. 37 raffigura un pescatore che ha a che fare con un mondo classico, mondo che diventa quantistico nella seconda colonna. Nella fig. 38 si hanno diverse interpretazioni quantistiche del mondo quantistico.

fig. 38
E qui ancora si discute ….. Il punto di vista operazionista prevede invece che queste discussioni fanno perdere tempo (si tratta del portato diretto dell’efficientismo nel mondo della ricerca scientifica). E si potrebbe continuare. Se il pescatore rigetta il pesce in acqua esso ritorna ad essere indeterminato. Ed accade anche che due pesci, due eventi, rigettati in acqua, originano un solo evento indeterminato (fig. 39).

fig. 39
Ma vediamo le cose come furono presentate da alcuni fisici di primo piano.
IL GATTO DI SCHRÖDINGER (1935)
Un gatto viene posto in una scatola chiusa ed isolata visivamente ed acusticamente. Dentro la scatola vi è un fucile con un meccanismo di sparo automatico attivato da fotoni che entrano in O.

fig. 40
Tali fotoni, a seguito dello specchio semitrasprente M, possono al 50% far sparare il fucile o no. Dopo, diciamo, qualche minuto possiamo chiederci se il gatto è vivo |G.V.> o se il gatto è morto |G.M.>. Il punto di vista realista ci farebbe dire:
“il gatto o è vivo o è morto quando non lo osserviamo”.
La fisica dei quanti ci dice invece che il gatto è simultaneamente vivo e morto. E’ la nostra curiosità, la voglia di aprire la scatola e di vedere che, eventualmente, lo uccide. La funzione d’onda che descrive il sistema è una sovrapposizione di gatto vivo e gatto morto:
|Ψ (t) > ~ 0,707 |A> ( |G.V.> + |G.M.> ).
Per superare la difficoltà bisogna rinunciare all’assunto metafisico che il gatto o è vivo o è morto. Da questo punto di vista occorrerebbe dire o che il gatto non esiste quando non è osservato o che la questione della sua esistenza non può essere posta. Come si vede e come annunciato, la fisica quantistica limita la nostra libertà metafisica.
IL PARADOSSO EINSTEIN – PODOLSKY – ROSEN (EPR 1935)
Di tale paradosso esistono varie versioni. Vediamone un paio. Supponiamo di disporre di una particella (che abbia spin uguale a zero) che decada in due particelle che si muovono in direzioni opposte alla stessa velocità in modulo (nell’esempio fatto in fig. 41 abbiamo un pione positivo che si disintegra in un muone positivo ed in un neutrino muonico):

fig. 41
Se, dopo un certo tempo, misuriamo la posizione di una delle due particelle con una qualche precisione, abbiamo determinato anche la posizione della seconda che deve trovarsi alla stessa distanza dalla sorgente. Oppure si potrebbe decidere di misurare la traiettoria di una delle due, ricavando immediatamente quella della seconda. Perciò, secondo EPR, se, eseguendo una misura sulla particella 1, posso determinare con una precisione a piacere la posizione della particella 2 (senza operare direttamente su di essa) devo concludere che la posizione della particella 2 è un elemento di realtà fisica che posso accertare senza disturbare la particella stessa (analogamente per la traiettoria).
Vediamo ora un’altra versione (D. Bohm, 1951). Supponiamo di avere ancora un pione, questa volta il π° (pai zero), quello privo di carica. Esso ha spin zero e lo spin è una quantità che si conserva. Il π° decade in un elettrone (e– ) ed un positone (e+) che schizzeranno via da parti opposte come mostrato in figura 41 (basta cambiare i simboli che denotano le particelle). Per la conservazione dello spin cui accennavo, una misura simultanea degli spin di e– ed e+ deve dare + 1/2 per una particella (ad esempio e+) e – 1/2 per l’altra. Consideriamo ora la situazione sperimentale mostrata in figura 42.

fig. 42
E’ mostrato il pai zero che decade come detto con degli strumenti. Ax e Bx sono due contatori mentre, ad esempio, Cy è un campo magnetico (che ha la proprietà di far ruotare, e quindi cambiare di segno, lo spin). In tal modo lo spin di e– diventa + 1/2. Che succede dello spin di e+ ? Esso dovrebbe essere diventato – 1/2 per rispettare la conservazione dello spin. Ma per saperlo dobbiamo misurare. E quando misuriamo non sappiamo più se lo spin era già cambiato o se lo abbiamo cambiato noi con la misura. Secondo la fisica quantistica operare su e– significa operare sull’intero sistema e non sono valide assunzioni realiste (metafisiche, del tipo quando e+ ha lasciato il contatore Ax prosegue non perturbato in alcun modo, poiché significherebbe ammettere l’esistenza di e+ indipendentemente dall’osservazione. Secondo la Scuola di Copenaghen occorre abbandonare l’atteggiamento realista con tutte le implicazioni filosofiche che ciò comporta. Se poi disponessimo del solo contatore Bx e trovassimo per e– un valore – 1/2 di spin, dovremmo concludere, assumendo una posizione realista, che lo spin di e+ vale + 1/2 già prima dell’operazione di misura. Ma ciò è ancora negato dall’interpretazione della Scuola di Copenaghen.
Vediamo ora il paradosso EPR rappresentato con delle figure (laghetti e pesci):


fig. 43
Si gettano due pesci in uno stagno che può essere svuotato in due buche vicine. I pesci, al solito, risultano indeterminati nell’acqua e tale indeterminazione si distribuisce tra i due nuovi stagni. Ma quando un pescatore prende un pesce, anche se l’altro non sta pescando ……gli salta fuori un pesce.
Discutiamo ora un poco l’EPR nella versione di Bohm del 1951 (Bohm ha lavorato su questi problemi dal 1951 al 1980) in cui si sostituiscono le variabili originali (posizione e velocità) con quelle di spin. In questa prima versione si introduce un potenziale quantistico come variabile nascosta. Questo potenziale aveva caratteristiche non-locali (era esattamente definito ed esente da fluttuazioni quantistiche) ed aveva il compito di riunire in sé tutti gli aspetti non classici della teoria dei quanti. Esso non trasporta energia e non si presta ad essere rivelato, però le particelle subiscono i suoi effetti e si servono di esso per comunicare tra loro: la misura effettuata su una particella modifica istantaneamente il potenziale che agisce sull’altra e da ciò deriva la correlazione tra i risultati delle misure. La teoria di Bohm è detta delle variabili nascoste: le misure che noi eseguiamo sembrano seguire leggi probabilistiche solo perché ignoriamo certe proprietà nascoste delle cose che misuriamo.
Questa prima versione della teoria di Bohm fu subito messa in discussione in quanto la relatività impedisce di considerare azioni istantanee a distanza. Il problema era spostato pesantemente altrove. Nel 1980 Bohm fornì una versione delle variabili nascoste che teneva conto delle importanti critiche che erano state rivolte ai suoi lavori del 1951 (soprattutto da parte di Von Neumann). Il livello della realtà nella quale le particelle sembrano essere separate – il livello nel quale viviamo – è chiamato da Bohm ordine esplicito. Il substrato più profondo della realtà, il livello nel quale la separazione tra le particelle scompare e tutte le cose sembrano diventare una parte di un tutto senza discontinuità, è chiamato da Bohm ordine implicito.
Come possono dei segnali andare più veloci della luce?
(in proposito vedi: Relatività, alcune verifiche sperimentali )
Se osserviamo su due televisori l’immagine di un pesce in un acquario inviatoci da due telecamere A e B (una disposta di fronte, l’altra di fianco rispetto all’acquario) possiamo supporre che si tratti di due pesci

fig. 44
differenti che in alcun modo si comunicano informazioni istantaneamente, anche se le cose non stanno così. Il fatto è che ad un livello più profondo della realtà, quello dell’acquario, i due pesci non sono due entità effettivamente separate. E’ grosso modo ciò che osserviamo quando misuriamo le correlazioni tra le due particelle di EPR. I due televisori rappresentano l’ordine esplicito mentre il pesce nell’acquario rappresenta il livello di realtà dell’ordine implicito. Vi è anche un’ulteriore considerazione: i due schermi TV ci forniscono immagini bidimensionali di una realtà tridimensionale; stesse situazioni, con numero diverso di dimensioni, possono realizzarsi nel mondo subatomico.
Un’altra esemplificazione che fa Bohm è quella dell’ologramma. Un pezzo di una foto

fig. 45
tradizionale, osservata come vogliamo, non ci dice nulla su cosa rappresenta l’intera foto. Un pezzo di un ologramma osservato con luce laser ridà sempre l’immagine dell’intero ologramma (ogni parte dell’ologramma contiene informazioni sull’intero ologramma; allo stesso modo ogni regione dello spaziotempo, per piccola che sia, contiene informazioni sull’ordine implicito dell’intero universo). [Si deve osservare che, ora, la trattazione della teoria di Bohm è fatta tenendo conto delle fluttuazioni quantiche e della quantizzazione dell’azione].
A questo punto mi permetto una piccola libertà: l’irradiato di Renzetti (1998).

fig. 46 – Basta spegnere il geiger per evitare di essere irradiati.
[Sull’EPR si può vedere un articolo di A. Loinger su Il Nuovo Saggiatore, cliccando qui].
BELL E ASPECT (1964 – 1982)
Nel 1964 il fisico irlandese J. Bell riuscì a costruire una disuguaglianza (derivante da semplici regole algebriche) secondo la quale un determinato esperimento con decadimento di particelle e 4 rivelatori avrebbe dovuto fornire un risultato X compreso tra – 2 e + 2 (nella visione realista EPR). Bell sapeva che la fisica quantistica (Scuola di Copenaghen) diceva che questo risultato doveva essere compreso tra (circa) – 3 e + 3:
– visione realista => – 2 ≤ X ≤ + 2
– visione di Copenaghen => – 3 ≤ X ≤ + 3.
Ma Bell non riuscì a realizzare l’apparato sperimentale. Un esperimento in tal senso fu proposto nel 1975 e realizzato nel 1982 da Alain Aspect dell’Università di Parigi Sud. I risultati di tale esperimento hanno mostrato che la natura non obbedisce al teorema di Bell (dettagli divulgativi sull’esperienza di Aspect si possono trovare su: S. Ortoli, J. P. Pharabod – Le cantique des quantiques – La Découverte, Parigi 1984.). E ciò vuol dire non tanto che la meccanica quantistica è corretta quanto che la vecchia visione del mondo non funziona. A questo punto si possono avere almeno 4 possibilità:
La regolazione dei 4 strumenti di misura di Aspect non sono indipendenti a causa di una intrinseca impossibilità. Conseguentemente, se le cose stanno così, ogni esperimento non può che dare un risultato già prevedibile dal momento del big-bang. Conseguentemente ogni affermazione relativa al libero arbitrio è priva di significato.
I rivelatori comunicano istantaneamente tra di loro i risultati delle loro misure. Ma se le cose stanno così allora risultano possibili azioni istantanee a distanza con violazione della relatività (ma abbiamo già osservato che le fluttuazioni e l’effetto tunnel sembrano prevedere fatti del genere).
E’ illegittimo speculare sulla natura della realtà fisica sottostante a questo esperimento. Finché possediamo una teoria che ci fornisce soluzioni che funzionano di cosa ci preoccupiamo ?
Vi sono delle onde che si propagano indietro nel tempo (interpretazione transazionale). All’istante del decadimento la funzione d’onda iniziale si suddivide in due funzioni d’onda una delle quali va avanti e l’altra indietro nel tempo. Le due particelle potrebbero allora comunicare tra loro (si veda punto 2).
Come si vede si risolve una cosa ed il mistero si sposta altrove. Si può quindi dire che, nonostante la confutazione da parte di Bell e Aspect di alcune delle questioni sollevate dall’EPR, i risultati empirici non hanno nulla da dire sul problema; non ci dicono se la completa e corretta teoria sottostante sia probabilistica (Bohr) o deterministica (Bohm). Entrambe le versioni funzionano e, dopo tutti questi sforzi ed analisi, ancora non abbiamo alcuna ragione quantitativa, empirica, per preferire l’una o l’altra. C’è comunque da osservare che Bell, nel ricavare la sua disuguaglianza, ha separato le due questioni che per Einstein dovevano essere inestricabilmente legate: la probabilità e una qualche interconnessione fisica tra le due particelle separate a grande distanza. Aspect ha invece mostrato che questa qualche interconnessione istantanea fa parte della natura, indipendentemente dall’accettazione o meno della fisica quantistica.
Rimane il problema del rivelatore. Se lo descriviamo usando un linguaggio quantistico – si dovrebbe poter fare se effettivamente la fisica quantistica è fondamentale ed universale – allora gli stati indefiniti generano misurazioni indefinite. Nascono allora due possibilità:
o la fisica quantistica è incompleta e si deve aggiungere ad essa una qualche altra teoria che spieghi come si fanno le misure (Selleri propone di elaborare e sviluppare le teorie di Bohm e delle variabili nascoste).
o la fisica quantistica contiene dentro di sé una qualche ricetta, fino ad ora non chiarita, in grado di trasformare in qualche modo uno stato indefinito in uno stato definito (nessuno lavora su tale aspetto).
Il problema della fisica quantistica e la ragione per cui vi sono interpretazioni è che , nonostante decenni di successi pratici della teoria, i fisici non possono ancora sinceramente dire di sapere quale sia il suo significato; essi non riescono, per così dire, a vedere i meccanismi interni della teoria.
Dice Richard Feynman: ” Non possiamo spiegare il mistero nel senso di spiegare come funzioni. Ti diremo solo come funziona. Dicendoti come funziona ti avremo parlato delle peculiarità basilari della meccanica quantistica”.
Ed un tal Samuel Johnson: “Signore, ho trovato per lei una spiegazione, ma non sono obbligato a trovare per lei una comprensione”.
[Sui paradossi della Scuola di Copenhagen si può vedere l’articolo di A. Orefice e R. Giovanelli, Attualità dei paradossi di Copenhagen su Il Nuovo Saggiatore cliccando qui].
ANCORA SULLA MISURA
Iniziamo con il dire che è fuorviante affermare che la misura modifica la cosa misurata perché questa affermazione sembra implicare che un oggetto quantistico si trovi in un qualche stato definito ma ignoto, stato successivamente disturbato da un atto di misura. La misura conferisce determinazione a quantità precedentemente indefinite. L’allievo di Bohr, J. Wheeler sostiene: Nessun fenomeno elementare è un vero fenomeno finché non è misurato.
Il mondo si trova così suddiviso in due classi di oggetti fisici: cose che misuriamo e cose con cui misuriamo. Le cose che misuriamo sono incerte, indefinite, sfocate fino a quando non vengono misurate. Le cose con cui misuriamo esistono sempre in stati definiti: un rivelatore di particelle o le rivela o non le rivela, senza ambiguità. E qui nasce l’incoerenza fatale all’interpretazione di Copenaghen della fisica quantistica. Un dispositivo classico dovrebbe darci risultati privi di ambiguità su un esperimento quantistico. La misura di un fenomeno quantistico non è mai stata definita (e tantomeno spiegata) mediante strumenti quantistici. La misurazione non viene giustificata ma solo affermata. Bohr sapeva ciò e all’obiezione rispondeva con una non risposta: i fisici sanno come misurare le cose. Infatti i fisici hanno sempre misurato come prima dell’introduzione della fisica dei quanti (insomma i fisici capiscono la misurazione come gli avvocati la pornografia e le persone incolte l’arte: non sanno definirla ma sanno cos’è). E Bohr si affidò a questa vecchia capacità dei fisici.
Per quel che riguarda l’infelice gattino di Schrödinger c’è da dire che l’interpretazione rigorosa della Scuola di Copenaghen (principio di complementarità) prevede che è inutile aprire la scatola per vedere come stanno le cose perché il gatto è per metà vivo e per metà morto, stato che non potremo mai osservare. Se poi insistessimo e vgliamo proprio osservare il problema diventa psicologico: quando ? come ? perché ?
Affrontiamo il gatto nei due modi possibili:
1. Gli strumenti funzionano e sono attendibili. Il meccanismo che al 50% genera lo sparo è comandato da particelle che o colpiscono da una parte o colpiscono dall’altra. Per esse non è prevista una situazione indefinita. La vita o la morte del gatto è solo questione di tempo: si apre la scatola e si va a vedere. E’ tutto facile come lanciare una moneta per vedere se viene testa o croce ma la moneta va a finire sotto l’armadio: si tratta di spostare l’armadio per vedere. Solo che non spieghiamo l’efficacia del dispositivo di misura. Se abbiamo comunque fiducia in misure siffatte possiamo pure lasciare in pace il gatto. Ma ciò equivale a dire che la fisica quantistica è una teoria eccellente, dettagliata e completa, ma che occorre una bacchetta magica per darle un senso.
·
2. Le misurazioni diventano reali solo quando uno ne prende nota. Qui ci addentriamo nel paludismo filosofico. Wigner ha proposto questa variante all’esperimento del gatto: dopo un certo tempo la scatola viene aperta da un amico che non comunica cosa ha visto allo stesso Wigner. Lo stato è determinato per l’amico e non lo è per Wigner ? Un evento per alcuni è determinato e per altri no ? Più amici, più osservazioni, più determinazioni, mondi diversi ? A questo punto il rompicapo si ribalta: se l’esistenza di fatti dipende, per me, dalla mia coscienza e, per te, dalla tua, come mai concordiamo su tante cose ? Come mai la fondamentale indeterminazione quantistica del mondo svanisce, a quanto pare, quando ci occupiamo di oggetti quotidiani ? Insomma sembra che la scomparsa dell’indeterminatezza quantistica abbia poco a che fare con la mia osservazione del mondo, o con la tua, o con quella di chiunque altro. Anche qui il problema risulta spostato altrove.
FISICA QUANTISTICA E METAFISICA
La fisica quantistica impone un cambiamento delle nostre idee sulla realtà oggettiva. Un cambiamento fondamentale è l’abbandono di un’analisi del mondo in termini di parti relativamente autonome che esistono separatamente seppure interagenti. L’enfasi principale è ora posta sull’integrità indivisibile con cui gli strumenti di osservazione non si possono separare da ciò che si osserva. La divisione comune del mondo tra soggetto ed oggetto, mondo interno e mondo esterno, corpo e anima non è più adeguata (Heisenberg). Come si può risolvere il paradosso circolare implicito nel fatto che il mondo macroscopico determini la realtà microscopica dalla quale a sua volta è formato ? Ci scontriamo con questo paradosso ogni volta che eseguiamo misure quantistiche. Si deve inoltre tener conto del fatto che se abbiamo due particelle lontane caratterizzate ciascuna dalla propria funzione d’onda, dal momento che esse cominciano ad interagire, anche se si allontanano di nuovo successivamente, dovranno sempre essere trattate con un’unica funzione d’onda.
Everett (1957) ha proposto una interpretazione quantistica basata su universi molteplici. Ogni mondo possibile diventa reale e tutti i mondi alternativi esistono in parallelo. Questa molteplicità di mondi si estende alle scelte dell’uomo. Supponiamo di dover scegliere vino o birra. Secondo Everett, l’universo si divide immediatamente in due rami. In uno dei rami prendiamo il vino e nell’altro la birra. In questo modo

fig. 47 – Disegno che molto lontanamente vuole rappresentare gli universi molteplici.
tutti felici! Il libero arbitrio ne risente un poco: noi volevamo o vino o birra, non vino e birra. Ma il noi qui deve essere suddiviso in due io, ciascuno dei quali sta in un un universo differente e prova desideri e sensazioni diverse. Così, in nome di una esigenza di misura si introduce la metafisica ai livelli più spinti. Il fisico americano Fritjof Capra nel suo Il Tao della fisica individua nell’indistinguibilità tra osservatore (mondo interno) ed osservato (mondo esterno) ciò che da secoli è la filosofia tibetana: nessuna separazione tra i due mondi. E cosa c’è di meglio del dualismo onda-corpuscolo per rappresentarci il dualismo anima-corpo? Poi arrivano i superscemi come il cattolico francescano Talbot che dimostra matematicamente l’esistenza di Dio attraverso i quanti (Beyond the quantum – 1986) e già c’è chi giustifica il paranormale (addirittura i cerchi nel grano sono originati dalle vibrazioni quantistiche – sic! -) e tenta una prova biochimica dell’esistenza dell’anima (in Italia abbiamo avuto Enrico Medi che ha dimostrato la verginità della Madonna con la termodinamica e Zichichi che ha mostrato tante altre cose).
Ma vediamo alcune estrapolazioni che, negli anni, vennero fatte, da varie personalità scientifiche e non a proposito dei quanti.
ESEMPLIFICAZIONI IDEALISTE
La meccanica quantistica sancisce il definitivo fallimento della causalità (Heisenberg 1927)
Se mi si chiede: cos’è la materia ? Rispondo: un insieme di equazioni differenziali (Heisenberg 1933)
Le nuove concezioni che sono sorte dalle esperienze fisiche quantistiche e dalla loro elaborazione teoretica, significano la liquidazione dell’immagine materialistica del mondo … L’atomo …, sprovvisto di tutte le qualità sensibili, è soltanto caratterizzabile con uno schema di formule matematiche, … è solo un concetto accessorio (Jordan 1936)
La dogmatica concezione materialista del mondo non può andare d’accordo con il positivismo dovuto al fatto che la prima è la rappresentazione di una forma particolare di insegnamento metafisico ed ascientifico … La concezione positivista ci offre nuove possibilità per far posto alla religione, senza entrare in contraddizione con il pensiero scientifico (Jordan 1944)
E’ l’interazione finita tra l’oggetto e gli strumenti di misura conseguenza immediata del quanto d’azione e ciò impone la necessità di rinunciare definitivamente all’ideale classico di causalità e di rivedere a fondo il nostro atteggiamento di fronte al problema della realtà fisica (Bohr 1949)
La fisica atomica ha voltato le spalle alla tendenza materialista che ha avuto la scienza nel secolo XIX (Heisenberg 1959)
L’affermazione della concezione determinista della natura secondo la quale Dio è rimasto senza lavoro … ha perso ora il suo fondamento … e, nell’innumerevole quantità di risultati sempre nuovi ed indeterminati si può vedere l’azione, la volontà, la potenza di Dio (Jordan 1963)
Per tutto ciò che sappiamo di fisica e biologia sull’indeterminazione, è certo che scientificamente ora non si può più rifiutare la possibilità logica di affermare il libero arbitrio (Jordan 1963)
Dobbiamo rivedere le nostre idee sulla causalità. La relazione causale si applica solo a sistemi che non siano stati alterati … Hanno significato reale solo le domande relative ai risultati degli esperimenti … (Dirac 1964)
Il concetto di oggetto materiale, di costituzione e natura indipendenti dall’osservatore, è estraneo alla fisica moderna la quale, obbligata dai fatti, ha dovuto rinunciare a questa astrazione (Pauli 1964)
Altre operazioni fatte da Jordan e di seguito riassunte:
- la mancanza di causalità è alla base del libero arbitrio
- la mancanza di causalità è alla base del vitalismo
- la mancanza di causalità è alla base della percezione extrasensoriale
- la fisica quantistica è un sostegno alle teorie di Freud (analoga operazione fece Pauli con Jung)
I teologi si affrettarono ad accettare il principio di indeterminazione come prova dell’indeterminismo e videro in quest’ultimo la base della libertà personale e della responsabilità morale. Il teologo Bavink fece notare l’accordo tra le idee e la politica di Hitler da un lato e le conseguenze antimaterialistiche, cioè idealistiche, vitalistiche ed anticomunistiche della nuova fisica dall’altro lato (citato da Jordan – 1936 – e da Heilbron – 1987 -). Osservo a margine che Heisenberg e Jordan furono due tra i pochissimi fisici della grande scuola tedesca che aderirono al Nazismo.
ESEMPLIFICAZIONI REALISTE
Una teoria fisica non può dipendere dall’abilità degli sperimentatori. Ciò introduce un elemento antropomorfo e quindi innaturale e porta ad un’inaccettabile limitazione della libertà di pensiero ed una mutilazione del principale strumento con cui deve lavorare il teorico (Planck 1927) [in relazione a quanto sosterrà Popper nella prima edizione della Logica della Scoperta Scientifica si ricordi che Planck, sei anni prima – 1929 – , considerò la realtà divisa in tre mondi: quello dei sensi, quello reale e quello fisico].
Questi indeterministi, con il loro antico peccato positivista, confondono ancora il mondo sensoriale con l’immagine del mondo e si sentono autorizzati a concluderne che l’esame dei fenomeni porta necessariamente all’abbandono del principio di causalità (Planck 1933) …
… potranno discenderne, e non solo nell’ambito della fisica, conseguenze davvero pericolose (Planck 1929)
La convinzione che esista un mondo esterno, indipendentemente dal soggetto che lo percepisce, è la base di tutta la scienza naturale. Poiché, però, la percezione sensoriale ci fornisce solo una informazione indiretta su questo mondo esterno, o “realtà fisica”, noi possiamo affermare quest’ultima solo con mezzi speculativi. Ne deriva che le nostre nozioni di realtà fisica non possono mai essere definitive (Einstein 1934)
Ogni elemento della realtà fisica deve avere una controparte nella teoria fisica (Einstein 1935)
Ogni esame serio di una teoria fisica deve tener conto della distinzione tra la realtà oggettiva, che è indipendente da qualsiasi teoria, ed i concetti fisici con i quali la teoria opera. Questi concetti sono intesi corrispondere alla realtà oggettiva e mediante questi concetti ci formiamo un’immagine di questa realtà (Einstein 1935)
Sembra difficile guardare le carte di Dio, ma neanche per un attimo posso credere che Egli giochi a dadi e faccia uso di mezzi “telepatici” (come la teoria quantistica corrente pretende che faccia (Einstein 1942)
[noto a margine che Einstein lavorò almeno fino al 1920 alla ricerca di una Teoria unificata dei campi dalla quale la Fisica dei quanti potesse essere dedotta come caso particolare].
L’idea di complementarità ha avuto molto successo e si sono fatti molti tentativi, nella maniera più pericolosa, di estrapolazione fuori della fisica, ad esempio, nella biologia, sociologia, psicologia, ecc. (De Broglie 1964)
Di fronte a fenomeni di interferenza e di diffrazione, un fisico senza una teoria preconcetta si vede obbligato a credere che si tratta della propagazione di onde reali, e non una semplice rappresentazione di una probabilità che solo esiste nella sua mente (De Broglie 1964)
I brani di Dirac che seguono mostrano che il fisico britannico cambiò opinione con il passare degli anni:
Mi sembra evidente che ancora non possediamo le leggi fondamentali della meccanica quantistica. Le leggi che stiamo studiando ora avranno bisogno di qualche modificazione importante prima di poter dire di possedere una teoria relativista. E’ molto probabile che questa modificazione … sia tanto drastica come la modificazione che portò dalla teoria delle orbite di Bohr fino alla meccanica quantistica attuale (Dirac, Roma 1974)
Penso che alla fine potrebbe accadere che fosse Einstein ad avere ragione, perché la forma attuale della meccanica quantistica non dovrebbe essere considerata come la forma definitiva. Ci sono grandi difficoltà … E’, per ora, la migliore teoria che possediamo però non credo che sopravviverà indefinitamente nel futuro. E credo sia molto probabile che da un momento all’altro si riesca a costruire una meccanica quantistica migliore, nella quale ritornerà il determinismo e giustificherà, pertanto, il punto di vista di Einstein (Dirac 1975)
La storia di un Einstein che con l’età diventa conservatore è, dopo lo studio dei suoi scritti, drammaticamente capovolta. Perché è proprio Bohr che viene fuori come il conservatore che non vuole (o non può) assistere al rovesciamento del sistema dei concetti classici e quindi li difende ricorrendo a presunte necessità concettuali …, mentre, per quanto riguarda l’uso di concetti classici, il metodo analitico di Einstein è l’espressione di un grande senso critico, una mosca cocchiera che non veniva facilmente tacitata (A. Fine – The Shaky Game: Einstein, Realism and the Quantum Theory – The University Chicago Press, 1986, pag. 19).
BIBLIOGRAFIA
Riferendosi solo a testi divulgativi sulla fisica dei quanti ve ne sono ormai, a diverse dignità, centinaia. Io ne riporterò solo qualcuno che ritengo meritevole di attenzione:
A. Bandini Buti – I quanti di Planck (le molecole – la radiazione) – Ed. Delfino, Milano 1963
A. Bandini Buti – Meccanica ondulatoria e quantistica – Ed. Delfino, Milano 1962.
J. A. E. Silva, G. Lochak – Onde e corpuscoli – Il Saggiatore, Milano 1966
J.C. Polkinghorne – Il mondo dei quanti – Garzanti, Milano 1986
G. Gamow – Trent’anni che sconvolsero la fisica – Zanichelli, Bologna 1966
V. Ridnik – Qu’est-ce que la mécanique quantique? – Editions MIR, Mosca 1969
R. Gilmore – Alice nel paese dei quanti – Raffaello Cortina, Milano 1996
Riporto ora una bibliografia (certamente non esaustiva) sui problemi che la fisica quantistica pone:
L. I. Ponomarev – The quantum dice – MIR Publishers, Mosca 1988
D. Lindley – La luna di Einstein – Longanesi, Milano 1966
P. Nutricati – Oltre i paradossi della fisica moderna – Dedalo, Bari 1988
S. Petruccioli – Atomi, metafore, paradossi – Theoria, Roma – Napoli 1988
S. Ortoli, J. P. Pharabod – Le cantique des quantiques – La Découverte, París 1984
M. E. Omelyanovskij, V. A. Fock e altri – L’interpretazione materialistica della meccanica quantistica – Feltrinelli, Milano 1972
AA. VV. – Quanti e realtà – Sansoni, Firenze 1967
F. Capra – Il Tao della fisica – Adelphi, Milano 1982
M. Bunge – La causalità – Boringhieri, Torino 1970
M. Talbot – Beyond The Quantum – Bantam Books, Toronto 1986
I testi che seguono li fornisco nell’edizione spagnola che io ho studiato. Non lo faccio nella lingua originale perchè, in Spagna, non hanno la buona abitudine di riportare tutti i dati relativi all’edizione originale:
P.Forman – Cultura en Weimar, causalidad y teoría cuántica, 1918-192 – Alianza Universidad, Madrid 1984
J. M. Jauch – Sobre la realidad de lo cuantos – Alianza Universidad, Madrid 1985
A. Rae – Física cuántica. Ilusión o realidad ? – Alianza Universidad, Madrid 1986
J. S. Bell – Lo decible y lo indecible en mecánica cuántica – Alianza Universidad, Madrid 1990
F. Selleri – El debate de la teoría cuántica (con prefazione di Popper) – Alianza Universidad, Madrid 1986
F. Selleri – Física sin dogma – Alianza Universidad, Madrid 1984
D. Bohm – La totalidad y el orden implicado – Kairós, Barcelona 1988
J. Gribbin – En busca del gato de Schrödinger – Salvat, Barcelona 1986
I testi che seguono sono di coloro che hanno lavorato in prima persona all’elaborazione della fisica dei quanti:
M. Planck – Scienza, filosofia e religione – Fabbri, Milano 1973
M. Planck – La conoscenza del mondo fisico – Einaudi, Torino 1943
M. Planck – Autobiografia scientifica – Einaudi, Torino 1956
N. Bohr – Teoria dell’atomo e conoscenza umana – Boringhieri, Torino 1961
N. Bohr – Sui sentieri della vita – Boringhieri, Torino 1965
W. Heitler – Causalità e teleologia nelle scienze della natura – Boringhieri, Torino 1967
L. de Broglie – Sui sentieri della scienza – Boringhieri, Torino 1962
Heisenberg, Schrödinger, Born, Auger – Discussione sulla fisica moderna – Boringhieri, Torino 1959
W. Heisenberg – Natura e fisica moderna – Garzanti, Milano 1957
W. Heisenberg – Fisica e oltre – Boringhieri, Torino 1984
M. Planck – Initiations a la physique – Champs/Flammarion; París 1941
E. Schrödinger – Scienza e umanesimo. Cos’è la vita ? – Sansoni, Firenze 1970
Per inquadrare le cose di cui si parla è utile tenere presente almeno una storia della fisica dei quanti:
G. Tagliaferri – Storia della fisica quantistica – Franco Angeli, Milano 1985
ed un approfondimento di qualche suo aspetto:
AA. VV. – Contributi alla storia della meccanica quantistica – Domus Galileiana, Pisa 1976
Un’ottima discussione di varie questioni quantistiche si trova in:
AA.VV. – La fisica dei quanti – Le Scienze quaderni n° 33, Milano 1982
Categorie:Senza categoria
Rispondi