Fisicamente

di Roberto Renzetti

di Roberto Renzetti

ALLA PARTE II

PREMESSA

        E’ forse superfluo avvertire che gli argomenti che saranno trattati in questo articolo richiedono qualche prerequisito da parte del lettore. E’ per me impossibile trattare tutte le conoscenze di base occorrenti alla completa comprensione degli argomenti che svilupperò. Finché mi sarà possibile, in modo relativamente semplice, spiegherò ciò che occorre. Altre volte rimanderò ad argomenti che ho già trattato. Altre ancora semplificherò più di quanto non abbia fatto fino ad ora.

        Vi è una posizione filosofica di fondo dietro il fatto che io mi ostini a raccontare un poco di fisica. Credo che debbano essere sempre più le persone informate di ambiti di ricerca che costano, sono costati e costeranno e che intervengono pesantemente nella nostra vita quotidiana nel bene e nel male. Spesso si sente dire che la nostra è una società tecnologica dove la scienza la fa da padrona. Sarà pure vero ma di scienza i cittadini sanno ben poco e quindi sono costretti ad accettare ciò che gli dicono con fede addirittura ideologica.

        La scienza è complessa e per comprenderla occorre conoscere la matematica. Analogamente per la musica, come si fa a spiegare la conoscenza profonda ed il grande contenuto artistico di uno spartito ? Si può spiegare la musica senza ascoltarla ? E questa non conoscenza è un handicap enorme sia per chi dovrebbe capire, sia per chi dovrebbe riuscire a spiegare. Ma o si rompe questo muro o il futuro sarò fatto di una casta che ha il sapere ed un’altra che chiacchiera felice ed ignava. Naturalmente perché questi tentativi abbiano un minimo di successo servono le due figure: chi prova a raccontare e chi deve provare ad ascoltare che, ripeto, non è facile come leggere una boutade di Zichichi.

TERMODINAMICA E QUANTI

        La soluzione al problema del corpo nero era stata fornita da Planck nel dicembre del 1900(1). Il primo che riprese quella arrischiata soluzione di Planck fu Einstein nel 1905 quando scrisse la sua memoria, ormai famosa, Emissione e trasformazione della luce da un punto di vista euristico(2), in cui introduceva i quanti di luce per la spiegazione dell’effetto fotoelettrico che 25 anni prima aveva scoperto Hertz. Pian piano la concezione dell’energia quantizzata, di una energia che non si trasferisce più con continuità ma mediante tante piccole quantità hν (o 1hν, o 2hν, o 3hν, … e mai una frazione di essa), inizia da questo momento a farsi strada ed entrare nella interpretazione e spiegazione di una molteplicità di fenomeni che in qualche modo erano restati con teorie incomplete o insoddisfacenti. Ho appena detto che la quantizzazione era servita per la spiegazione del corpo nero e dell’effetto fotoelettrico, ebbene iniziava subito ad entrare anche nella spiegazione dei calori specifici, ancora con un lavoro di Einstein del 1907. Tra i vari problemi che andavano via via esplodendo a cavallo dei due secoli vi era infatti anche quello dei calori specifici delle sostanze.

        Nel 1819 due giovani fisici francesi, Pierre Louis Dulong (1785-1838) e Alexis Thérèse Petit (1791-1820), impegnati da tempo in lavori di termometria, misurarono i calori specifici(3) di una dozzina di metalli e dello zolfo trovando per tutti più o meno lo stesso valore (circa 6 cal/mol.°C). Le misure non restarono lì come mero fatto empirico. Ebbero anche una interpretazione, la seguente: Gli atomi di tutti i corpi semplici [gli elementi] hanno esattamente la stessa capacità termica. La suddetta legge non fu limitata ai corpi solidi, anzi fu generalmente intesa come valida per i gas, e solo in seguito, all’incirca dal 1830, fu ritenuta valida solo per i solidi. In ogni caso per lungo tempo la legge di Dulong e Petit fu ritenuta affidabile e con essa si ricavavano, nella chimica, i pesi atomici. Fu Amedeo Avogadro (1776-1856) il primo a mostrare nel 1833 che, nel caso del carbonio, si aveva una deviazione dalla legge di Dulong e Petit. Le misure di Avogadro non furono ritenute molto precise e sul medesimo carbonio si cimentarono i due fisici svizzeri, Auguste de la Rive (1801-1873) e François Marcet (1803-1883), che oltre al carbonio ebbero accesso con molta fatica ad un campione di diamante. Trovarono dei valori che si discostavano di molto dalla regola fornita da Dulong e Petit. I valori trovati dagli svizzeri (c ~ 1,6) furono migliorati dalle eccellenti misure di Regnault del 1841 che dette per il carbone il valore c ~ 1,8 e concluse che questo valore era una eccezione completa per i calori specifici ed i pesi atomici. Regnault lavorò ancora su queste misure almeno per altri 20 anni e trovò altre deviazioni dalla legge di Dulong e Petit ma nessuna così grande come quella del diamante. A questo punto siamo agli anni Settanta, quando le ricerche si spostarono a Berlino con i lavori del 1872 di Weber (1843-1912). Egli sottopose ad analisi severa tutto ciò che lo aveva preceduto sull’argomento e rifece le esperienze sul diamante trovando che erano corrette con un dettaglio fondamentale: sembrava che il calore specifico variasse con la temperatura infatti la differenza di valore trovato dagli svizzeri e dal francese sembrava dipendesse dal fatto che avevano lavorato a temperature differenti. Piccole variazioni di temperatura erano note per l’acqua fin dai lavori di Neumann del 1831, ma qui sembrava di essere di fronte ad una notevole dipendenza dalla temperatura. Fece le esperienze per il diamante in modo accurato su 20 valori di temperatura tra gli 0 ed i 200°C. La sua ipotesi era confermata, c variava di un fattore 3 in questa variazione di temperatura. Volle continuare ma ormai si era arrivati a marzo e non era più disponibile della neve per il suo calorimetro a ghiaccio. Nel 1875 Friedrich Weber (da non confondersi con Wilhelm che abbiamo incontrato su questioni elettromagnetiche) presentò i risultati di sue nuove misure non solo per il diamante ma anche per il boro, silicio e grafite e questa volta tra – 100°C e 1000°C. Tutte queste sostanze deviavano, ma era il diamante che continuava a dare risultati più sorprendenti rispetto alla legge di Dulong e Petit perché, in questo intervallo di temperature, il suo calore specifico variava di un fattore 15. La figura che spesso accompagna questa ricostruzione di quanto avvenne (compreso Einstein che fu sempre estremamente parco di figure) è proprio quella che costruì Weber(4) con i circoletti che sono le misure sperimentali per il diamante.

        Il primo a misurare calori specifici a basse temperature fu Dewar ed i suoi risultati, relativi ad un intervallo di temperature compreso tra 20 ed 85°K, furono pubblicati nel 1905(5). Dewar trovò per c un valore medio veramente molto basso, vicino a 0,05, e concluse la memoria affermando che sarebbe stato necessario indagare più a fondo i calori specifici a basse temperature.

        Vi erano quindi vari fatti sperimentali ma ancora nessuna interpretazione teorica. Da che parte cominciare ? Sul finire del’Ottocento vi era un acceso dibattito sulla termodinamica nella sua vertente probabilistica per la quale si batteva come un leone Boltzmann che era anche l’artefice di quel fondamentale teorema che era l’equipartizione dell’energia: l’energia cinetica media di un sistema termodinamico vale ½ kT per ogni grado di libertà del sistema stesso [vedi Appendice 1, dopo le Note]. Applicando le conseguenze del suo teorema ad un sistema di particelle contenute in un reticolo tridimensionale, Boltzmann nel 1876 mostrò che il calore specifico di tale sistema a volume costante (cv)(6), quello del reticolo cristallino, ha il valore di 3RT (con R costante dei gas). Facendo i conti si trova che 3RT ~ 6 cal/mole.°C che è proprio il valore che nel 1819 avevano calcolato Dulong e Petit. Una conferma teorica di quel lavoro a sessanta anni di distanza. Ora, come lo stesso Boltzmann scrisse, questo risultato è in buon accordo con i dati sperimentali di tutti i solidi con l’eccezione delle solite sostanze, tra cui il carbonio (cioè il diamante). Ed aggiungeva una possibile spiegazione secondo la quale ciò poteva dipendere dalla condizione di ammassamento delle particelle a basse temperature, condizione che avrebbe potuto dar loro meno gradi di libertà. Vi furono altre ricerche in tal senso ma non si arrivò ad ammettere l’inapplicabilità dell’equipartizione dell’energia a basse temperature, particolarmente nell’interpretazione del comportamento dei calori specifici dei gas. La spiegazione di questi problemi si può ritrovare in una lezione di Maxwell del 1875: Lo spettroscopio mostra che alcune molecole possono eseguire un gran numero di differenti vibrazioni. Esse devono quindi essere sistemi di un notevole grado di complessità, avendo molto più che sei variabili [il numero caratteristico per un corpo] … ogni variabile aggiuntiva aumenta il calore specifico …. ogni grado di complessità aggiuntivo che attribuiamo alla molecola può solo aumentare la difficoltà di riconciliare il calore specifico osservato con quello calcolato. Vi confesso che io ho incontrato grandi difficoltà nella teoria molecolare.

        Insomma, l’equipartizione dell’energia sembrava essere una spiegazione troppo semplicistica per spiegare i fenomeni atomici e molecolari. Ciò ridette fiato ai suoi critici ed in particolare a Raileigh e Kelvin. Ma la critica ora veniva, più che dai conservatori, da coloro che presentavano radicali innovazioni nelle teorie fisiche criticandone i fondamenti.

TERZO PRINCIPIO DELLA TERMODINAMICA

        A questo punto, da una strada completamente differente, interveniva sulla questione ed apparentemente in modo del tutto indiretto, il chimico Walther Nernst (1864-1941). Egli, in una memoria del 1906, Sul calcolo degli equilibri chimici a partire da misure di temperatura(7), propose una nuova ipotesi sul comportamento dei liquidi e dei solidi, intesi come sostanze chimicamente omogenee, allo zero assoluto. Occorre però fare attenzione e distinguere ciò che in origine sostenne Nernst dalla ultima versione delle sue idee. Sosteneva Nernst che le differenze di entropia fra le modificazioni di una stressa sostanza (ad esempio grafite e diamante nel caso del carbonio) tendono a zero quando la temperatura tende allo zero assoluto, indipendentemente dalla natura del corpo.

        Leggiamo qualche brano della memoria di Nernst:

Inoltre, se consideriamo la nostra formula fondamentale [che per Nernst può essere considerata come il riepilogo della vecchia termodinamica, ndr]:

[formula che oggi si scriverebbe:

dove ΔF è il massimo lavoro esterno che può essere ottenuto nella trasformazione considerata alla temperatura T che oggi si chiamerebbe l’energia libera di Helmholtz e Q è il massimo calore che si produce in quella stessa trasformazione. Si potrebbe anche scrivere Q = ΔU, con U = energia interna. Si noti che non viene introdotta l’entropia] e secondo il principio proposto da Berthelot, ΔF = Q a tutte le temperature, allora sia ΔF che Q devono essere indipendenti dalla temperatura. La costanza di Q richiederebbe l’esistenza di certe relazioni, già spiegate, tra i calori specifici delle sostanze che prendono parte alla reazione, ma gli esperimenti hanno mostrato che in generale queste relazioni non sono soddisfatte.
Cercando di trovare la relazione tra ΔF e Q si può vedere facilmente che ΔF non può essere calcolato da Q per mezzo delle due leggi della termodinamica, perché se

                                              ΔF = f(T)

fosse una soluzione della nostra formula fondamentale, allora

                                         ΔF = f(T) + a’ T

in cui a’ e una costante assolutamente indefinita, sarebbe pure una soluzione.
Siamo quindi giunti ai seguenti risultati che devono essere enunciati prima di cercare qualunque sviluppo ulteriore della teoria:

1. La relazione

ΔF = Q

è contraria ai risultati sperimentali, ed appare spesso illogica.

2. I princìpi della termodinamica non ci consentono di trovare una relazione tra ΔF e Q; cioè di calcolare l’equilibrio chimico dal calore di reazione. […]

Perciò, se si deve trovare una nuova legge della termodinamica, è chiaro dall’inizio che essa deve riguardare la suddetta costante di integrazione come il solo problema che rimane aperto.
Possiamo sperare di derivare una tale legge? Ho pensato a lungo che questa domanda avesse una risposta affermativa. Nelle diverse edizioni della mia Chimica teorica ho affermato che nel principio di Berthelot 
[secondo il quale ogni reazione chimica deve sempre procedere nella direzione in cui si ha la massima produzione di calore](7), anche se esso è sbagliato nella forma usata fino ad oggi, è nascosta una legge di natura, il cui ulteriore sviluppo sembra della massima importanza. Per procedere oltre è necessario trovare le condizioni sotto le quali il principio di Berthelot arriva più vicino ad esprimere la vera relazione tra l’energia chimica e il calore, o, il che è lo stesso, tra le grandezze ΔF e Q. In tal senso possiamo mostrare che nelle reazioni tra solidi, liquidi, o soluzioni concentrate i valori di ΔF e di Q si avvicinano molto tra loro, mentre d’altra parte, nelle soluzioni diluite e con i gas troviamo di solito grandi differenze tra le due quantità; ma in questi ultimi casi, come abbiamo già visto, il paragone  non  è  lecito  a  causa  della natura delle formule. […]. Ma anche nei casi sopra menzionati, non c’è dubbio che il principio dell’uguaglianza di ΔF e Q a temperature ordinarie, è ben lungi dall’essere una legge esatta. Non solo le differenze di ΔF e Q superano gli errori di misura, ma la considerazione dei processi fisico-chimici di fusione mostrano pure in modo clamoroso che ΔF e Q possono essere molto diversi, anche quando prendono parte alla trasformazione solo solidi e liquidi. Infatti al punto di fusione, ΔF è quasi esattamente zero, mentre Q, il calore latente di fusione, ha un valore considerevole. Un lungo studio di questa relazione negli anni passati mi ha condotto all’ipotesi che abbiamo a che fare con una legge più o meno approssimata alle temperature ordinarie, ma vera in prossimità dello zero assoluto.
Che ΔF e Q siano esattamente uguali allo zero assoluto è una conseguenza necessaria della formula fondamentale



      quando Q, e quindi anche ΔF, si suppone una funzione continua di T fino allo zero assoluto; ma ciò che voglio sottolineare è che ΔF e Q non sono solo uguali fra loro allo zero assoluto, ma i loro valori coincidono completamente anche nelle immediate vicinanze di questo punto. Graficamente, le curve per Q e  F non solo terminano nello stesso punto allo zero assoluto (curve I in fig.), ma sono anche tangenti fra loro (curve II).

Questo grafico ebbe una formalizzazione da parte dello stesso Nernst in un suo libro del 1926. Introducendo la nuova ipotesi che ΔF= ΔU per piccoli valori di T, si ha:

Fui molto sorpreso, nello sviluppare le conseguenze di quest’ipootesi, di trovare che essa contiene la soluzione del problema concernente le relazioni tra l’affinità chimica ΔF e il calore sviluppato Q. […] Non dobbiamo dimenticare che abbiamo a che fare con un’ipotesi che non possiamo verificare direttamente, perché non siamo in grado di misurare Q e ΔF a temperature prossime allo zero assoluto. È chiaro tuttavia che una conoscenza dei calori specifici fino allo zero assoluto ci consentirebbe di intraprendere una verifica accurata della nostra ipotesi, ma anche se questi valori non sono noti possiamo in molti casi estrapolare con sufficiente accuratezza per fornire una conferma adeguata. [ … ]

        Quanto affermato nelle conclusioni di Nernst non garantisce che l’entropia di una data sostanza tenda a zero e quindi non esclude che il calore specifico di tale sostanza sia diverso da zero allo zero assoluto (l’enunciato secondo il quale l’entropia in una reazione fra sostanze pure tende a zero per T tendente a zero, è successiva e di Planck). Egli valutò  in 1,5 cal/°K il calore specifico di una data sostanza allo zero assoluto. Ma non insisté su questo più di tanto perché, come abbiamo visto ammettere, non vi erano sufficienti misure di calori specifici a basse temperature. Per risolvere la questione iniziò, con i suoi collaboratori, un grande programma di ricerche sperimentali proprio sui calori specifici a basse temperature. Lavorò dove aveva lavorato Dewar con una precisione molto superiore e studiando una maggiore varietà di sostanze tra le quali era d’obbligo il diamante. I risultati di queste misure che mancavano per capire meglio il problema arrivarono nel 1910 quando vi era già stato un lavoro teorico di Einstein sull’argomento.

LA TEORIA DEL CALORE SPECIFICO DI EINSTEIN

        Nel 1907 Einstein, con la sua memoria La teoria della radiazione di Planck e la teoria del calore specifico(8), estese l’applicazione dei quanti dalla spiegazione dell’effetto fotoelettrico alla comprensione delle deviazioni dei calori specifici dalla legge di Dulong e Petit, considerando e gravi difficoltà che l’equipartizione dell’energia incontrava nel rendere conto dei fatti sperimentali. Ma, si faccia attenzione, il lavoro di Einstein trascende la mera applicazione di una nuova teoria ad un altro campo; esso è invece di un’importanza storica perché mostrò che la teoria dei quanti poteva spiegare fenomeni diversi dalla radiazione termica e, come nel caso dei calori specifici, l’interazione tra materia e radiazione. Si trattava di considerare le particelle costituenti la sostanza come degli oscillatori vibranti a determinate frequenze, quelle frequenze che compaiono nel quanto E = hν ed occorreva trovare una relazione che legasse quanti e temperatura. Questa relazione era esistente ed era proprio quella che Planck aveva trovato nel suo libro Lezioni sulla teoria della radiazione termica(9) del 1906 quando, su problemi diversi riguardanti scambi di energia tra materia e radiazione, aveva calcolato l’energia media di un oscillatore hertziano trovando:

che rappresentava un modo diverso di contare gli stati rispetto a come aveva operato Boltzmann (i gradi di libertà devono essere pesati e non contati come ebbe a dire successivamente Sommerfeld).

        Einstein fornì una semplice dimostrazione della relazione precedente partendo da altre premesse. Egli osservò che il risultato non corretto della spiegazione dei calori specifici tramite l’equipartizione dell’energia, discendeva dall’aver ammesso che celle uguali dello spazio delle fasi (spazio delle coordinate e delle quantità di moto) danno lo stesso contributo al calcolo dei valori medi. Aggiungendo però che non occorreva sbarazzarsi della teoria cinetico molecolare ma solo dare persi diversi ai contributi delle diverse celle nel calcolo dei valori medi. Ricavata in tal modo la relazione precedente, che era appunto la stessa che per via del tutto diversa aveva ricavato Planck, la utilizzò in sostituzione di quella fornita dall’equipartizione dell’energia:

per calcolare i calori specifici (a volume costante) delle sostanze facendo semplicemente la derivata rispetto alla temperatura assoluta dell’energia media:

moltiplicando il risultato per il numero di Avogadro e sommando su tutti i tipi di molecole del sistema. Trovò il seguente risultato:

ma qui Einstein, che aveva eliminato la semplificazione del considerare che celle uguali dello spazio delle fasi danno lo stesso contributo al calcolo dei valori medi, introduce ora due altre semplificazioni che egli stesso riconosce troppo spinte: da una parte che gli oscillatori di una data specie atomica abbiano tutti la stessa frequenza e dall’altra che tali frequenze siano indipendenti dalla temperatura. Si osservi che la relazione di Einstein ora scritta diventa quella di Dulong e Petit a temperature relativamente alte (dai 300°K) tali che T >> hν/k.

La curva teorica di Einstein a confronto con i dati sperimentali

        In ogni caso operazione, il fare la somma su tutti gli oscillatori, non riuscì ad Einstein che si limitò a considerare il caso di un’unica oscillazione. Riuscì invece, oltre ad attrarre l’attenzione di moti fisici a questo problema ed a dare maggiore impulso alle misure di Nernst, a mostrare che, ad una determinata temperatura, varie oscillazioni possono non dare contributi e risultare inattive al fine di dare contributi al calore specifico che, comunque, dovrebbe  tendere a zero allo zero assoluto.

GLI INTERVENTI DI DEBYE, BORN E VON KÄRMAN

         Il fenomeno di oscillazioni inattive assumerà in seguito il nome di congelamento dei gradi di libertà. Lo stesso Einstein, come accennato, si mostrò insoddisfatto del suo risultato (una approssimazione grossolana) e scrisse: Se la teoria della radiazione di Planck centra il nocciolo del problema, possiamo aspettarci di riscontrare, in altri campi della teoria termica, contraddizioni tra l’attuale teoria … ed i dati sperimentali, contraddizioni che possono essere eliminate con la strada che abbiamo preso. Ed infatti lavori successivi di Peter Debye (1886-1966), Max Born (1882-1970), Theodor von Kärman (1881-1963) riuscirono a spiegare con completezza le anomalie del calore specifico quando la temperatura assoluta tende a zero. Debye era un giovane assistente di Sommerfeld che si dedicò particolarmente allo studio dei calori specifici sulla linea di Einstein. Dopo un primo lavoro del 1910(10), due anni dopo pubblicò una memoria(11)Considerazioni sulla teoria dei calori specifici, in cui enunciò la sua teoria che possiamo ricavare in modo più comprensibile e discorsivo in una sua lettera a Sommerfeld del marzo 1912(12). Scriveva Debye:

Einstein vede le cose in questo modo: prende un corpo, ne tira fuori un atomo, afferma che lo si può considerare un oscillatore (frequenza di oscillazione ν) ed esprime l’energia dell’atomo unico con la relazione

La sua asserzione è sbagliata, come lo ha ammesso lui stesso, tempo dopo, perché non si tratta affatto di un moto oscillatorio con frequenza costante.

Perciò io ragiono in questo modo: mi immagino tutto il corpo come una molecola composta. Essa può eseguire oscillazioni, il cui numero può essere infinito in base alla teoria dell’elasticità. In realtà questo non è esatto, perché, siccome essa è composta da N atomi, ha soltanto 6N gradi di libertà. Ciò premesso, mi resta da

– 1) calcolare la frequenza di oscillazione del corpo in relazione alla sua struttura atomica […]

– 2) affermare che ogni duplice grado di libertà possiede l’energia

La combinazione dà come risultato il contenuto energetico del corpo.
Il problema 1) può essere risolto con approssimazione in base alla teoria dell’elasticità. Questa approssimazione è sufficiente per temperature molto basse, perché non vi si riscontrano più frequenze di oscillazione molto alte. Si ottiene […] una densità di frequenze di oscillazione comprese tra ν e dν, che è proporzionale a ν2.dν e quindi a ~ T4.

        Indipendentemente da Debye, anche Born e von Kärman corressero la parte insoddisfacente della memoria di Einstein, a partire dall’accoppiamento delle oscillazioni nel reticolo cristallino, nella memoria Oscillazioni in reticoli spaziali(13), dove arrivarono agli stessi risultati di Debye per un cammino più complesso e due settimane dopo(14).

La curva teorica (a tratto continuo) si Debye a confronto con i dati sperimentali.

        Nel frattempo, nel 1910, iniziarono ad essere pubblicate le prime misure accurate di Nernst(15) il quale era venuto a conoscenza del lavoro di Einstein, forse attraverso Planck. Scriveva Nernst:

Se le cifre ottenute vengono trascritte in un grafico, danno luogo, nella maggior parte dei casi, a curve quasi rettilinee che scendono in modo accentuato in corrispondenza delle basse temperature, per cui si ha la netta impressione che, a temperature molto basse, i calori specifici tendano verso lo zero o, per lo meno, assumno valori molto piccoli. Questa constatazione è in accordo dal punto di vista qualitativo, con la teoria del Sig. Einstein […].

        Nernst che prima di studiare il lavoro di Einstein era un conservatore, si convertì alla fisica dei quanti e ne divenne un apostolo con importanti conseguenze per il prestigio che Nernst aveva. Intanto a lui si deve l’inizio dei fecondissimi Congressi Solvay per l’influenza che da chimico aveva sull’industriale della soda Solvay. Il primo di tali Congressi si svolse proprio nel 1911 con tema La teoria dell’irraggiamento ed i quanti ed in esso gli organizzatori (Nernst, Lorentz e Planck) riservarono ad Einstein la conferenza conclusiva dal titolo L’attuale stato del problema del calore specifico. Quindi Nernst si dedicò con maggiore intensità alle sue misure sperimentali che erano di enorme utilità per dirimere sottili questioni teoriche. E quando trovò risultati che erano in accordo con la teoria di Einstein solo a bassissime temperature, non perse la fiducia nella teoria dei quanti ma egli stesso si mise al lavoro per costruire una nuova formula.

        Si può a margine dire che la teoria dei calori specifici fu, dopo la teoria dell’irraggiamento di Planck, il secondo ambito di verifica sperimentale della teoria dei quanti perché l’altra verifica sperimentale, quella dell’effetto fotoelettrico, fu capita più avanti nel tempo in quanto troppo avanzata al momento della sua redazione.

        Piano piano si andava precisando il teorema del calore che Nernst aveva enunciato nel 1905 e nel 1911 ne dette una formulazione Planck secondo la quale il calore specifico dei solidi e dei liquidi tende a zero quando la temperatura assoluta tende a zero(16). Si tratta del principio noto come Terzo Principio della Termodinamica a sostegno del quale però né Nernst né Planck avevano fornito prove. Fu Einstein che espresse con chiarezza lo status di questa legge nel 1914(17).

Tutti i tentativi di derivare teoricamente il teorema di Nernst con la termodinamica e con l’aiuto dei fatti sperimentali secondo i quali il calore specifico si annulla a T = 0 devono essere considerati falliti.

        Ed Einstein aggiunse che il modo di arrivare a comprendere quel teorema era solo attraverso la fisica dei quanti.

ENERGIA DI PUNTO ZERO

        E’ molto importante, a questo punto, portare attenzione alla seconda teoria dei quanti (Klein) di Planck. Questa nuova teoria dell’emissione di radiazione ubbidiente alla teoria dei quanti, Planck la sviluppò tra il 1911 ed il 1912(18) a seguito di varie critiche ricevute anche da Lorentz. Cerchiamo di capire.

        E’ noto che la formula di Planck per la radiazione del corpo nero si riduce a quella di Rayleigh e Jeans quando siamo a grandi lunghezze d’onda o equivalenti alte temperature. Era quindi naturale per Planck aspettarsi che l’energia media del suo oscillatore quantizzato tendesse, per alte temperature, al valore kT. Abbiamo visto che l’energia media di un oscillatore di Planck è:

Se sviluppiamo l’esponenziale in serie di potenze (come fece Planck nel 1901), fermandoci alla prima potenza, per il valor medio dell’energia E, ad alte temperature, si trova proprio il valore kT. Per ragioni non del tutto chiare, Planck rifece questo conto più tardi (1912), questa volta fermandosi alla potenza successiva, e trovò:

che è un valore non corrispondente a quello classico, che prevede la sottrazione al valore aspettato della quantità hν/2, e su ciò si appuntava una delle critiche di Lorentz (per vedere il dettaglio formalizzato delle elaborazioni di Planck si può andare al Capitolo 2 de La nascita della teoria dei quanti, con particolare attenzione ai paragrafi 2.2 e 2.3). Ma sulla fisica dei quanti le critiche piovevano da tutte le parti ed essenzialmente vertevano sul fatto che era un miscuglio dell’elettromagnetismo di Maxwell e di nuovi concetti che non si capiva troppo bene da dove discendessero. Le critiche più qualificate vennero espresse al Congresso Solvay del 1911, alla fine del quale Planck riprese in mano tutta la teoria ricominciando a ricavarla daccapo. Nel 1912, appena un anno dopo il Congresso Solvay, Planck dette alle stampe la seconda edizione della sua Teoria della radiazione termica (1913) nella quale riprendeva con ampiezza, completezza ed in modo dettagliato l’intero problema del corpo nero. Planck fu molto scrupoloso, la sua trattazione non lasciava scoperto nessun punto sul quale si erano appuntate e si potevano appuntare critiche. Ricostruiva sia il cammino che dall’elettrodinamica porta alla teoria dell’emissione e dell’assorbimento degli oscillatori hertziani; sia il percorso statistico combinatorio di Boltzmann fino alla relazione che lega entropia e probabilità (nella formulazione che lo stesso Boltzmann aveva fornito nel 1896 per ricavare il suo teorema H); sia tutti gli sviluppi che erano conseguenti al problema del corpo nero. Egli fondeva i risultati dell’elettrodinamica con quelli della termodinamica, mostrando la consistenza degli uni con gli altri nella spiegazione del problema del corpo nero che non può avvenire senza l’introduzione dell’ipotesi dei quanti. Nelle sue elaborazioni era ora presente una conoscenza approfondita dei lavori di meccanica e termodinamica statistica di Gibbs (1902) ed anche una qualche consapevolezza dell’inaccettabilità di certe asimmetrie nell’ambito della fisica (continuità – discontinuità), così come aveva fatto con chiarezza ed in modo proficuo Einstein nei suoi lavori sull’effetto fotoelettrico e sull’elettrodinamica dei corpi in movimento. E ricominciava a ricavarsi la relazione che fornisce l’energia di un oscillatore in funzione della temperatura. Questa elaborazione l’ho fatta con ogni dettaglio ne La nascita della teoria dei quanti, ai paragrafi 2.4, 2.4.1, 2.4.2 e ad essi rimando. Alla fine dei suoi calcoli Planck presentò la relazione che descriveva il suo lavoro nel modo più completo possibile:

        Ciò, in ultima analisi, significava che l’oscillatore quantizzato di Planck avesse i livelli energetici spostati di una quantità hν/2. Egli chiamò questa nuova quantizzazione Seconda legge della radiazione. Questa nuova relazione scritta da Planck corrisponde a non considerare più l’energia E come la somma di n (con n numero intero) quantità  e cioè come E = n.hν ma come:

e ciò vuol dire il livello energetico più basso per un oscillatore ha energia pari a hν/2 .

        Ma Planck non dette a questa quantità hν/2 un valore particolare anche perché, essendo una costante, nel caso dei calori specifici, si annullava differenziando.

        Questo cambiamento non è cosa di poco conto perché modifica l’intera interpretazione degli scambi energetici di un oscillatore. Possiamo pensare, visto che ci stiamo occupando di basse temperature, di togliere energia ad un oscillatore. Ciò comporta la perdita di vari quanti . Continuiamo a togliere quanti per avvicinarci allo zero assoluto e scopriamo che possiamo toglierli tutti meno che hν/2 proprio perché i quanti si possono cedere o acquistare solo per unità intere. Ciò comporta che un oscillatore mantiene sempre un’energia che è quella di oscillazione hν/2 . Ciò si può leggere in due modi: 1) anche allo zero assoluto si mantiene un minimo di energia; 2) lo zero assoluto è irraggiungibile proprio perché quell’energia ad un oscillatore nessuno gliela può togliere. Quel valore hν/2  è chiamato energia di punto zero di un oscillatore quantizzato, con ovvio significato. Si deve notare che questo risultato non intacca i valori dei calori specifici a volume costante in quanto essi, come già detto, sono la derivata rispetto alla temperatura dell’energia media degli oscillatori e, rispetto a T, hν/2 è una costante (osservo che la prima evidenza sperimentale di questa energia di punto zero si ebbe con un lavoro di Millikan del 1924).

        La Seconda legge della radiazione di Planck non passò inosservata se immediatamente Einstein intervenne in proposito insieme a Otto Stern (1888-1969) con una memoria del 1913(19). I due partirono dalla solita espressione di Planck (che, ricordo, anche Einstein aveva ricavato in altro modo nel 1907):

e, anche qui, ricavarono l’energia di punto zero, che aveva trovato Planck, in altro modo. Partirono da una indeterminazione quantistica (che nel 1913 era di là da venire e che quando fu stabilita nel 1924 da Heisenberg fu attaccata da Einstein con il famoso Dio non gioca a dadi). Ripartiamo dalla relazione di Planck per l’energia media di un oscillatore armonico quantizzato:

        Come già detto, se sviluppiamo l’esponenziale in serie di potenze e consideriamo solo la prima potenza (hν/kT), per il valor medio dell’energia E si trova:

        Facendo il confronto tra ciò che ci si aspetta e ciò che si trova viene fuori il disturbo della quantità  hν/2 sottratta a quanto aspettato a temperature elevate. L’unico modo per sbarazzarsene è ammettere, con un procedimento disinvolto che in genere si chiama ad hoc, che tale quantità esisteva sommata alla relazione che ci fornisce l’energia media, che doveva quindi essere:

        L’esistenza di questa quantità additiva viene da loro interpretata come il segnale dell’esistenza di una sorta di agitazione termica indeterminata quando la temperatura tende a zero(20). Inoltre Einstein e Stern segnalarono che quanto sostenuto da Planck (la costanza di hν/2 che la rendeva nulla quando si differenziava) era conseguenza dell’ammissione di frequenza degli oscillatori indipendente dalla temperatura, fatto non sempre vero se si considerano tutti i possibili movimenti (gradi di libertà) di una molecola o di una qualunque particella costituente un reticolo cristallino. Nel caso del gas la cosa era certamente non corretta. Con questa premessa si calcolarono il calore specifico di una molecola in rotazione sia nella primitiva ipotesi di Planck, sia nella nuova. Facendo il confronto dei calcoli con le più recenti misure di cui disponevano (relative all’idrogeno) conclusero che l’esistenza di una energia di punto zero con un valore uguale a hν/2 è probabile.

        Torniamo ora alla terza legge della termodinamica. Vale la pena dire che fino ad ora essa era stata considerata valida solo per solidi e liquidi. Fu Nernst che nel 1914 la estese ai gas, a seguito delle misure fatte da Arnold Euchen (1884-1950)(21), che già avevano messo in moto Einstein e Stern. Anche qui le cose rimanevano abbastanza nel vago, senza precise misure sperimentali. e lo stesso Nernst affermava in questa memoria che nessun modello reale di un tale gas, con quelle proprietà, era disponibile al momento. La questione fu definitivamente risolta solo nel 1924-1925 ancora ad opera di Einstein(22) ma con l’introduzione della statistica che il fisico indiano Satyendra Nath Bose aveva sviluppato e che oggi è nota come la statistica di Bose-Einstein(23).

GAS DEGENERI, BOSONI E FERMIONI

        Nel 1925 Einstein trovò la possibilità di rispondere alla non esistenza di quel gas invocato da Nernst. Questo gas esisteva ed era un gas di Bose ed Einstein, più semplicemente un gas di bosoni. Ma qui devo spiegare per sommi capi di cosa si tratta.

        Ho discusso in altri articoli l’introduzione che Maxwell, Boltzmann, Clausius fecero nella teoria cinetica dei gas per rendere conto microscopicamente di cosa era l’entropia. In particolare Maxwell e Boltzmann svilupparono una statistica basata sui concetti tradizionali di probabilità e statistica nell’ambito della fisica classica.

        Imposto qui il problema rimandando dove l’ho sviluppato nei dettagli. Un certo stato macroscopico della materia (gassosa, liquida o solida che sia) è caratterizzato da una terna P,V,T (pressione, volume e temperatura) che noi misuriamo. Questo stato può essere realizzato microscopicamente in un grande numero di modi diversi a seconda delle posizioni e delle velocità e quindi delle energie che possiedono le singole molecole. Si può cioè misurare, in uno stesso volume occupato da un gas, una determinata pressione ed una determinata temperatura e queste grandezze, pressione e temperatura, si possono ottenere con le molecole del gas distribuite in modi diversi con energie diverse. A diversi valori della terna P,V,T si hanno diversi stati macroscopici, ad esempio, dei gas, ciascuno dei quali si può realizzare microscopicamente in vari modi. In condizioni normali il gas occuperà uno stato ben determinato a cui compete una fissata  terna P,V,T.

       La domanda che ora ci poniamo è: quale probabilità deve essere attribuita ad un determinato stato  macroscopico (una determinata terna P, V, T) della materia (solida, liquida o gassosa che sia) ?

      Tenendo presente che uno stato macroscopico, ad esempio, di un gas si realizza generalmente quando ad esso compete la massima probabilità, il problema è quello di legare la probabilità di realizzazione di uno stato macroscopico con le possibili distribuzioni microscopiche delle molecole che costituiscono il gas stesso.

     Diciamo subito che lo stato macroscopico di un sistema a cui compete la massima probabilità, cioè lo stato macroscopico che più probabilmente ricaviamo facendo delle misure P,V,T, è quello che microscopicamente può essere realizzato in un numero maggiore di modi diversi (aumento dell’entropia => 2° principio della termodinamica).

        La meccanica statistica studia proprio questo problema di probabilità.

       Fino al 1924 si disponeva di una unica possibile statistica, quella classica di Boltzmann. Peculiarità del metodo di Boltzmann è l’individualità delle singole molecole.

      Come però si capì in seguito, due molecole, se possiedono la medesima energia, sono assolutamente  indistinguibili. Quest’ultimo concetto, che può ora sembrare banale, è alla base dell’evoluzione della statistica classica di Boltzmann nelle statistiche quantistiche.

        La prima statistica che tenne conto che le molecole sono tra loro indistinguibili fu quella di Bose-Einstein che venne elaborata nel 1924, tre anni prima, cioè, del principio di indeterminazione di Heisenberg (lo dico perché quanto dirò ha già dentro di sé alcune conseguenze che il Principio di indeterminazione prevede).

         Secondo la fisica quantistica due molecole devono essere ritenute indistinguibili se ad esse compete la medesima energia. E’ questo il punto di partenza della statistica quantistica. Inoltre la statistica quantistica introduce  un nuovo concetto molto importante relativo alle dimensioni delle celle entro cui vanno sistemate le molecole. Nel metodo classico usato da Boltzmann le celle sono degli ordinari volumetti utili per far intendere bene le cose, per rendere tangibile la distribuzione di un certo numero di molecole in certi stati energetici; queste celle sono insomma un intelligente, ma mero, artificio di calcolo. Inoltre le dimensioni delle celle non sono determinanti in alcun modo: esse possono essere  prese piccole a piacere tanto che si possono confondere con un punto.

        La fisica quantistica pone invece un limite ben preciso all’estensione delle celle: il principio  di indeterminazione. Non avendo noi possibilità di misurare simultaneamente posizione e velocità di una particella, ci sarà un certo volume minimo entro cui si potrà trovare questa particella, e questo volume minimo è circa dato dalla costante di Planck elevata al cubo (h3)(24).E questo volume non è un ordinario volume (una lunghezza elevata al cubo), ma un ipervolume. Un volume cioè di uno spazio (spazio delle fasi, introdotto da W. Gibbs nel 1902) a più  di tre dimensioni. In definitiva le celle hanno circa dimensioni determinate dal volume h3 che corrisponde al volume minimo entro cui si possono, in teoria, individuare due particelle come distinte.

 AB
1ab
2ba
3ab
4ab

Tutte le differenti possibilità
di sistemare due particelle a e b
(distinguibili) in due volumi A e B.

 AB
1xx
2xx
3xx

Tutte le differenti possibilità
di sistemare due particelle x e x
(indistinguibili) in due volumi A e B.

        Modificando sia il volume a disposizione delle singole molecole, sia il fatto che queste molecole sono identiche e quindi indistinguibili, la statistica che le riguarda sarà diversa. In epoca precedente, nel 1916, Nernst aveva chiamato questo comportamento dei calori specifici a basse temperature non riconducibile alla fisica classica come degenerazione del gas mentre un gas a temperature vicine allo zero assoluto venne chiamato degenere. Ed il problema nasceva perché il gas degenerava. Evidentemente questo non spiega nulla ma individua un problema che deve essere capito(25). Questa degenerazione, nelle statistiche, sia di Maxwell-Boltzmann che di Bose-Einstein, si può individuare nella quantità -E0/kT che è appunto un parametro, cosiddetto,  di degenerazione.

        La statistica di Maxwell-Boltzmann si applica ai gas di molecole a temperatura ambiente o a temperature più alte. La statistica di Bose-Einstein si applica ai gas di certe particelle, che da ora chiameremo bosoni, in stato di degenerazione. I bosoni sono quelle particelle a cui non si applica il principio di Pauli(26) (vedi oltre), sono quelle particelle cioè che o non hanno spin o hanno spin  intero come ad esempio: fotoni, fononi, mesoni p, mesoni K, gas reali (idrogeno ed elio). L’applicazione di una o dell’altra statistica dipende quindi dal tipo di particelle in gioco e anche dalle particolari condizioni fisiche in cui queste particelle si trovano; le condizioni fisiche in cui si opera sono stabilite dal parametro di degenerazione che, in sostanza, è determinato da condizioni di bassa temperatura, di notevole densità delle particelle, di massa molto piccola di queste ultime. Ma la cosa non fu così semplice agli inizi, ci vollero almeno due anni, per capire correttamente e senza alcun problema quale statistica applicare.

         Nel caso che più ci interessa, quello relativo alla bassa temperatura, quando l’energia del gas in considerazione si abbassa di molto (E che tende a 0) , quando cioè la temperatura diventa molto bassa (T che tende a 0), le molecole classiche avrebbero la tendenza ad occupare tutte lo stesso stato corrispondente ad energia E = 0. Questo fatto in realtà non si verifica poiché, trovandoci in stato di degenerazione occorre applicare la statistica quantistica di Bose. Quando si ha a che fare  con un gas di bosoni, si origina una condensazione del gas stesso, cioè, i bosoni costituenti il gas tendono ad occupare tutti lo stesso stato energetico (E = E0).

        Vi è un’osservazione da fare a proposito del gas degenere, sul fatto cioè che Nernst prevedeva l’estensione del Terzo Principio anche ai gas. Tutti sanno che abbassando le temperature le sostanze cambiano di stato passando da aeriformi a liquide a solide. Sembrava quindi che Nernst parlasse di qualcosa che non avesse possibilità alcuna di essere verificato. Come si può parlare di un gas degenere a temperature vicine allo zero assoluto ? Si cominciò a capire quale senso dare a questo gas dopo la scoperta dell’elettrone e dopo che l’elettrone trovò posto nella struttura atomica prima di Rutherford e poi di Bohr. Un gas degenere trova posto nella struttura elettronica degli atomi in particolari condizioni ed ha a che fare niente meno che con i conduttori e cioè con i metalli !

        Uno studio dettagliato delle teorie che nacquero sulla conducibilità elettrica e sul ruolo che svolsero gli elettroni, nel loro insieme considerati come un gas, l’ho già fatto trattando della Teoria dell’elettrone libero e delle bande di energia e lì rimando. Ora richiamo solo qualche piccola cosa.

        Stabilito che gli atomi hanno la struttura descritta da Bohr, essi si legheranno tra loro in qualche modo per formare un solido conduttore. Questo conduttore viene descritto modellisticamente ed in primissima approssimazione come una struttura di atomi legati che forma il cristallo dentro cui vi è una zona di energia (attenzione, di energia!) in cui degli elettroni siano liberi di muoversi. Il movimento di questi elettroni è come quello di un gas, non vi sono direzioni particolari in cui essi si dirigano nel loro moto. Quando applichiamo dall’esterno una differenza di energia tra due punti del conduttore, gli elettroni liberi di farlo, e perciò stesso formanti il gas di elettroni, tenderanno a muoversi prevalentemente in un verso determinato.

        Ecco quindi un gas che resterebbe tale anche allo zero assoluto, con tante cose da vedere, verificare e, soprattutto, da sperimentare in laboratorio con misure sempre più raffinate. Ma, se abbiamo un gas di elettroni, per esso vanno bene le statistiche di Maxwell-Boltzmann o Bose-Einstein ? No, perché gli oggetti da distribuire nei volumi h3 quantizzati sono ora elettroni e non bosoni e gli elettroni hanno delle particolarità che non hanno i bosoni.

        Quando abbiamo discusso dell’atomo di Bohr e delle correzioni di Sommerfeld, eravamo arrivati fino a scoprire che un elettrone era dotato di tre numeri quantici. Qualche tempo dopo, nel 1925, il fisico austriaco W. Pauli (1900-1958), dallo studio del comportamento degli elettroni in un atomo attraverso le righe spettrali, avanzò un principio, il Principio di esclusione, che di fatto introduceva un quarto numero quantico per l’elettrone, il numero quantico di spin. In modo molto semplice lo spin dell’elettrone è una sorta di movimento a trottola dell’elettrone mentre si muove nelle sue orbite. Questo moto dell’elettrone può avvenire solo in due versi ed ha di conseguenza due soli possibili valori:

s± = ±½ h/2π

ed il Principio di Pauli afferma che in un atomo non vi possono essere due elettroni con identici 4 numeri quantici. Se stiamo quindi su un’orbita elettronica essa ha già tre numeri quantici che la definiscono (n, ℓ, m) pertanto in essa vi possono essere al massimo due elettroni e ve ne sono due solo se hanno spin opposti. Generalizzando si può dire che un dato livello energetico può avere solo due elettroni su di esso.

        L’idea dello spin elettronico fu verificata sperimentalmente alla fine del 1925 dai due fisici olandesi Uhlenbeck e Goudsmited i risultati furono pubblicati nel 1926.

        Con questa scoperta di Pauli, la tavola periodica degli elementi, trovò una sua naturale spiegazione. Inoltre questo principio spiega perché, abbassando drasticamente la temperatura, la materia non collassa, non si “sgonfia” (vedi figura seguente).   

        Gli elettroni sono una categoria di particelle che hanno la caratteristica di avere un numero quantico semintero. Molte altre particelle hanno la stessa caratteristica e tutte le particelle con spin semintero prendono il nome di fermioni dal nome di Enrico Fermi (appena compare un italiano che mancava dal Processo a Galileo non si può che fremere di rabbia e non per ragioni di nazionalismo ma per volgari motivi di interessi economico-produttivi).

        Ho già detto che dalla statistica classica, quella di Maxwell-Boltzmann, con la nascita della fisica dei quanti, fu necessario passare alla statistica quantistica di Bose-Einstein sviluppata nel 1924-1925, quando ancora non si conosceva l’esistenza dello spin e non veniva in mente di tenerne conto in elaborazioni varie. Subito dopo la scoperta dello spin si iniziò a distinguere particelle con spin semintero, che ubbidiscono al Principio di Pauli, e particelle con spin intero che non hanno questo vincolo. Fermi e Dirac, indipendentemente (ma con la piccola consolazione che l’articolo fu scritto da Fermi prima che lo facesse Dirac e che l’articolo di Fermi fu rifiutato dalla rivista britannica Nature perché “troppo astratto“), elaborarono la statistica alla quale dovevano ubbidire le particelle con spin semintero, la statistica di Fermi-Dirac.

 AB
1xx

Tutte le differenti possibilità di
sistemare due particelle x e x
(con spin semintero) in due volumi
A e B. Ve ne è una sola !

        Se riportiamo questo discorso a temperature vicine allo zero assoluto, scopriamo che ora si dovranno avere molti livelli energetici occupati e che gli abbassamenti di temperatura riguardano solo poche particelle. Il confronto fra le diverse statistiche mostra quanto illustrato nella figura seguente:

        Si può vedere qualitativamente (ma per i conti mando al link proposto) che nel caso dei fermioni, allo zero assoluto si vanno via via riempiendo i livelli energetici più bassi con due elettroni (a spin opposti) ciascuno. Finiti gli elettroni vi sarà un ultimo livello energetico occupato che va sotto il nome di livello di Fermi (si può anche dire che il livello di Fermi è quello che a temperature ordinarie ha il 50% di probabilità di essere occupato. Vi sono quindi molti livelli energetici occupati allo zero assoluto ed anche questa è un’affermazione di esistenza di (elevata) energia di punto zero.

        Per ciò che riguarda l’elio, esso ha 2 elettroni orbitale e 4 particelle nel nucleo. Ognuna di queste particelle ha spin semintero di modo che la somma degli spin dell’atomo è un numero intero. Ciò vuol dire che l’elio è un bosone.

         Vi è un seguito al Principio di Pauli. Il 10 febbraio 1927 Pauli fece un passo avanti e nella sua memoria, Sulla degenerazione del gas e il paramagnetismo(27), la statistica quantistica del gas perfetto monoatomico di Fermi veniva estesa al caso in cui gli atomi del gas possiedano spin e alla magnetizzazione di un tale gas. In questo lavoro, Pauli considerava appunto gli elettroni di conduzione all’interno di un metallo come un gas perfetto degenere. Nel settembre 1927, in occasione del Congresso di Como, Arnold Sommerfeld presentò una relazione in cui riusciva a spiegare per la prima volta il contributo al calore specifico da parte degli elettroni di un metallo utilizzando la nuova statistica(28). In pratica si tratta di passare dai livelli energetici atomici a livelli energetici dell’intero cristallo ed applicare anche qui la possibilità di occupazione di ognuno di questi livelli per due soli elettroni se hanno spin opposti. L’intera trattazione dell’argomento la si può trovare nell’articolo citato: Teoria dell’elettrone libero e delle bande di energia. Qui basta dare un cenno di quel complesso lavoro che, tra l’altro, combinò principio di esclusione, statistica di Fermi-Dirac, con il fatto che Pauli, quello stesso anno, aveva esteso il suo principio da un atomo al gas di elettroni in un conduttore. Egli trattò gli elettroni come particelle indipendenti in una scatola (buca di potenziale) e soggetti solo al principio di esclusione e con essi fornì una spiegazione della conducibilità elettrica, del diamagnetismo e dei calori specifici.

Figura schematica degli elettroni liberi in una buca di potenziale dentro il metallo (Da Larkin Kerwin).

Altro modo di presentare la figura precedente (Da Dekker).

        Il ragionamento di Pauli e Sommerfeld era il seguente. Un elettrone in un metallo o in un solido qualunque è soggetto al campo generato da tutti i nuclei e gli elettroni che lo costituiscono. Tra gli elettroni si dovranno considerare quelli responsabili dei legami e quelli di valenza considerati liberi responsabili cioè, in determinate condizioni, della conduzione. Questi ultimi elettroni liberi si devono trovare in una zona a potenziale costante dentro il metallo e devono avere un’energia potenziale minore di quella posseduta da un elettrone all’esterno del metallo (nella zona chiamata di vuoto)

        Riferendoci alla figura appena riportata, vi è una buca di potenziale dentro la quale vi sono tanti livelli energetici su cui si trovano elettroni liberi in accordo con il principio di Pauli. Oltre ai livelli pieni di elettroni e cioè quelli fino ad EF (livello di Fermi) vi saranno altri livelli, in figura non riportati, che si trovano sopra al livello di Fermi, ed occupanti l’intervallo energetico Φ. La quantità ES rappresenta la differenza di energia tra un elettrone in riposo dentro il metallo ed un altro in riposo fuori di esso, al livello di vuoto (in genere Eha un valore di circa 10 eV). Alla temperatura T = 0°K il massimo livello occupato è quello di Fermi. Al crescere della temperatura gli elettroni andranno su livelli superiori nell’intervallo energetico Φ (con  Φ = ES – EF). Il comportamento degli elettroni è come quello di un gas. Per avere conduzione occorre applicare al metallo una differenza di potenziale che provoca, in questo modello, l’abbassamento di una parete della buca di potenziale e quindi la fuoriuscita degli elettroni dalla parte dove la barriera si è abbassata. Il modello è semplice ed intuitivo e si sbarazza della grande complicazione che sarebbe il mantenere l’intero cristallo e valutarne tutte le interazioni. Esso però è insufficiente come fu mostrato anni dopo. Ad esempio non spiega perché un conduttore è diverso da un isolante.

        Per quel che ci interessa quello considerato nella buca di potenziale è un gas di elettroni liberi che ha una densità dell’ordine di 1022 per cm3. Aggiungo poi che  se invece delle figure riportate, fosse possibile riportare la figura di una buca di potenziale (ricordo le sei dimensioni), invece del livello di Fermi dovremmo parlare di superficie di Fermi (una superficie sferica che separa la zona dei livelli energetici occupati – quelli interni alla sfera – dai livelli energetici non occupati -esterni alla sfera).

        Se si passa in laboratorio per effettuare misure sul calore specifico del gas di elettroni, la cosa è molto complessa perché il suo contributo  rispetto a quello dell’intero reticolo del cristallo è molto piccolo. Vi è però un fenomeno che aiuta, infatti scendendo di temperatura, il calore specifico del reticolo scende più rapidamente di quello del gas degenere finché quest’ultimo non sarà maggiore del primo. Ciò avviene alle temperature dell’elio liquido dove si verifica quanto mostrato nella figura seguente. La linea continua fornisce l’andamento del calore specifico dell’inero cristallo, quella tratto-punteggiata il calore specifico del reticolo cristallino, quella tratteggiata il calore specifico del gas degenere che, come si vede, ad un certo valore di T dà un contributo maggiore al calore specifico dell’intero cristallo.

GAS DI BOSONI E TERZO PRINCIPIO

       In una lezione, Sulle recenti teorie elettrodinamiche: il teorema del calore di Nernst e l’ipotesi dei quanti, che Planck tenne nel dicembre del 1911 presso la Società Chimica tedesca, parlò dell’importanza del Terzo Principio della Termodinamica introdotto da Nernst. Tale Principio era veramente nuovo e metteva fine all’incompletezza della termodinamica classica con i suoi due Principi noti. Infatti con la termodinamica classica non vi è una completa definizione delle condizioni di equilibrio o di fase o chimico perché non abbiamo alcuna possibilità di determinare la costante che compare nell’equazione che definisce l’entropia. Assumere il teorema di Nernst risolve completamente questo problema perché l’entropia di una sostanza chimicamente pura si annulla allo zero assoluto. Ciò vuol dire che si fissa un valore di entropia che diventa valore di riferimento che fa sparire l’indeterminazione della costante.

        Se si utilizza la relazione di Boltzmann, essa descrive perfettamente il comportamento dei sistemi termodinamici eccetto che nella scelta di quanto devono essere grandi le celle elementari dello spazio delle fasi in cui sistemare le molecole del sistema. Con la termodinamica statistica classica si ritornava quindi all’indeterminazione che avevamo nella termodinamica classica. Abbiamo invece visto che la costante h che compare nelle relazioni quantistiche permette naturalmente di determinare le dimensioni delle celle dello spazio delle fasi che risultano essere h3.

         L’ipotesi dei quanti si legava quindi al Terzo Principio perché, per vie diverse, ambedue risolvevano lo stesso problema. Planck, nella Prefazione del suo libro  The Theory of Heat Radiation, dato alle stampe sul finire del 1912, affermava: Sia l’ipotesi dei quanti che il teorema del calore di Nernst possono essere ridotti alla semplice proposizione che la probabilità termodinamica di uno stato fisico è un numero dato da un integrale definito, o detto in altro modo, che l’entropia di uno stato ha un valore positivo, completamente definito che, come minimo, diventa zero mentre, in contrasto con ciò, l’entropia può, in accordo con la termodinamica classica, diminuire senza limiti a meno infinito. Attualmente io considero questa proposizione come la quintessenza dell’ipotesi dei quanti. Insomma Terzo Principio e Quanti si sostenevano a vicenda.

        Quanto detto dovrebbe farci intendere il grande interesse che il Terzo Principio aveva per i fisici, soprattutto per i sostenitori dell’ipotesi quantistica, e quanto su di esso ragionassero per cercare una qualche giustificazione teorica.

       Prima di iniziare il paragrafo precedente, avevo concluso dicendo: La questione della terza legge della termodinamica (e del gas in grado di realizzarlo) fu definitivamente risolta solo nel 1924-1925 ancora ad opera di Einstein ma con l’introduzione della statistica che il fisico indiano Bose aveva sviluppato e che oggi è nota come la statistica di Bose-Einstein. Dopo aver illustrato nel paragrafo precedente alcune elaborazioni che andavano nel senso di comprendere meglio l’intera problematica, è possibile illustrare la memoria di Einstein del 1925. Come detto, il gas in grado di soddisfare il terzo principio è un gas di Bose ed Einstein, cioè un gas di bosoni.

        Nel 1924 Einstein scrisse al suo amico Ehrenfest che al di sotto di una certa temperatura le molecole condensano in assenza di forze attrattive, cioè si addensano nello stato di velocità zero. La teoria è attraente ma c’è qualcosa di vero in essa ? Un anno dopo provò ad indicare l’idrogeno l’elio ed un gas di elettroni come i gas che avrebbero potuto mostrare l’esistenza della condensazione (si noti che la statistica di Fermi-Dirac non era stata ancora elaborata). Nell’articolo del 1925 Einstein diceva:

Nella teoria del gas ideale si richiede in modo evidente che volume e temperatura di una quantità di gas possa essere data arbitrariamente. Mediante la teoria si determina quindi l’energia e la pressione del gas. Ma lo studio delle equazioni di stato […] mostra che se il numero n di molecole e la temperatura T sono dati, il volume non può essere arbitrariamente piccolo. […] Che succede allora se la densità n/V della sostanza aumenta a questa temperatura, ad esempio mediante una compressione isoterma ?

Affermo che in questo caso, al crescere della densità, un numero di molecole crescente cade nello stato fondamentale (la cui energia cinetica è nulla)…..  si realizza una separazione; una parte [delle  molecole] condensa, le rimanenti rimangono a far parte di un gas perfetto saturo.
 

       Questo fenomeno sarà chiamato condensazione di Bose-Einstein.

       Il lavoro di Einstein affermava in definitiva che se si ha una cella molto fredda ed andiamo a sistemarvi molecole una ad una, all’inizio esse si sistemano nei livelli quantizzati di energia come previsto dalla distribuzione di Boltzmann, con gli stati a più alta energia che accolgono qualche molecola in differenti stati ma, quando si raggiunge una densità critica, tutte le molecole che aggiungiamo andranno a sistemarsi nel livello quantico più basso. Con numeri dell’ordine di quello di Avogadro si può pensare che solo un 10% delle molecole non si troveranno nel livello energetico più basso. E’ come se il condensato sia diventato una sola identità essendosi perse le singole identità delle molecole. Va sottolineato che questo stato della materia non esiste in natura perché le temperature occorrenti per realizzarlo non si realizzano da nessuna parte. Sembrava comunque che il condensato di Einstein dovesse rimanere una pia invenzione teorica. Invece nel 1995, settanta anni dopo la sua predizione, Eric A. Cornell e Carl E. Wieman hanno isolato, in condizioni realizzate in laboratorio, un condensato di Bose-Einstein di rubidio. Nel 2003 altri gruppi di ricercatori sono riusciti nella stessa impresa con molecole d’altro tipo.

        Faccio notare che nell’elaborazione di Einstein, vi era anche una valutazione delle condizioni di temperatura che portavano alla degenerazione di Nernst:

        L’elaborazione di Einstein era estremamente avanzata e quindi difficile da digerire. L’idea che a basse temperature vi fosse una transizione di fase tra stati che apparentemente dovevano essere gli stessi era complessa da digerire. Eppure nel 1928 Keesom, che abbiamo incontrato quando ci siamo occupati di Kamerlingh Onnes e delle basse temperature dell’elio, scoprì una tale transizione di fase. Quindi nel 1938 fu Fritz London che propose di interpretare tale transizione di fase come una transizione di Bose-Einstein. E’ d’interesse notare che la temperatura di transizione si trova a 2,19°K che è molto vicina ai 3,1°K previsti dalla teoria di Bose-Einstein.

ORDINE E DISORDINE

         Per quanto ci servirà è utile richiamare alcuni concetti di un apparente lontano passato che ho già trattato quando ho raccontato i lavori di Boltzmann.

        La relazione di Boltzmann che lega entropia e probabilità (S = K.logP) ebbe una interpretazione molto felice da parte di Helmholtz che, nel 1877, introdusse nella termodinamica i concetti di ordine e disordine, iniziando a considerare l’entropia come una misura del disordine. In questo modo i processi più probabili sono quelli che fanno passare il sistema termodinamico a stati sempre più disordinati, mentre è solo il moto molecolare ordinato quello che è in grado di essere convertito in altre forme di lavoro meccanico. L’introduzione dei concetti di ordine e disordine nella termodinamica avvenne in un ciclo di lezioni che Helmholtz tenne nel 1877 a Berlino ed alle quali assistettero Planck e Wien. In esse, raccolte in appunti e pubblicate poi in Vorlesungen über theoretische Physik, Vol. 5, Dynamik continuirlick verbreiteter Massen (Lipsia, Barth 1902), Helmholtz sostenne che la meccanica corpuscolare riconosce due tipi di moto. Uno è il moto ordinato che è un moto d’insieme di tutte le particelle. L’altro è il moto disordinato, i movimenti indipendenti che le particelle realizzano dentro lo spazio occupato dal loro aggregato. Per Helmholtz la caratteristica principale della meccanica del continuo è l’assenza del moto disordinato. Questo concetto di moto disordinato ha un interesse limitato in meccanica ma ne assume uno rilevante nella termodinamica. E’ il moto disordinato delle più piccole particelle dei corpi che costituisce il calore; il moto cioè in cui la velocità e lo spostamento di ogni singola particella non ha alcuna relazione con quelle vicine. Dall’ipotesi che le molecole di un gas sono in moto disordinato Helmholtz dedusse poi altre proprietà dei gas.

        Quanto detto basta certamente per chi ha una qualche confidenza con la fisica. Chi volesse seguire una spiegazione  più semplice ma più efficace può vedere l’Appendice 2, subito dopo le Note.

INDETERMINAZIONE ED ENERGIA DI PUNTO ZERO

        Ho fatto un cenno al Principio di indeterminazione trovato da Heisenberg nel 1925. Si tratta del fatto che, a livelli atomici, è impossibile determinare simultaneamente la posizione e la quantità di moto di una particella. A ben guardare ho parlato di posizioni e quantità di moto, quindi di spazio delle fasi. Si può allora riassumere il Principio di indeterminazione affermando che vi è un volume, una cella, nello spazio delle fasi in cui sappiamo che vi è la particella ma non siamo in grado di dire dove sia con precisione. Vi è un’indeterminazione (o incertezza) su questa particella che corrisponde a quel volume h3 che abbiamo già incontrato. Vediamo meglio riferendoci ancora alla statistica di Bose-Einstein.

        Secondo la meccanica quantistica due molecole debbono essere ritenute indistinguibili se ad esse compete la medesima energia. E’ questo il punto di partenza della statistica quantistica. Inoltre la statistica quantistica introduce  un nuovo concetto molto importante relativo alle dimensioni delle celle entro cui sistemavamo le molecole classiche.

     Abbiamo visto che nel metodo classico usato da Boltzmann le celle erano utili per farci intendere bene le cose, per renderci tangibile la distribuzione di un certo numero di molecole in certi stati energetici; queste celle erano insomma un intelligente, ma mero, artificio di calcolo. Inoltre le dimensioni delle celle non erano determinanti in alcun modo: esse potevano essere  prese piccole a piacere tanto che le confondevamo con un punto.

     Ora la meccanica quantistica pone un limite ben preciso all’estensione delle celle: il principio  di indeterminazione. Non avendo noi possibilità di misurare simultaneamente posizione e velocità di una particella, ci sarà un certo volume minimo entro cui si potrà trovare questa particella, e questo volume minimo è dato dalla costante di Planck elevata al cubo (h3). Vediamo perché.

        Secondo il principio di indeterminazione: è impossibile determinare con esattezza e simultaneamente la posizione e la velocità di una particella.

       La forma matematica di queste principio è molto semplice Se chiamiamo con x la posizione dell’elettrone e quindi con Δx l’indeterminazione sella posizione, da quanto abbiamo detto si ricava che Δx è dell’ordine di grandezza della lunghezza d’onda l del fotone, mentre, se chiamiamo con p la quantità di moto della particella (q  =  mv  =>  Δp  = Δmv) e quindi con Δp l’indeterminazione nella sua quantità di moto, si può facilmente vedere che anche  Dp dipende da l e maggiore è l’energia trasportata dal fotone,  maggiore è l’energia che questo scambia con l’elettrone. Più precisamente si avrà:

combinando queste due relazioni si trova: 

        Con altre considerazioni, che ora non ci interessano, la forma definitiva del principio di indeterminazione in una dimensione (una dimensione per la posizione ed una per la velocità) risulta essere (c’è solo l’introduzione di un  che ora non interessa indagare):

da cui, successivamente:

 essendo h la costante di Planck ed m la massa dell’elettrone e ciò vuol dire che h (divisa per 2πm) è la limitazione all’osservazione di una particella in una dimensione.

        In tre dimensioni (tre dimensioni per la posizione e tre dimensioni per la velocità: in un volume cioè a sei dimensioni) il principio di indeterminazione nell’osservazione di una particella diventa:

cioè la limitazione all’osservazione di una particella in tre dimensioni è h tagliato (avendo indicato con la h tagliata la quantità h divisa per ) al cubo. Questo fatto vuol dire che non si può osservare con quanta precisione si vuole una particella in un certo volume (Δx.Δy.Δz = ΔV, volume ordinario adesso)  senza alterare considerevolmente il volume delle sue velocità (meglio: delle sue quantità di moto p).

         Ritornando al volume delle celle, esse hanno quindi dimensioni determinate dal volume h tagliato al cubo che corrisponde al volume minimo entro cui si possono, in teoria, individuare due particelle come distinte.

        Per quanto ci servirà è utile rivedere quanto detto in altro modo, andando cioè a capire cosa accade di una particella quando la mettiamo dentro il piccolo volume ΔV. Sappiamo che la particella è dentro questo volumetto ma non sappiamo dove a seguito del principio di indeterminazione. In ogni punto del volumetto vi è una probabilità finita di trovare ad un dato istante la particella, probabilità che varierà da punto a punto, essendo maggiore nel centro. La stessa cosa si può dire in altro modo: la particella passa un poco del suo tempo in ogni punto del volumetto, dove passa più tempo si ha maggiore probabilità di trovarla ad un dato istante. E la cosa può essere portata oltre affermando che la particella deve essere dotata di un qualche moto, impossibile da vedere, in quel volumetto, verosimilmente un moto di vibrazione che discende come diretta conseguenza del principio di indeterminazione ed in definitiva questa energia di vibrazione risulta indistinguibile dall’energia termica. Inoltre tale energia che discende unicamente da uno spazio occupato dalla particella non può venire emessa dalla sostanza di cui la particella fa parte.

        La prima verifica sperimentale dell’energia di punto zero per un cristallo fu fatta subito dopo (1927) che Heisenberg ebbe annunciato il suo Principio. Mediante l’uso dei raggi X (una tecnica sensazionale per studiare la struttura della materia ed in particolare dei cristalli, attraverso il fenomeno della diffrazione sugli atomi del reticolo, che fu introdotta nel 1912 indipendentemente da Max von Laue e dai due Bragg, William Henry il padre e William Lawrence il figlio), i fisici  britannici R.W. James, E.M. Firth, R. G. Wood e G. W. Brindley, nel 1927, studiarono la diffrazione dei raggi X sul salgemma a temperature sempre più basse. Si accor4sero delle sfocature delle foto che, diminuivano al diminuire della temperatura. Arrivati vicini allo zero assoluto avevano ancora delle foto sfocate. 

RAFFREDDAMENTO MAGNETICO

        L’elio liquido è la sostanza refrigerante avente la più bassa temperatura di ebollizione che vale 4,20°K a pressione atmosferica. Riducendo la pressione di vapore sulla superficie dell’elio si può arrivare a temperature che oscillano intorno a 0,7°K. E’ possibile ottenere temperature più basse di questa ?

        Nel 1926 il fisico tedesco P. Debye (che abbiamo già incontrato a proposito della teoria dei calori specifici) e nel 1927 il chimico fisico nordamericano W.F. Giauque proposero, indipendentemente, un metodo per riuscire ad ottenere temperature al di sotto di 0,3°K(29). Per comprendere bene di cosa si tratta è utile richiamare qualche concetto di elettromagnetismo.

        Quando ho trattato della struttura dell’atomo (fino al modello di Bohr-Sommerfeld) ho parlato di numeri quantici introducendo in particolare la quantizzazione spaziale. In questo articolo ho detto qualcosa in più perché, nel paragrafo Gas degeneri, bosoni e fermioni ho introdotto il quarto numero quantico, quello di spin. Occorre riprendere il significato fisico da cui discendevano quei numeri.

        La quantizzazione spaziale consisteva nel fatto che l’orbita che è percorsa da un elettrone intorno ad un nucleo atomico non può essere situata spazialmente dovunque ma, rispetto ad un piano di riferimento ha solo particolari inclinazioni. Questo numero quantico lo avevamo chiamato quanto magnetico, vediamo ora il perché. Dall’elettromagnetismo sappiamo che una corrente elettrica genera intorno a sé un campo magnetico. Un elettrone è la più piccola carica elettrica e ruota in un’orbita ed il tutto è facilmente rappresentabile come una spira in cui una corrente piccolissima. Una spira è un vero e proprio magnete e qui siamo di fronte ad un magnetino elementare. Si può anche calcolare con facilità quanto vale ma davvero qui non interessa. Ci interessa invece osservare che ogni atomo ha componenti magnetiche che discendono dagli elettroni che orbitano intorno al nucleo. Se pensiamo questa situazione all’interno di un gas è facile capire che i campi magnetici di ciascun atomo sono orientati in genere con il massimo disordine in modo da non dare alcun effetto all’esterno del gas medesimo.

        Il numero quantico di spin, lo abbiamo appena visto, è un movimento a trottola che l’elettrone fa mentre orbita. Tale movimento può avvenire o in un dato verso o in quello opposto. Ma ora ci interessa ripetere la considerazione di prima: l’elettrone è una carica elettrica che, ruotando su se stessa produce un minuscolo campo magnetico che può essere rappresentato mediante un vettore diretto in un verso o in verso opposto.

        In definitiva un atomo ha componenti magnetiche doppie, quelle atomiche e quelle elettroniche e noi ora ci occupiamo solo di quelle elettroniche. Un gas, sotto questo profilo, è composto da tanti magnetini sistemati in modo del tutto disordinato, a temperature ordinarie. Invece di pensarlo così possiamo pensare che ogni magnetino sia rappresentato da un vettore che abbia i due poli magnetici alle due estremità (il Nord dal lato della freccia) di modo che il gas è come costituito da tanti piccoli vettori orientati a caso nello spazio (vedi la figura seguente).

        Sappiamo anche che se sistemiamo una sostanza tra le espansioni polari di un potente elettromagnete essa tende a magnetizzarsi anche per effetto dell’orientamento degli spin in una sola direzione e questo fenomeno è noto come suscettività magnetica (che si indica con la lettera greca χ). All’orientamento degli spin si oppongono però le vibrazioni termiche degli atomi che risultano maggiori quanto più è elevata la temperatura. Se scendiamo di temperatura le vibrazioni atomiche diminuiscono ed allora è più facile orientare gli spin del gas elettronico. Quest’ultima proprietà fu scoperta da Pierre Curie il quale stabilì che la suscettività è inversamente proporzionale alla temperatura (χ ~ 1/T). Ma le cose non sono così lineari perché alcune sostanze hanno strutture tali che gli spin hanno fortissime azioni tra loro e con i reticoli cristallini tanto che è difficile riuscire ad orientarli. Vi sono invece altre sostanze in cui l’orientamento degli spin è più semplice ed è in caso dei sali paramagnetici. La cosa fu studiata da Kamerlingh Onnes e H. R. Woltjer(30) nel 1924 con un sale paramagnetico (il solfato di gadolino), che segue la legge di Curie, per vedere se a temperature intorno ad 1°K si riuscissero ad orientare tutti gli spin.

        I due scienziati trovarono la seguente curva sperimentale in cui si vede che la magnetizzazione (ordinate) cresce (fino alla saturazione) al diminuire della temperatura (ascisse in cui la temperatura compare al denominatore). E questa

curva mostra la validità della legge di Curie.

        E’ arrivato il momento di capire qual era la finalità di questa proporzionalità inversa tra suscettività e temperatura e, per farlo, occorre mettere in gioco l’entropia. Abbiamo visto che entropia è sinonimo di disordine e che se l’entropia cresce cresce il disordine. Anche la temperatura ha a che fare con il disordine: aumentare la temperatura significa aumentare il disordine. In definitiva se riusciamo a ordinare un sistema avremo abbassato la sua entropia e quindi la temperatura. E fu proprio questa operazione che suggerirono Debye e Giaugue (ho usato il verbo suggerire perché dagli articoli che illustravano questo sistema per raffreddare alla sua realizzazione passarono 7 anni. Le esperienze di Giaugue, che vinse la gara con Debye in quanto era un fisico sperimentale, furono fatte a Berkeley nel 1933).

        Alla temperatura di 1°K non debbono più esservi vibrazioni atomiche ed è quindi possibile intervenire sull’orientamento degli spin. Vediamo il modo di procedere per raggiungere il risultato (seguo il lavoro di Giaugue tratto dalla sua Nobel Lecture del 1949). Il sale paramagnetico, che è alla temperatura di 1°K dell’elio liquido che lo raffredda, viene messo all’interno di un intenso campo magnetico ottenuto con un avvolgimento di spire (il tutto deve essere perfettamente isolato dall’ambiente esterno).

Figura (a)

        Dopo un poco ci troveremo nella situazione seguente: gli spin saranno orientati secondo il campo magnetico esterno.

Figura (b)

        E’ quanto fin qui detto: si sono allineati gli spin e si è aumentato l’ordine:

        A questo punto si toglie il campo magnetico esterno ed andiamo a questa situazione di spin di nuovo disordinati:

Figura (c)

             Per capire cosa è accaduto riferiamoci al grafico seguente(31):

Dal Dekker

        La figura (a) ci situa nel punto B nella curva disegnata più in alto. E’ cioè accaduto che aver ordinato gli spin ha abbassato l’entropia del sale paramagnetico e siamo scesi al punto C della curva che descrive l’entropia più bassa. Questa situazione è descritta dalla figura (b). Se, come in figura (c), togliamo il campo magnetico esterno, si tornano a disordinare gli spin e ritorniamo alla situazione di entropia più elevata MA a temperatura più bassa (la temperatura TA). Passiamo dal punto C della curva ad entropia più bassa al punto A della curva ad entropia più alta e questo passaggio avviene ad entropia costante, siamo cioè in una trasformazione adiabatica (dS = 0), senza scambio, cioè, di calore con l’ambiente esterno. Questi passaggi fanno dire che il processo in atto è quello di una demagnetizzazione (togliamo il campo magnetico esterno)  adiabatica (camminiamo lungo una trasformazione adiabatica). A questo punto si può continuare fornendo di nuovo al gas degenere un campo esterno, quindi demagnetizzare ed in tal modo si scende ancora di temperatura. Ripetendo ciò più volte si è arrivati ad ottenere temperature intorno al millesimo di 1°K. Questo discorso può essere formalizzato a partire dal Secondo Principio della termodinamica. Rimando a tale formalizzazione fatta in modo eccellente da Dekker (pag. 453) e da Syčev (pagg. 75-86).

Come si ordinano gli spin in un sale paramagnetico al variare della temperatura.

        Può essere interessante vedere l’apparecchiatura utilizzata da Giaugue.

        Con queste esperienze che vengono circa venti anni dopo la liquefazione dell’elio, si aprì la strada alle cosiddette temperature magnetiche. Per andare avanti in questi studi servivano ora quattro condizioni sperimentali tutte in grado di dare il loro contributo simultaneamente:

– una bassa temperatura da cui partire mantenuta per tempi lunghi;

– un elettromagnete in grado di fornire campi molto intensi (le espansioni polari devono essere mantenute molto vicine con la conseguenza che i criostati dentro cui mantenere le sostanze a basse temperature dovevano diventare molto più sottili oppure si può, come si è generalmente fatto, ricorrere a solenoidi percorsi da intense correnti continue e raffreddati con circolazione d’olio);

L’avvolgimento a solenoide per magnetizzare il sale paramagnetico

– un sistema in grado di trasferire il calore prodotto dalla magnetizzazione(31) all’elio liquido e immediatamente dopo, quando si toglie il campo, di isolare il sale dal medesimo elio (un criostato di Dewar funziona allo scopo);

Un calorimetro per basse temperature

– un isolamento eccellente mediante vuoti molto spinti e con schermi riflettenti che eliminino il calore radiante.

        E su questo si lavorò per vari anni per realizzare studi sempre più avanzati a bassissime temperature. Questa storia segue comunque principalmente in URSS dove, con Kapitsa e Landau, si creerà una scuola di fisica delle basse temperature di grande rilievo. A questa scuola sono dovuti i principali studi sulla superconduttività e sulla superfluidità, fenomeni che compaiono appunto alle temperature vicine allo zero assoluto. Di questo mi occuperò nel seguente articolo.


NOTE

(1) M. Planck –  Annalen der Physik, vol. 1, p. 69.

(2) A. Einstein – Annalen der Physik, vol. 17, pp. 1905.

(3) Le misurazioni furono fatte a temperatura ambiente ed a pressione costante. I valori trovati erano per grammo atomo. Per semplicità, nel seguito, salvo avviso contrario, mi riferirò a questi valori a pressione costante, cp, indicandoli con c.

(4) Weber, dopo aver fatto queste misure, dalla Germania si trasferì ad insegnare al Politecnico di Zurigo dove ebbe Einstein come studente, anche se non si sa in dettaglio come abbia potuto influire su di lui per questo particolare aspetto.

(5) James Dewar – Proc. R. Soc. London, 76, p. 325, 1905.

(6) Che ha un valore prossimo al calore specifico a pressione costante, cp.

(7) W. Nernst – Sitzungsber. Preuss. Akad. Wiss. Phys.-Math. Kl., p. 933, 1906. Riguardo al riferimento che viene fatto al chimico francese Berthelot è utile dare qualche indicazione. Intorno alla metà dell’Ottocento Berthelot affermò che ogni reazione chimica deve sempre procedere nella direzione in cui si ha la massima produzione di calore. Il principio così detto è errato perché non tiene conto dei processi in cui si produce freddo (come il ghiaccio su cui si versa del sale). Se però si fa il conto complessivo di ciò che accade nei processi considerati ci si rende conto che non è il calore a tendere verso un massimo ma l’entropia, cioè il grado di disordine (vedi oltre nel testo). Nel caso, ad esempio, del sale che, messo sul ghiaccio, lo fonde producendo freddo è certamente vero che l’emissione del calore fa acquistare ordine al sistema ma questo ordine è minore del disordine che si origina dal mescolamento del sale con l’acqua di fusione. Non è quindi l’energia totale che occorre studiare per capire come si svolge un processo ma l’energia libera dato che l’energia totale è data dalla somma dell’energia libera e dell’entropia (ET = EL + S   =>  S = E – EL). Questo fatto fu scoperto nel 1883 da J. H.  vant’Hoff al fine di definire con precisione l’affinità chimica e farla uscire dai miasmi alchemici. Per calcolare l’energia totale si può passare attraverso il calore specifico ma la forma matematica che era stata allora sviluppata (Gibbs ed Helmholtz, indipendentemente) non permetteva di ricavare l’energia libera dalla totale. E’ qui che interviene l’ipotesi di Berthelot che Nernst assume come esatta. Con questa ipotesi, alle temperature ordinarie, l’energia libera e quella totale diventano quasi uguali e, avvicinandosi allo zero assoluto esse dovevano convergere ad un unico valore e, se a T = 0°K risulta ET = EL, allora l’entropia deve diventare zero, cioè S = 0. Ebbene questo aspetto del Terzo Principio è molto più interessante di come viene spesso enunciato (lo zero assoluto è irraggiungibile) perché l’affermare che allo zero assoluto l’entropia è nulla e scompare il disordine da una parte è un cambiamento completo di immagine del mondo rispetto al secolo precedente e, dall’altra, permette, come vedremo, di spiegare molti strani fenomeni alle basse temperature. Se si pensa, ad esempio, ai cambiamenti di stato dell’acqua è evidente un approccio diverso ad essi nel considerare, piuttosto che l’energia delle molecole, l’ordine che esse assumono al quale si riferisce il Terzo Principio. Il fatto poi che è l’entropia ad annullarsi allo zero assoluto creò molti problemi di accettazione perché i più intendevano che dovesse essere l’energia totale ad annullarsi mentre ora si sottintendeva la presenza di una energia di punto zero allo zero assoluto.

(8) A. Einstein – Annalen der Physik, vol. 22, p. 180, 1907. A questa memoria Einstein apportò successivamente una correzione, Correzione al mio lavoro: «La teoria della radiazione di Planck ecc.»Annalen der Physik, vol. 22, p. 800, 1907.

(9) M. Planck – Vorlesungen über die Theorie der Wärmestrahlung – J.A. Barth, Leipzig 1906.

(10) P. Debye – Der Wahrscheinlichkeitsbegriff in der Theorie der Srahlung – Annalen der Physik, vol. 33, pp. 1427-1434, 1910.

(11) P. Debye – Annalen der Physyk, vol. 39, p. 789, 1912.

(12) Si veda Harmin Hermann citato in bibliografia alle pagg. 24 e 25.

(13) M. Born, Th. von Kärman – Phys. Z. vol. 13, p.297, 1912.

(14) Il ritardo di due settimane fu riconosciuto dai due che pubblicarono una seconda memoria sull’argomento, Sulla teoria del calore specificoPhys. Z. vol. 14, p.15, 1912.

(15) W. Nernst – Untersuchungen über die spezifische Wärme bei tiefen Temperaturen – Königlich Preussischen Akademie der Wissenschaften (Berlin), pp. 262-282, 1910.

(16) Nell’Introduzione e nella Sezione 292 della terza edizione di: M. Planck – Vorlesungen über die Theorie der Wärmestrahlung – Von Veit, Leipzig 1911.

(17) A. Einstein – Verh. Dtsch. Phys. Ges.16, p. 820, 1914.

(18) M. Planck – Verh. d. Deutsch. Phys. Ges.13, 138, 1911.
M. Planck – Über die Begriindung des Gesetzes der Schwarzen Strahlung, Ann. Phys., 4, 37, 642, 1912.

(19) A. Einstein, O. Stern – Ann. d. Phys., (40) 4, p. 551, 1913.

(20) Quanto abbiamo ora detto è in completo accordo con il principio di indeterminazione di Heiseinberg del 1927. Vediamo come e perché.  

       Abbiamo detto che il minimo di energia che ha un oscillatore armonico unidimensionale (pensiamo alle oscillazioni degli elettroni degli atomi costituenti una molecola) vale   E0  =  ½ hn (2)  (e questa è l’energia che corrisponde allo stato fondamentale, cioè non eccitato, degli elettroni negli atomi che costituiscono la molecola). Questo minimo di energia è chiamato energia di punto zero dell’oscillatore. Il minimo di energia calcolato secondo la meccanica classica corrisponde al punto 0 della curva di energia potenziale. Comunque, in corrispondenza di questo punto (classico), si ha x  = 0  e  v = 0 (per la posizione e la velocità dell’oscillatore in considerazione). Poiché non ci dovrebbe essere alcuna oscillazione in questa posizione, noi ci troveremo nelle condizioni di conoscere contemporaneamente e con assoluta precisione la posizione e la velocità degli elettroni oscillanti: questo fatto è però in contraddizione con il principio di indeterminazione di Heisenberg. Allora il primo livello energetico (dello stato fondamentale dell’oscillatore) dovrà essere il più basso livello energetico  compatibile con in principio di indeterminazione.
    Fino ad ora abbiamo discusso di un oscillatore unidimensionale, cioè di un oscillatore con un solo grado di libertà, e abbiamo visto il suo valore di energia di punto zero. Nel caso generale di oscillatori tridimensionali (con tre gradi di libertà) l’energia di punto zero è data da 3.(½ hn) = 3/2 hn. Ad ogni grado di libertà compete quindi un’energia di punto zero pari a½ hn . La formula generale per i livelli energetici permessi all’oscillatore diventa allora:

En = (n + 3/2) hn        (con n = 0,1,2, ….).

(21) W. Nernst – Z. Elektrochem.20, p. 397, 1914. Nel 1914 Euchen scrisse una nota con cui informò con piena certezza che delle formule esistenti [per l’energia di traslazione a basse temperature], quelle che non hanno energia di punto zero non sono, con sicurezza, soddisfacenti, mentre quelle  che includono un’energia di punto zero almeno non portano ad alcuna contraddizione [citato da Kuhn].

(22) A. Einstein – Quantentheorie des einatomigen idealen Gases (Teoria quantistica del gas monoatomico) Abhandlung Sitzungsber. Preuss. Akad. Wiss. Phys.-Math. Kl., p. 261-267, 1924.
A. Einstein – Quantentheorie des einatomigen idealen Gases (Teoria quantistica del gas monoatomico), 2, Abhandlung Sitzungsber. Preuss. Akad. Wiss. Phys.-Math. Kl., p. 261-267, p. 3-14, 1925.

(23) Nel 1924 Einstein, già premio Nobel (1921) per la sua teoria sull’effetto fotoelettrico e membro dell’Accademia di Prussia di Berlino, ricevette un articolo del giovane fisico indiano S. N. Bose da tradurre [S. N. Bose, Plancks Gesetz und Lichtquantenhypothese (Legge di Planck e ipotesi del quanto di luce), Zeitschrift fur Physik, 26, pp.178-181, 1924]. In questo articolo Bose dimostrava come la  formula che dava la radiazione del corpo nero, ricavata  da Planck con metodi classici e con l’introduzione  dei quanti hn come artificio di calcolo, poteva essere ricavata con metodi statistici. Era una statistica nuova quella che Einstein intravide nella nota di Bose ed egli stesso contribuì al suo sviluppo con due successivi articoli già citati in nota precedente. Nasceva così la statistica quantistica: la statistica di Bose-Einstein che permise la soluzione completa di due questioni in sospeso da molti anni: la radiazione del corpo nero e, appunto, la questione dei calori specifici.

(24) Ricordando che il principio di indeterminazione in una dimensione (una dimensione per la posizione ed una per la velocità) era:

(con h barrato o tagliato che vale h/2p) si vede che h tagliato era la limitazione all’osservazione in una dimensione.

    In tre dimensioni (tre dimensioni per la posizione e tre dimensioni per la velocità: in un volume cioè a sei dimensioni) il principio di indeterminazione nell’osservazione di una particella diventa:

cioè la limitazione all’osservazione di una particella in tre dimensioni è h tagliato al cubo. Questo fatto vuol dire che non si può osservare con quanta precisione si vuole una particella in un certo volume (Dx.Dy.Dz, volume ordinario adesso)  senza alterare considerevolmente il volume delle sue velocità (meglio: delle sue quantità di moto p). Possiamo allora dire qualcosa di più, a questo punto, sullo spazio delle fasi per una particella: è uno spazio a sei dimensioni, tre ordinarie e tre componenti la velocità della particella.

(25) Nernst, W., 1916, Über einen Versuch, von quantentheoritischen Betrachtungen zur Annahme stetiger Energieänderungen zurückzukehren, Verh. Deutsch. Phys. Ges. 18: 83-116.

(26) Nel 1926, ad opera indipendentemente di Fermi e Dirac venne sviluppata la statistica quantistica per le particelle a spin semintero, la statistica di Fermi-Dirac.

(27) Pauli, W., Uber Gasentartung und Paramagnetismus, Zeitschrift für Physik 41, 81–102, 1927.

(28) A. Sommerfeld, On the electron theory of metals based on Fermi statisticsZeitschrift fur. Physik47, 1-32; 43-60, 1928.

(29) P. Debye, Einige Bemerkungen zur Magnetisierung bei tiefer TemperaturAnn. Physik81, 1154, 1926.
W.F. Giauque, A thermodynamic treatment of certain magnetic effects. A proposed method of producing temperatures considerably below 1° absoluteJ. Am. Chem. Soc.49, 1864-70, 1927.
W.F. Giauque, Paramagnetism and the third law of thermodynamics. Interpretation of the low-temperature magnetic susceptibility of gadolinium sulfate, J. Am. Chem. Soc., 49, 1870-77, 1927.

(30) Onnes, Kamerlingh; H. R. Woltjer, The Magnetisation of. Gadolinium Sulphate at Temperatures attainable with. Liquid HeliumProc. K. Alcad. Wetensch. Amsterdam, 1923, 26, 626-634.

(31) Il processo è un poco più elaborato di quanto descritto qui. Se vogliamo ottenere un raffreddamento mediante espansione, dobbiamo prima comprimere ciò che poi si espande e la compressione provoca il riscaldamento che successivamente ci darà il raffreddamento.

Raffreddamento per espansione. Prima fase, si comprime ed il calore è scaricato all’esterno.

Raffreddamento per espansione. Seconda fase, il calore è stato rimosso e si è ritornati alla temperatura iniziale.

Raffreddamento per espansione. Terza fase, il gas si espande con lavoro fatto dalle molecole, la temperatura si abbassa e la trasformazione, dato il perfetto isolamento, è adiabatica.

        Le cose sono analoghe a quanto accade magnetizzando. Prima si ha il riscaldamento della sostanza magnetizzata e solo successivamente, a basse temperature possiamo procedere al raffreddamento. Vediamo con la figura seguente come vanno le cose.

        Partiamo dal punto A in cui si trova il sale paramagnetico all’inizio del processo. Quando iniziamo a magnetizzarlo esso si scalda e passa in B (che è la curva dell’entropia per il sale magnetizzato con l’intensità di magnetizzazione che abbiamo fornito), dove la temperatura è più alta che in A. L’elio liquido ad 1°K sottrae calore al sale magnetizzato portando il sale medesimo al punto C (si cammina lungo la curva dell’entropia relativa alla magnetizzazione del sale). A questo punto si toglie sia il campo magnetico esterno sia il contatto con l’elio liquido ed il sale passerà al punto D al quale corrisponde la temperatura più bassa Tf che volevamo raggiungere.


APPENDICE 1

IL TEOREMA DI EQUIPARTIZIONE DELL’ENERGIA

        Quando ho trattato della distribuzione di Maxwell-Boltzmann, ho trovato la seguente relazione:

e cioè che il numero medio di molecole chehanno energia E ≠ E0  (una energia di riferimento)  è proporzionale al numero degli stati Z(E) che abbiamo a disposizione e aventi energia E secondo il fattore  – (E – E0)/kT. La grandezza che ci fornisce il numero medio di molecole, n (E) può essere interpretata anche come il numero degli stati, ad energia E, occupati; mentre la grandezza Z (E) può essere interpretata come il numero degli stati che abbiamo a disposizione aventi energia E. Gli n(E) sono quindi per noi i casi favorevoli mentre le Z (E) sono i casi possibili.

    Ricordando che la probabilità matematica è definita come il numero dei casi favorevoli sul numero dei casi possibili, possiamo dire che il rapporto n(E)/Z(E) rappresenta la p energia E, di avere, cioè, molecole con energia E diversa da E0  (che era la nostra energia di riferimento). Possiamo indicare questa probabilità con

e chiamarla funzione di distribuzione di Boltzmann. La relazione scritta dice che il numero di molecole con energia  E0   dipende  dal  numero  degli  stati  che  hanno  energia E  (dalla densità degli stati con energia  E) e decresce esponenzialmente all’aumentare dell’energia E; oppure, in altre parole, il numero degli stati occupati è dato dal prodotto della densità  degli stati per la probabilità che uno stato sia occupato (ricordo che, classicamente, se E = 0 tutte le molecole sono al livello energetico più basso).

    A partire da questa conclusione ricaviamoci il teorema di equipartizione dell’energia nel semplice caso unidimensionale di una sola molecola libera a cui competa un solo grado di libertà. Tale molecola avrà energia totale E data da:

E(p,q) = E (p) = p2/2m

dove E(p,q) è l’energia totale nel caso più generale (con p e q coordinate canoniche delle quantità di moto e posizioni) mentre E(p) è l’energia totale (solo cinetica) nel nostro semplice caso (con p quantità di moto della molecola).

        Nel caso più generale, l’energia media associata ad un oscillatore armonico classico con un grado di libertà è data da:

dove l’esponenziale non è altro che la funzione di distribuzione di Boltzmann [si noti che questa energia, nell’interpretazione classica, non dipende dalla frequenza dell’oscillatore armonico].

        Nel nostro caso, più semplice, l’energia media sarà data da:

e, facendo i conti, si trova:

Si può qui fare una sostituzione che rende il tutto più agevole:

Si ha:

e, successivamente:

Abbiamo così trovato che l’energia media per un oscillatore con un solo grado di libertà vale 1/2.kT. Se le molecole sono N (numero di Avogadro), in 3 dimensioni, tale energia diventa:

Nel caso in cui le molecole non siano libere ma vincolate da un potenziale di oscillatore armonico di data frequenza, i gradi di libertà nello spazio delle fasi (quello degli quantità di moto e delle coordinate, di p e q insomma) diventano 6, per cui:

        Poiché N.k = R è la costante dei  gas e  poiché il calore specifico è dato da cv = (dE/dT)v=cost , si ha:

cv= 3R

nel caso dei 6 gradi di libertà.


APPENDICE 2

ORDINE E DISORDINE

        Un qualsiasi stato di un sistema è sempre caratterizzato dalla sua energia interna: i suoi atomi sono in moto a determinate velocità dipendenti solo dalla temperatura cui il sistema si trova. I processi naturali comportano, alla fine, un riscaldamento di tutti gli oggetti appartenenti al sistema che subisce la trasformazione ed una situazione in cui si sviluppa calore comporta un disordine maggiore nel moto delle molecole. E poiché, in tutte le trasformazioni che avvengono in natura, in un modo o nell’altro, si sviluppa del calore, si può dire che: in tutte le trasformazioni naturali aumenta il disordine nel moto delle molecole del sistema che subisce la trasformazione.

       Per capire meglio occorre dare un significato più preciso alla parola disordine. Nella figura (a) seguente è riportato un contenitore diviso in due parti da un setto mobile. In ciascuna parte in cui è diviso il recipiente vi sono molecole di un gas diverso. Se togliamo il setto divisorio le molecole si saranno spontaneamente mescolate come in figura b(). Si può certamente dire che la configurazione di figura (a) è più ordinata di quella di figura (b).

Figura (a)                                                               

Figura (b)

        Anche il mescolare acqua calda e fredda comporta il passaggio da una situazione ordinata (acqua calda da una parte ed acqua fredda dall’altra)  ad una disordinata (acqua mescolata); anche il mettere in comunicazione un contenitore pieno di gas con uno vuoto comporta il passaggio da una situazione ordinata ad una disordinata;  anche la messa in contatto di un corpo caldo con uno freddo comporta la stessa cosa. A disordine si può dare il significato di stato più probabile

        Prima spieghiamo questa affermazione affidandoci al senso comune, passeremo poi a qualche definizione più precisa.

          In casa vostra, nella camera dei bambini, dov’è più probabile trovare una penna, un giocattolo, una spilla. Se rispondete  “al loro posto”  vuol dire che non avete bambini. Lo stato più probabile è certamente il più disordinato. Ma non serve andare nella camera dei bambini, basta pensare ad una cucina o ad una qualunque stanza. Qualunque persona lavori in casa sa che il problema non sta nel mettere in disordine (fatto spontaneo), ma nel mettere in ordine (tant’è vero che, a volte, si paga qualcuno per farlo).

       Se prendete un mazzo di carte sistemato in un qualche cassetto di casa vostra qual è la probabilità di trovare tutte le ‘coppe‘ con le ‘coppe‘, le ‘denari‘ con le ‘denari‘, ecc., e di averle in fila (1,2,3,…) ? Credo si possa rispondere che ciò è quasi impossibile: le carte ‘preferiscono‘ sistemarsi nel modo più disordinato che è il più probabile. Ma – e qui arriviamo al nocciolo del problema – perché è più probabile che siano mescolate ? Perché il mescolamento lo si può ottenere in un numero enorme di modi (prima il 7 di bastoni, poi il 3 di spade, quindi il 5 di denari, …; oppure: prima il 2 di coppe, poi il 9 di spade, quindi l’asso di bastoni, …; oppure: …; oppure: …; …), mentre l’ordine lo si può ottenere in un solo modo (1,2,3,… di coppe; 1,2,3,… di denari; 1,2, 3,… di spade; 1,2,3,… di bastoni).

       Per questo, lanciando una coppia di dadi, è più probabile che venga il 7; questo numero può essere ottenuto con un numero di combinazioni (l+6; 2+5; 3+4; 4+3; 5+2; 6+l) maggiore (6) di quello occorrente per qualunque altro numero (ed in particolare ottenere il 2 è tanto difficile quanto ottenere il 12; ambedue i numeri possono essere ottenuti in un solo modo). Sempre per lo stesso motivo, giocando la schedina, è più probabile fare l’otto od il nove che non lo zero (e, naturalmente, il 13).

       Allo stesso modo per gli atomi che costituiscono un sistema.

       Pensiamo ad un miscuglio di due gas in un recipiente; ci stupiremmo molto se, ad un dato istante, trovassimo tutte le molecole del gas 1 da una parte e quelle del gas 2 dall’altra. E se invece disponessimo di un solo gas in un recipiente diviso da un forellino in due zone A e B, ci parrebbe strano che questo gas si andasse a sistema re tutto in una zona (ad esempio la A).

        In natura si tende allo stato più probabile (quello che si può ottenere microscopicamente nel maggior numero di modi); lo stato più probabile è quello più disordinato. Se mettiamo insieme questi due risultati con il fatto che in tutti i processi naturali parte dell’energia in gioco si trasforma in calore (2° principio della termodinamica) scopriamo che: in qualunque forma si abbia dell’energia, essa, in natura, tende a trasformarsi in calore poiché questa è una situazione cui compete maggiore disordine ed è quindi più probabile. Quanto detto ci fa comprendere il perché l’irreversibilità presiede i processi naturali: una trasformazione di un sistema comporta sempre un grado maggiore di disordine degli atomi che lo costituiscono; la trasformazione inversa prevedrebbe il passaggio da uno stato disordinato ad uno più ordinato che, come sappiamo, è molto improbabile.

      Il calore è quindi energia disordinata, mentre le altre forme di energia sono energie ordinate. In natura sono favoriti i passaggi più probabili quelli, cioè, da energie ordinate ad energie disordinate. Per questo tutto tende ad “andare in calore” ed è estremamente improbabile che del calore vada spontaneamente in energia meccanica.

        Si può in definitiva dire che entropia è sinonimo di disordine.


BIBLIOGRAFIA

(1) AA. VV. – Scienziati e Tecnologi dalle origini al 1875 – EST Mondadori 1975

(2) O.U. Lounasmaa, G. Pickett – I superfluidi dell’elio 3 – Le Scienze 264, 1990

(3) N.  David Mermin, David M. Lee – L’elio 3 superfluido – Le Scienze 107, 1977

(4) Eugene M. Lifshitz – La superfluidità – Articoli da Scientific American, Zanichelli 1969

(5) Articoli di Enrico Bellone su: Paolo Rossi (diretta da) – Storia della scienza – UTET 1988

(6) O.V. Lounasmaa – Nuovi metodi per avvicinarsi allo zero assoluto – Le Scienze 19, 1970.

(7) Kurt Mendelssohn – Sulla via dello zero assoluto – Il Saggiatore 1966. Da questo libro ho ripreso molte delle figure riportate nel testo.

(8) D.K.C. Macdonald – Verso lo zero assoluto – Zanichelli 1967

(9) V.V. Syčev – Sistemi termodinamici complessi – Editori Riuniti, Edizioni MIR 1985

(10) V. Edelmán – Cerca del cero absoluto – Editorial MIR MOSCU 1986

(11) Ya. Smorodinski – La temperatura –  Editorial MIR MOSCU 1983

(12) P. Kapitsa – Experimento, Teoría, Práctica – Editorial MIR MOSCU 1985

(13) http://www.knaw.nl/publicaties/pdf/20071021.pdf

(14) H. Kamerlingh Onnes – Nobel Lecture – http://nobelprize.org/nobel_prizes/physics/laureates/1913/onnes-lecture.html

(15) A. Pais – Einstein and the quantum theory – Reviews of Modern Physics51, 4, ottobre 1979.

(16) A. Pais – Sottile è il Signore … – Boringhieri 1986.

(17) Martin J. Klein – Thermodinamics and Quanta in Planck’s Work – Physics Today19, 11, pp. 23-32, 1966.

(18) Martin J. Klein – Max Planck and the Beginning of the Quantum Theory – Archive for History of Exact Sciences, 1(5): pp. 459-479, 1962.

(19) A. Baracca, S. Ruffo, A. Russo – Scienza e industria 1848-1915 – Laterza 1979.

(20) G. Tagliaferri – Storia della fisica quantistica – Franco Angeli 1985.

(21) T. S. Kuhn – Black-Body Theory and the Quantum Discontinuity 1894-1912 – Oxford University Press 1978.

(22) M. Planck – The Theory of Heat Radiation – Dover 1991. E’ l’edizione inglese della seconda edizione del 1913 del testo pubblicato in prima edizione nel 1906.

(23) J. Eggert, L. Hock – Lehrbuch & der & Physikalischen & Chemie – Leipzig, S. Hirzel Verlag, 1926. [E’ un manuale di chimica fisica che ha una trattazione esauriente dell’opera scientifica di Nernst. Ne ho una copia in lingua spagnola, Tratado de química Física – Editorial Labor, Barcelona 1943].

(24) Larkin Kerwin – Atomic Physics – Holt, Rinehart and Winston 1963.

(25) A. J. Dekker – Fisica dello stato solido – Ambrosiana 1965.

(26) C. Kittel – Introduzione alla fisica dello stato solido – Boringhieri 1971. (27)http://nobelprize.org/nobel_prizes/chemistry/laureates/1949/giauque-lecture.pdf

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: