Fisicamente

di Roberto Renzetti

Roberto Renzetti

6 – LA PRIMA STATISTICA QUANTISTICA:  LA STATISTICA DI BOSE-EINSTEIN.

     Peculiarità del metodo di Boltzmann, che abbiamo ora visto, è l’individualità delle singole molecole.

     In realtà, due molecole, se possiedono la medesima energia, sono assolutamente  indistinguibili.

     Quest’ultimo concetto, che può ora sembrare banale, è alla base dell’evoluzione della statistica classica di Boltzmann nelle statistiche quantistiche.

     Nel 1924 Einstein, già premio Nobel (1921) per la sua teoria sull’effetto fotoelettrico e membro dell’Accademia di Prussia di Berlino, ricevette un articolo del giovane fisico indiano S. N. Bose da tradurre. In questo articolo Bose dimostrava come la  formula che dava la radiazione del corpo nero, ricavata  da Planck con metodi classici e con l’introduzione  dei quanti hn come artificio di calcolo, poteva essere ricavata con metodi statistici [si possono andare a rivedere i conti di Planck nell’articolo n° 18 pubblicato in questa stessa sezione). Era una statistica nuova quella che Einstein intravide nella nota di Bose ed egli stesso contribuì al suo sviluppo con due successivi articoli. Nasceva così la statistica quantistica: la statistica di Bose-Einstein.

     Vediamo brevemente questa nuova statistica ricordando che venne elaborata nel 1924, tre anni prima, cioè, del principio di indeterminazione di Heisenberg.

     Secondo la meccanica quantistica due molecole deb bono essere ritenute indistinguibili se ad esse compete la medesima energia. E’ questo il punto di partenza della statistica quantistica.

     Inoltre la statistica quantistica introduce  un nuovo concetto molto importante relativo alle dimensioni delle celle entro cui sistemavamo le molecole classiche.

     Abbiamo visto che nel metodo classico usato da Boltzmann le celle erano utili per farci intendere bene le cose, per renderci tangibile la distribuzione di un certo numero di molecole in certi stati energetici; queste celle erano insomma un intelligente, ma mero, artificio di calcolo.

      Inoltre le dimensioni delle celle non erano determinanti in alcun modo: esse potevano essere  prese piccole a piacere tanto che le confondevamo con un punto.

     Ora la meccanica quantistica pone un limite ben preciso all’estensione delle celle: il principio  di indeterminazione. Non avendo noi possibilità di misu rare simultaneamente posizione e velocità di una par ticella (si riveda il principio di indeterminazione al n° 38 di questa stessa sezione), ci sarà un certo volume minimo entro cui si potrà trovare questa particella, e questo volume minimo è dato dalla costante di Planck elevata al cubo (h3).

      A questo punto è necessaria una digressione. Il volume di cui si parla non è un ordinario volume (una lunghezza elevata al cubo), ma un ipervolume. Un volume cioè di uno spazio (spazio delle fasi) a più  di tre dimensioni.

    Ricordando che il principio di indeterminazione in una dimensione (una dimensione per la posizione ed una per la velocità) era:

(con h barrato o tagliato che vale h/2 p)si vede che h tagliato era la limitazione all’osservazione in una dimensione.

    In tre dimensioni (tre dimensioni per la posizio ne e tre dimensioni per la velocità: in un volume cioè a sei dimensioni) il principio di indeterminazione nell’osservazione di una particella diventa:

cioè la limitazione all’osservazione di una particella in tre dimensioni è h tagliato al cubo. Questo fatto vuol dire che non si può osservare con quanta precisione si vuole una particella in un certo volume ( Δx . Δy . Δz, volume ordinario adesso)  senza alterare considerevolmente il volume delle sue velocità (meglio: delle sue quantità di moto p). Possiamo allora dire qualcosa di più, a questo punto, sullo spazio delle fasi per una particella: è uno spazio a sei dimensioni, tre ordinarie e tre componenti la velocità della particella.

    Ritornando al volume delle celle, esse hanno quindi dimensioni.determinate dal volume h tagliato al cubo che corrisponde al volume minimo entro cui si possono, in teoria, individuare due particelle come distinte.

     A questo punto, possiamo porci il problema che ci eravamo posti prima di introdurre Boltzmann: dato un certo numero di particelle (specificheremo, di volta in volta, di che particelle si tratta), come si distribuiscono l’energia a disposizione? O meglio: quante celle contengono una sola particella, quante due o più, quante nessuna?

     Ricominciamo con il primo esempio visto allora.

     ESEMPIO 1

     Avevamo tre particelle da distribuire in   due celle, la distinguibilità delle particelle ci aveva fatto trovare otto distribuzioni differenti. Vediamo ora, attesa 1’indistinguibilità delle nuove particelle, quante distribuzioni otteniamo (ogni particella sarà ora indicata con una x).

Le distribuzioni sono ora in numero di quattro.

    Proseguiamo ora con il secondo esempio visto allora.

    ESEMPIO 2

    Avevamo tre particelle da distribuire in tre celle, la distinguibilità delle particelle ci aveva fatto trovare 27 distribuzioni differenti.

    Calcoliamoci ora, nell’ipotesi dell’indistinguibilità delle particelle, quante distribuzioni otteniamo.

Le distribuzioni sono ora in numero di dieci.

    Terminiamo con il terzo esempio visto allora.

   ESEMPIO 3

    Avevamo tre particelle da distribuire in quattro celle, la distinguibilità delle particelle ci  aveva fatto trovare 64 distribuzioni differenti. Andiamo o ra a vedere, tenendo conto dell’indistinguibilità del le particelle, quante distribuzioni otteniamo:

  Le distribuzioni sono ora in numero di 20. Vediamo, anche ora, di ricavare dagli esempi fatti una formula che ci dica in quanti modi N molecole si possono distribuire in Z celle, tenendo conto che in alcune celle vi possono essere anche più molecole mentre in altre può non esservene nessuna. La formula è quella delle combinazioni con ripetizione (ripetizione vuol dire che in ciascuna cella si possono collocare  più molecole) CR:

     Se abbiamo allora, ad esempio, N = 3 particelle da distribuire in Z = 4 celle, il numero di modi in cui ciò si può fare è dato da:

     Come appunto avevamo trovato nel terzo esempio fatto.

     Supponiamo ora di avere N = 3 particelle da distribuire in Z = 3 celle; il numero di modi in cui ciò  si può fare è dato da:

come avevamo trovato nel secondo esempio fatto.

     Supponiamo infine di avere N=3 particelle da distribuire in Z = 2 celle; il numero di modi in cui ciò si può fare è dato da:

come avevamo trovato nel primo esempio fatto.

     Non ci resta che dare la relazione finale trovata da Bose-Einstein ricordando che, in questo caso, il numero totale di particelle è N = n+ n+ …  (vedi in proposito quanto abbiamo detto trattando  Boltzmann)  mentre l’energia totale E è data da E = E1n1+ E2n+…, cioè dall’energia E1 tante volte quante sono le particelle a cui compete energia E1, dall’energia E2  tante volte quante sono le particelle a cui compete energia E2, ecc.

     Tenendo conto che i numeri N e Z con cui abbiamo a che fare sono grandissimi, la relazione precedente che ci dava CR può essere semplificata  nella

potendo ovviamente trascurare l’unità.

     Applicandosi le combinazioni a qualsiasi  valore dell’energia del gas, per la probabilità W avremo:

     Applicando anche qui la formula di Stirling, si ha:

     Poiché, come nel caso di Boltzmann, questa rela zione è valida per qualsiasi valore dell’energia, sem plifichiamola riferendoci subito ad una espressione con un indice generico i:

Passando ai logaritmi si ha:

log W = (n+ zi) log (n+ zi)  –  nlog  ni – zi log zi

Dobbiamo ora massimizzare questa espressione sotto le condizioni di conservazione del numero totale di particelle e dell’energia totale:

Si ni = N

  SEi ni = E

Si ha allora:

                                                                 d (log W) = 0

  (**)                                                           d (log W) –   α  Sdn – β SEdni = 0

Differenziando log W rispetto ad ni si ottiene:

  d (log W) = [log (n+ zi) + 1 – log ni – 1]  dni  = 0      =>         d (log W)  = log  [(n+ zi)/ni]  dni.

Inserendo questa espressione nella (**) e facendo una considerazione analoga a quella fatta qualche riga più su a proposito delle sommatorie che compaiono nella (**) si ha:

avendo posto e α  = C.

     In definitiva la relazione di Bose-Einstein, che ci fornisce le possibili distribuzioni di una energia (totale) E fra un insieme di N particelle identiche e debolmente interagenti, è:

con: il primo membro  =   numero di particelle che possiedono energia Ei (la barra sopra ad n sta per “numero medio”);

z(Ei) =   numero di stati (cellette) del sistema a cui compete energia E, o, meglio, densità degli stati per unità di energia e di volume;

C   =   parametro da determinarsi imponendo che la somma di tutte le particelle sia co stante ed uguale ad N;

K   =   costante di Boltzmann;

T   =    temperatura (assoluta) a cui si trova il sistema.

     La relazione scritta non è così facilmente interpretabile come quella di Maxwell-Boltzmann; essa  ci dice comunque che il numero medio n(Ei) di particelle che hanno energia Ei, dipende dal numero z(Ei) di  stati a cui compete energia Ei secondo il termine moltiplicativo scritto in forma di frazione  al secondo membro.

     In altre parole, potendosi interpretare n(Ei) come il numero degli stati (ad energia Ei) che possono essere occupati e z(Ei) come la probabilità che  uno stato (ad energia Ei) sia occupato [e quindi come pe so statistico da dare ad ognuna delle possibili  distribuzioni che ci sono date dalla (4′)], la (4′)  ci dice che il numero di stati (ad energia Ei) che possono essere occupati è proporzionale al peso statistico dello stato (ad energia Ei) moltiplicato per il fattore scritto sotto forma di frazione.

     Anche l’eliminazione del parametro C richiede , in questo caso, un calcolo che non siamo in grado di affrontare. Fissata comunque, anche qui, una energia E0  di riferimento, per il parametro C si trova:

C = eE0/kT       =>   1/C  = e-.E0/kT   ,

mentre la (4′) si può scrivere (avendo eliminato per comodità gli indici i) ;

     Ricordando di nuovo che la probabilità è definita come il numero dei casi favorevoli diviso per  il numero dei casi possibili, possiamo anche qui dire che il rapporto n(E)/z(E) rappresenta la probabilità di avere particelle con energia E ≠ E0 . Possiamo indicare questa probabilità con il simbolo fE(E) e chiamarla funzione di distribuzione di Einstein:

Per il numero medio n(E) di particelle indistinguibili (che si possono intendere anche come il numero degli stati occupati) a cui compete energia E ≠ E,  si ha allora:

con: il primo membro  =   numero degli stati occupati; z(E)  =   numero degli stati a disposizione  o, meglio, densità degli stati (per unità di energia e di volume) ; si può dimostrare che z(E) =  β E½ essendo β una costante; fE (E)=    probabilità che uno stato sia occupato. La (6) dice che il numero n(E) di particelle con energia E ≠ E0  dipende dal numero di stati che hanno energia E (dalla densità degli stati con energia E), decresce esponenzialmente all’aumentare dell’energia E e tende verso un numero grandissimo, quando E si avvicina sempre più ad E0 (E -> E0 ); oppure, in altre pa role, il numero degli stati occupati è dato dal prodotto della densità degli stati per la probabilità che uno stato sia occupato.

     Cerchiamo di comprendere meglio il significato delle relazioni scritte servendoci del grafico della (5).

     Tenendo conto che fE(E) è una probabilità matematica, essa può assumere 1 come suo massimo valore.

      Imponiamo quindi che fE(E) sia uguale ad 1 e cer chiamoci le condizioni per l’energia E. Si ha:

Quindi, per E = E0 + KT log 2,  la fE(E) ha un massimo che vale 1.                 

     Si vede poi che quando E è molto grande, e diventa grandissimo e quindi l’uno al denominatore si può trascurare; rimane, perciò, solo un numero  molto grande al denominatore e questo fatto ci dice che  la fE(E)  diventa molto piccola  (fE(E)  -> 0).

     Il grafico diventa allora:  

(dove E’ = E0 + kTlog2).

     Si osservi che per T -> 0 la fE(E) assume il suo massimo valore ad E = E0  e che, anche qui, non si può andare sotto E0 .

     Prima di concludere con la statistica di Bose-Einstein facciamo una importante osservazione: se non ci fosse il -1 al denominatore della relazione (4′), che ci dà la statistica di Bose-Einstein, essa sarebbe uguale alla relazione trovata da Maxwell-Boltzmann (**). Infatti:

Possiamo allora dire che quando il  -1 al denominatore della (4′) si può trascurare rispetto a  (1/C).e-Ei/kT  ,  le statistiche di Bose-Einstein e di Maxwell-Boltzmann coincidono.

7 – LA STATISTICA DI FERMI-DIRAC

Arrivati a questo punto siamo in grado di  dire come si distribuisce l’energia fra le molecole costituenti un gas classico e quantistico. Rimane però in sospeso la nostra questione iniziale: come si distribuisce l’energia fra gli elettroni in un metallo.Per vedere in che punti differiscono le due questioni, ricapitoliamo brevemente cos’ è una molecola in un  gas secondo il punto di vista classico di Boltzmann, cosa è una particella di Bose secondo il punto di vista quantistico affermatosi successivamente e cos’ è un elettrone in un metallo alla luce del principio di Pauli.

     Quando Boltzmann, intorno al 1880, ricavò la sua statistica (estendendo un metodo precedentemente -1860 – usato da Maxwell) ancora non era stato scoperto l’elettrone (J. J.  Thomson, 1897), ancora la teoria atomistica si dibatteva tra grosse difficoltà  e  decisi oppositori (la seconda metà dell’800 vide la progressiva affermazione della teoria del campo come supporto alla teoria dell’azione a contatto ed in op posizione alla teoria corpuscolare che era il supporto, consapevole od inconsapevole, della teoria dell’azione a distanza) i quanti non erano ancora nati  (Planck 1901), tanto meno si era sviluppato il principio di indeterminazione (Heisenberg, 1927) e la meccanica ondulatoria e quantistica (diversissimi contributi :tra il 1901 ed .il 1927).

      La statistica di Boltzmann poteva dunque nascere solo legata ai corpuscoli costituenti un gas, corpuscoli i quali, non essendosi mai manifestati, erano soltanto delle piccolissime sfere rigide, indivisibili e perfettamente elastiche chiamate “molecole”.

      Boltzmann, d’altra parte, era un fisico classico, e per lui, fissata la posizione e la velocità di una molecola ad un certo istante era possibile saper tutto su di essa relativamente ad ogni altro istante precedente e successivo solo applicandovi le leggi newtoniane del moto. Questa molecola poteva  dunque essere seguita nel suo movimento: manteneva cioè una sua individualità.

     Il fisico indiano Bose si forma alla scuola della fisica quantistica. Egli, prima del principio  di indeterminazione, intuisce l’indistinguibilità delle particelle ed elabora, con il determinante contributo di Einstein, una statistica che si differenzia da quella di Boltzmann in due punti importantissimi: le particelle sono indistinguibili ed il volume della cella non è più piccolo a piacere, ma ben determinato. Le particelle costituenti il gas di Bose sono dunque indistinguibili, esse, analogamente alle molecole di Boitzmann, interagiscono debolmente e possono trovarsi in una fissata cella (anche come dimensioni) in qualsivoglia numero.

     Intanto (1897) nasceva l’elettrone e questa nascita porta un poco di scompiglio nella fisica. L’esistenza di un corpuscolo di carica negativa solleva di versi problemi soprattutto sulla costituzione atomica: se l’elettrone negativo appartiene ad un  atomo neutro, deve esservi nell’atomo una carica positiva. Ben presto (1911) Rutherford dà un’identità a questa carica positiva e la pone al centro dell’atomo.Nasco no però dei problemi di stabilità per l’edificio atomico per sistemare i quali Bohr (1911) lo puntella con i quanti introdotti da Planck. Il resto è storia nota.

     E’ la storia che porta alle formulazioni complete delle meccaniche ondulatoria e quantistica.

     L’elettrone paga un certo prezzo per aver contribuito a scombussolare tutto: perde la sua consistenza diventando, nell’atomo, nuvola di probabilità.

      Inoltre Pauli lo costringe a stare su di un livello energetico in compagnia di un solo altro elettrone, a patto che quest’ultimo abbia spin opposto.

     In definitiva gli elettroni non hanno  una loro individualità: se possiedono la medesima energia sono assolutamente indistinguibili tra di loro (nessuno si accorgerebbe dello scambio di posto di  due elettroni con la stessa energia).

     Di questi elettroni infine ve ne possono essere al massimo due su ogni livello energetico (se  hanno spin antiparalleli) ovvero, che è lo stesso,  vi può essere un solo elettrone in ogni stato: fissata  una celletta (uno stato) su questa o c’è un  elettrone o non c’è. E queste sono le premesse che hanno portato Enrico Fermi a formulare nel 1926 la famosa statistica che prende il nome di statistica di Fermi-Dirac.

     Appunto nel 1926 Fermi, ancora in Italia, e stese il principio di Pauli dall’ambito di un solo a tomo ad un sistema fisico più complesso qual’è un gas.

     Nel suo fondamentale articolo Fermi prese le mosse dai lavori di Nerst del 1906 [ la famosa legge da lui ricavata e conosciuta anche come il terzo principio della termodinamica, afferma l’impossibilità di raggiungere lo zero assoluto] sull’entropia e dal principio di Pauli enunciato appena un anno prima per introdurre una nuova trattazione statistica. Qualche mese più tardi, ed indipendentemente, anche Dirac arrivò agli stessi risultati; per questo la statistica che ora studieremo prende il nome di statistica di Fermi-Dirac.

     Le considerazioni fatte si possono riassumere così: gli elettroni non sono distinguibili ed al massimo ce n’è uno solo in ogni celletta (stato).

     La domanda che ci poniamo è la seguente: dato un certo numero di elettroni, come si distribuiscono l’energia a disposizione?

     Riprendiamo allora in considerazione i tre esempi fatti sia nel caso di Maxwell-Boltzmann sia nel caso di Bose-Einstein.

ESEMPIO 1

     Avevamo tre particelle da distribuire in due celle: nel caso di Maxwell-Boltzmann avevamo trovato otto distribuzioni, nel caso di Bose-Einstein ne avevamo trovate quattro.

     In questo caso, l’esempio non è proponibile  in quanto per sistemare tre elettroni in due stati dobbiamo necessariamente metterne due in uno stato solo e la cosa è in contrasto con il principio di Pauli.

ESEMPIO 2

     Avevamo tre particelle da distribuire in tre celle: con la trattazione di Maxwell-Boltzmann avevamo trovato 27 distribuzioni, con quella di Bose-Einstein ne avevamo trovate 10. Vediamo quante se ne possono trovare con la statistica di Fermi-Dirac (indichiamo, come nel caso di Bose-Einstein, ogni elettro ne con una x); si ha:

Evidentemente si ha una sola distribuzione possibile.

ESEMPIO 3

     Avevamo tre particelle da distribuire in quattro celle: con il metodo di Maxwell-Boltzmann avevamo trovato 64 distribuzioni, con quello di Bose-Einstein ne avevamo trovate 20. Cerchiamo ora le possibili distribuzioni secondo le nuove ipotesi di Fermi-Dirac, si ha:

Ora le distribuzioni sono in numero di quattro.

     Anche ora cerchiamoci, in base agli esempi fatti, una semplice formula che ci informi sul numero dei modi in cui N elettroni si possono distribuire in Z celle, tenendo conto che in una cella o c’è un solo elettrone o non ce n’è nessuno.

     La formula è analoga a quella vista in Bose-Einstein; è anch’essa una formula che ci dà il numero di combinazioni, però, questa volta, senza ripetizioni (nel senso che in ogni cella vi può essere  al massimo un elettrone). La formula delle combinazioni senza ripetizione (CSR) è:

Riapplichiamola ai nostri esempi e confrontiamo i risultati.

     Se abbiamo N = 3 elettroni da distribuire in Z = 2 celle si ha:

e la relazione non ha significato perché, come si vede, al denominatore compare (-1) ed il fattoriale è definito solo per  numeri naturali, per i numeri cioè interi e positivi (oltre al numero zero, avendo definito 0!=1).

     Se abbiamo N = 3 elettroni da distribuire in Z = 3 celle si ha:

come abbiamo ottenuto nel secondo esempio.

     Se abbiamo N = 3 elettroni da distribuire in Z = 4 celle si ha:

come abbiamo trovato nel terzo esempio.

     Applicandosi le combinazioni CSR a qualsiasi valore dell’energia del gas, per la probabilità matematica W avremo:

Applicando anche qui la formula di Stirling si ha:

Valgono anche qui le stesse considerazioni (fatte per Maxwell-Boltzmann e per Bose-Einstein) sulle sommatorie, per cui possiamo scrivere:

Passando ai logaritmi si ha:

  log W = zlog z–  ni log n–  ( z– ni)  log  ( z– ni )

Massimizzando, sotto le condizioni  Sni  =  N    e  Si En= E, si trova:

                                                                       d (log W) = 0

(**)                                                                d (log W) – α Sdn. – βSEdn=0

Differenziando log W rispetto ad ni si ottiene:

     d (log W) = [ – log ni – 1 + log (z– ni) + 1] dni         =>          d (log W)  = log [(zi – ni)/zi] . dni

Inserendo questa espressione nella (**) e facendo una considerazione analoga a quella fatta qualche riga più su a proposito delle sommatorie che compaiono nella (**) si ha:

avendo posto e-α   =  C.

     Possiamo allora dare la relazione di Fermi-Dirac che ci fornisce le possibili distribuzioni di una energia (totale) E fra un insieme di N elettroni (identici e soggetti al principio di Pauli); essa è:

con: il primo membro  =   numero di elettroni che possiedono energia Ei ( la barra sopra ad n, che ometteremo discorsivamente, sta per “numero medio”); z(Ei) =  numero di stati (cellette) del sistema a cui compete energia E, o meglio, densità degli stati per unità di energia e di volume; C = parametro da determinarsi imponendo che la somma di tutte le particelle sia costante ed uguale ad N; K = costante di Boltzmann; T =  temperatura (assoluta) a cui si trova il sistema.

      La relazione scritta ci dice che il numero n(Ei) di elettroni, che ha energia E, dipende dal  numero z (Ei) di stati a cui compete energia Ei  secondo  il termine moltiplicativo di z(Ei)  al secondo membro.

      In altre parole, potendosi interpretare n(Ei) come il numero degli stati (ad energia Ei) che posso no essere occupati e z(Ei) come la probabilità che uno stato (ad energia Ei) sia occupato [e quindi: co me peso statistico da dare ad ognuna delle possibili distribuzioni che ci sono date dalla (7′)], la (7′) ci dice che il numero di stati (ad energia Ei) che possono essere occupati è proporzionale al peso statistico dello stato (ad energia Ei) moltiplicato per il fattore moltiplicativo di z(Ei).

     Facciamo subito delle considerazioni: se non ci fosse il +1 al denominatore la (7′) sarebbe identica alla distribuzione di Maxwell-Boltzmann. Infatti:

     Possiamo allora dire che, quando il +1 al denominatore della (7′) si può trascurare rispetto  all’altro termine che vi compare , anche la statistica di Fermi-Dirac (oltre a quella di Bose-Einstein nel caso si poteva trascurare il -1 al denominatore) coincide con quella  di Maxwell-Boltzmann.

     Un’altra osservazione relativa al confronto tra le formule che ci forniscono le statistiche di Bose- Einstein e di Fermi-Dirac: le due statistiche differiscono apparentemente solo per un’inezia, solo per il fatto che al denominatore dell’una (Bose-Einstein) c’è -1 mentre al denominatore dell’altra (Fermi-Dirac) c’è +1. Questo fatto è invece estremamente importante e differenzia profondamente le due statistiche come vedremo nel seguito.

     Occorrerebbe a questo punto eliminare il parametro C ma, come nel caso di Bose-Einstein, non siamo in grado di fare questo conto. Fissiamo allora, anche qui, una energia di riferimento e chiamiamola EF  (energia di Fermi).

     Per il parametro C si trova:

                                               C  =  e EF/kT    =>   1/C   =  e – EF/kT

mentre la (7′) si può scrivere (avendo eliminato per comodità gli indici i)

Ricordando, ancora una volta, che la probabilità  è definita come il numero dei casi favorevoli diviso per il numero dei casi possibili, possiamo dire che il rapporto n(E)/z(E) rappresenta la probabilità di   avere elettroni con energia E   EF. Possiamo indicare questa probabilità con il simbolo fF(E) e chiamarla funzione di distribuzione di Fermi:

Per il numero di elettroni (indistinguibili e soggetti al principio di Pauli) con energia E   EF (con E= energia di riferimento) si ha allora:

con: n(E) =   numero degli stati occupati; z(E)  =   numero degli stati a disposizione o, meglio, densità degli stati (per unità di energia e di volume); si può dimostrare che z(E) = g.E1/2  essendo g una costante; fF(E) =  probabilità che uno stato sia occupato. La (9) dice che il numero n(E) di elettroni con energia E   EF dipende dal numero di stati che  hanno energia E (dalla densità degli stati con energia E), decresce esponenzialmente all’aumentare dell’energia E e tende a ridursi alla metà quando E assume valori sempre più vicini ad EF (E -> EF ) ; oppure, in altre parole, il numero degli stati occupati è dato dal prodotto della densità degli stati per la probabilità che uno stato sia occupato.

     Vediamo anche ora, come abbiamo fatto per Maxwell-BoItzmann e per Bose-Einstein, i grafici delle relazioni scritte.

     Cominciamo con lo studiare il grafico della (8). Poiché la temperatura risulta, in questo caso, un pa rametro molto importante, cominciamo con il distinguere due casi:

                                                                  1)  T = 0

                                                                  2)  T  0

e studiamo la (8) prima nel caso in cui risulti T=0 e quindi nel caso risulti T  0.

     Sia poi, che risulti T=0  o T  0, si possono avere diverse eventualità per i valori assunti dall’ energia, cioè:

1)  può risultare T = 0 e       o         a) E < EF;     o      b) E > EF;

2)  può risultare T  0 e        o         a)  E < EF;       o     b) E = EF;        o         c) E > EF.

Studiamo allora i vari casi che si possono presentare. Si ha:

1 a)     T = 0;       E < EF;   =>     E – EF < 0

Si ha:

e questo vuol dire che a energie E < EF  la fF(E)  si mantiene sempre uguale ad 1.

1 b)      T = 0;      E > EF     =>     E – EF > 0

Si ha:

e questo vuol dire che a energia E > EF  la  fB(E) si mantiene sempre uguale a 0.

     Il grafico della funzione di distribuzione   di Fermi fF (E), nell’eventualità che risulti T=0, è allora fatto:

Che significa un grafico come quello ora disegnato? Ricordiamo che fF(E) rappresenta la probabilità  che uno stato sia occupato e che avere una probabilità 1 vuol dire avere certezza dell’evento mentre avere probabilità 0 vuol dire impossibilità dell’evento; allora il grafico rappresenta la situazione descritta nel seguito.

     Allo zero assoluto (T = 0) tutti i possibili stati al di sotto dell’energia di Fermi (EF) sono occupati, mentre tutti i possibili stati al di sopra  di EF sono vuoti (tra parentesi diamo una prima definizione dell’energia EF di Fermi: è l’energia che compete al più alto livello energetico occupato quando ci troviamo allo zero assoluto; e poiché il più alto livello occupato dipende dal numero di elettroni che si hanno per unità di volume, possiamo dire che la posizione del livello di Fermi dipende dal numero di elettroni per unità di volume che si hanno).

      Si osservi che per E=EF la fF(E) presenta una dis continuità passando dal valore 0 al valore 1.

      Continuiamo allora a studiare i casi che abbiamo elencato qualche pagina indietro.

2 a)   T  0;      kT  <<  EF     =>     E << EF       =>       E – EF << 0

Si ha che in base alle posizioni iniziali, e -.(E  – EF)/kT risulta piccolissimo potendosi quindi trascurare rispetto all’uno del denominatore:

e questo vuol dire che ad energia E << Ela fF(E) ha lo stesso andamento della fF(E) a T = 0.

2 b)  T  0;     kT qualunque,        E = EF       =>         E – EF  = 0

Si ha:

e questo vuoi dire che per E = EF  la  fF(E) si è ridotta alla metà rispetto al valore che aveva a T=0.

2 c)   T  0;       kT >> EF    =>     E > EF        =>    E – EF > 0

Si ha che, in base alle posizioni iniziali, si  può trascurare l’uno al denominatore rispetto ad e -.(E – EF)/kT che risulta grande:

e questo vuoi dire che la fF(E) assume un’espressione uguale a quella della fB(E) di Boltzmann quando E > EF.

      Il grafico che ne risulta è il seguente:

     Si può vedere che quando E << EF  il grafico è praticamente lo stesso che si otteneva a T = 0. Quindi all’aumentare della temperatura T (o dell’energia E) solo gli elettroni che hanno una energia pari alla Edi Fermi meno alcuni kT acquistano energia e vanno a occupare stati liberi ad energia più alta. Dal livello EF di Fermi in poi (al crescere di E) sono  pochi gli elettroni e tanti gli stati, quindi la situazione statistica è analoga a quella di un gas, analoga cioè a quella trattata da Maxwell-Boltzmann (ricordiamo che questo fatto era stato osservato già in precedenza quando avevamo affermato che nel caso il +1 al denominatore della fF(E) si poteva trascurare ritornavamo nel caso della funzione di distribuzione fB(E)  di Boltzmann); si parla allora  (quando cioè E >EF) di una coda di Boltzmann. Ancora qualcosa c’è da dire a proposito del livello EF di Fermi. Con i no stri conti abbiamo visto che per E = EF si ha fF(E) = 1/2 . Ricordando allora il significato di  fF(E)  possiamo dare quest’altra definizione del livello  EF  di Fermi: è il livello che  a T = 0 ha una probabilità del 50% di essere occupato.

     Dopo aver visto l’andamento della fF(E) sia  a T = 0 sia a T  0 , vediamo qual è l’andamento della z(E) densità degli stati; si ha:

  z(E) = g . E½

ricordando quanto sappiamo di geometria analitica, l’espressione scritta rappresenta  un arco di parabola con vertice l’origine degli assi e con asse la direzione positiva dell’asse delle ascisse (nel nostro caso E):

Rimane ora da studiare solo l’andamento della relazione (9) che è il prodotto tra la fF(E) e la z(E):

Anche qui occorrerà distinguere nei vari casi che abbiamo già elencato quando abbiamo discusso la fF(E):

1 a)    T = 0;         E < EF       =>       E – EF <  0

Si ha:

e questo vuol dire che a energia E < EF la n(E) ha  lo stesso andamento visto per la z(E).

1 b)    T = 0;         E > EF       =>       E – EF >  0

Si ha:

e questo vuol dire che a energie E >E, la n(E) ha  lo stesso andamento visto per la fF(E)  quando, appunto, si aveva E > EF.

     II grafico del numero degli stati occupati n(E), in funzione dell’energia E, nell’eventualità che risulti T = 0, è allora fatto:

     Cerchiamo di capire il significato di un grafico come quello ora fatto.

     Innanzitutto il grafico rappresenta il numero relativo di elettroni nello stato più stabile (T = 0) in funzione dell’energia.

     Per ogni unità di energia (asse delle ascisse) si ha un minor numero di elettroni (asse delle ordinate) quando l’energia è piccola (E ≈ 0) del numero di elettroni che si ha quando l’energia è grande (E ≈ EF) . Quando poi l’energia supera EF  allora non si ha più nessun elettrone negli stati liberi ad energia superiore, appunto, ad EF. Questo fatto si verifica perché a basse energie gli intervalli tra livelli energetici sono più grandi degli intervalli tra  livelli a basse energie:

      Quindi i livelli energetici sono più distanziati a basse energie di quanto lo siano ad alte energie; questo fatto comporta che più elettroni per unità di energia si possono sistemare ad energia più al ta.                      

      Tutti i livelli energetici sono così occupati da tutti gli elettroni che si hanno a disposizione, fino al livello EF di Fermi. Tutti i livelli fino ad EF sono occupati e gli elettroni risultano ben impacchettati: nessun elettrone ha una energia, neppure di poco, superiore a quanto gli è necessaria per occupa re i successivi livelli energetici (in accordo con il principio di Pauli e con l’indistinguibilità degli elettroni).

     Continuiamo allora a studiare i possibili casi che si possono verificare.

2 a)    T  0;         kT << EF          =>          E << EF           =>              E – EF <<  0

Si ha che, in base alle posizioni iniziali,  e (E-EF)/kT  risulta piccolissimo potendosi quindi trascurare rispetto all’uno al denominatore:

e questo vuol dire che ad energia E << Ela n(E) ha lo stesso andamento della n(E) a T = 0.

2 b)    T  0;             kT qualunque;         E   =  EF       =>          E – EF   =  0

Si ha:

e questo vuol dire che, quando E = EF , la n(E) si è ridotta alla metà rispetto al valore che aveva a T = 0.

2 c)      T  0;             kT   >>   EF       =>       E  >>  EF       =>          E – EF   >>  0

Si ha che, in base alle posizioni iniziali, si può trascurare l’uno al denominatore rispetto ad e -.(E-EF)/kT che risulta grande:

e questo vuol dire che, quando E >> EF, la n(E) assume una espressione uguale a quella che avevamo trova to per la n(E) di Boltzmann.

     Il grafico che ne risulta è il seguente:

     Si può subito osservare che quando E  <<  EF  il grafico è praticamente lo stesso che si otteneva a T = 0.

     All’aumentare della temperatura T (o dell’energia E) solo gli elettroni che hanno una energia pari alla EF di Fermi meno alcuni kT acquistano energia e vanno ad occupare stati liberi ad energia più alta.

     Dal livello di Fermi (EF) per valori dell’energia (E) crescenti sono pochi gli elettroni,  mentre gli stati sono praticamente infiniti; la situazione statistica è allora la stessa di un gas di molecole, analoga cioè a quella trattata da Maxwell-Boltzmann; conseguenza di ciò è che la parte di grafico che  si sviluppa da EF  verso le E crescenti è chiamata coda di Boltzmann.

     Un’ultima cosa, estremamente importante, da evidenziare è che allo zero assoluto (T = 0) l’energia posseduta da un insieme qualsivoglia di elettroni non si annulla (non potendovi essere più di un elettrone per cella è evidente che la cella a cui compete energia E = 0 potrà essere occupata da un solo elettrone; tutti gli altri elettroni si sistemeranno in celle ad energia superiore).

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: