Fisicamente

di Roberto Renzetti

di Roberto Renzetti

INTRODUZIONE: LA CORRENTE ALTERNATA, L’ILLUMINAZIONE ELETTRICA E L’ELETTRONE

        Dal tempo in cui Faraday aveva inventato l’induzione elettromagnetica (1833), le macchine elettriche si sono perfezionate a velocità ragguardevole e sono cresciute in potenze disponibili tanto da diventare nel corso di soli 50 anni veri e propri giganteschi apparati industriali per la produzione di energia elettrica. Per provocare le veloci variazioni di flusso necessarie alla produzione di corrente alternata si arrivò ad utilizzare l’accoppiamento con macchine a vapore mediante cinghie di trasmissione. Quest’ultimo veniva via via sostituito con l’applicazione diretta del moto rotatorio tramite sistemi a turbina e si cominciava, da una parte, ad utilizzare l’acqua in caduta per originare il moto della turbina accoppiata all’alternatore (fra il 1886 e il 1893 la Westinghouse costruì negli USA la centrale di Niagara Falls da 200.000CV, con propri alternatori e turbine idrauliche Francis), e dall’altra, questa turbina era messa in moto dal vapore prodotto in una centrale in cui si bruciavano combustibili fossili. Questi accoppiamenti insieme a macchine sempre più affidabili, permisero via via l’uso industriale dell’elettricità. In parallelo alle ricerche sulle macchine elettriche per produrre elettricità, andava avanti anche

Centrale elettrica in costruzione (Deptford, 1889)

la ricerca sul come prelevarla per illuminare, particolarmente per l’illuminazione pubblica. Le prime esperienze riguardarono dimostrazioni con lampade ad arco (che ebbero diverse e successive varianti dalla loro invenzione al 1876) alimentate da dinamo ad anello di Gramme che rendeva l’operazione relativamente economica e applicazioni limitate come quelle per illuminare una fabbrica a Mülhausen in Germania (ormai unificata), la Gare du Nord di Parigi (1875), il Gaiety Theatre di Dublino (1878). Ma senza uno sviluppo delle lampade non si sarebbe andati molto avanti.

        La svolta si ebbe nel 1879 quando lo statunitense Thomas Alva Edison (1847-1931) brevettò nel dicembre del 1878 una lampada ad incandescenza con filamento di platino. Il fatto è che Edison era uno dei furbastri americani che brevettava pure l’aria, fregando in tal modo ogni concorrente che avesse avuto una tale invenzione ma in grado di funzionare (analogo personaggio fu Bell). Gli studi e le esperienze in tal senso furono dell’inglese Joseph Swann (1828-1914) che aveva iniziato molto prima, sperimentando con lampade ad incandescenza utilizzanti filamenti di carbone. Swann, basandosi su un vecchio brevetto di J. W. Starr (1822-1847) che aveva osservato lo scaldarsi e l’illuminare di filamenti di carbone percorsi da corrente, a partire dal 1848 iniziò a realizzare diversi marchingegni che avrebbero dovuto portarlo ad un sistema di illuminazione diverso dall’arco voltaico.  Capì che qualunque fosse stato il materiale da rendere incandescente, l’impresa del suo mantenimento incandescenze sarebbe risultata momentanea se non si fosse riusciti a realizzare l’incandescenza dentro un bulbo di vetro in cui fosse fatto un buon vuoto. In quegli anni però le pompe da vuoto non erano ancora all’altezza delle caratteristiche richieste. Swann tornò sulla questione solo dopo che Hermann Sprengel nel 1865, non ebbe realizzato una pompa da vuoto molto perfezionata (a vapori di mercurio). Tale pompa era stata utilizzata con successo da William Crookes per esperienze sul vuoto e da qui Swann ritrovò lo stimolo della ricerca sulle lampade ad incandescenza, presentando una tale lampada (non in funzione) in una riunione della Chemical Society di Newcastle-upon-Tyne nel dicembre 1878.

Lampada ad incandescenza di Swann

        Swann non riteneva ancora di brevettare in quanto i suoi studi erano in corso. ma arrivò Edison e nel gennaio 1880 brevettò una lampada ad incandescenza (fatta funzionare per la prima volta il 21 ottobre 1879). Fu comunque Swann che proseguì gli studi sul miglioramento del filamento che, con le prime lampade, non superava le 40 ore di accensione. E’ da notare che in Italia, Alessandro Cruto

In A  lampada di Edison a filamento di carbone (1881); in B altra lampada di Edison (1882); in C gruppo di lampade Edison.

(1847-1908) realizzò una lampada ad incandescenza 35 giorni dopo quella di Edison con la differenza che i suoi filamenti avevano una durata di 500 ore. Una fabbrica di lampadine Cruto nella cintura di Torino venne rilevata dalla Philips. Le cose migliorarono a partire dal 1903 quando William. T. Coolidge realizzò il filamento di tungsteno che portò la durata delle lampade ad incandescenza a 1000 ore.

        Iniziò allora l’industria elettrica con tutto ciò che ruota intorno ad esse (fonti, centrali in muratura, alternatori, dinamo, turbine, cavi elettrici, trasformatori, lampade e strumenti d’uso, strumenti di misura per fatturare), …

        Ho già trattato di tutti questi sviluppi, a partire dai lavori di Faraday, nel lavoro La scienza elettrica si fa tecnica, a cui rimando, affronto qui altri sviluppi che in qualche modo si ebbero a partire dall’invenzione della lampada ad incandescenza.

        Prima però di iniziare ricordo ancora altre scoperte, delle quali ho già parlato nel lavoroin cui ho trattato della scoperta dell’elettroneed in quello in cui ho parlato del modello atomico di Bohr, che maturavano sul finire dell’Ottocento e che avranno sviluppi clamorosi quando si intersecheranno con problematiche tecniche. Quanto detto in quelle sedi lo dò per scontato.

GLI ELETTRONI PROTAGONISTI

        La corrente elettrica alternata era considerata, ai suoi inizi, un fenomeno ondulatorio ben descritto dalle equazioni del campo elettromagnetico. Con la teoria degli elettroni di Lorentz(1) (1892/1899) e con la scoperta dell’elettrone di J.J. Thomson (1897) le cose cambiarono perché si iniziò a disporre di una sorta di teoria unificata dei comportamenti della materia per la mole dei fenomeni inquadrabili sotto il nome di elettricità, siano essi stati il semplice passaggio di corrente continua che i fenomeni implicati nella complessa fenomenologia delle onde elettromagnetiche. In questo senso basti solo ricordare quale importanza ebbe l’ammissione di cariche elettriche elementari nella spiegazione delle svariate esperienze che abbiamo incontrato quando ho affrontato le scariche nei gas rarefatti. Ed in proposito vale qui la pena il sottolineare che tali scariche avvenivano anche in tubi di vetro dentro i quali era stato fatto il vuoto e quindi abbassata notevolmente la pressione.

        Fu ancora J.J. Thomson che, nel suo libro Conduction of Electricity through Gases (1903), una sorta di rassegna completa delle conoscenze più avanzate del tempo sui gas ionizzati (conoscenze che per arrivare ad un minimo di compimento abbisogneranno ancora di almeno 50 anni), fornì una prima teoria che spiegava il comportamento delle scariche nei gas attraverso l’ammissione che la conduzione dell’elettricità in tali gas a bassa pressione fosse dovuta alla presenza di piccole cariche che egli chiamò ioni. Thomson però chiamava ioni sia le particelle positive che quelle negative e non usava la parola elettroni i quali potevano essere invocati solo per la loro massa estremamente più piccola ricavata con le misure di e/m.

        Nel suo libro Thomson trattava anche delle esperienze più recenti relative ai vari fattori che provocano la ionizzazione, come l’effetto termoionico, gli effetti della radiazione ultravioletta, della radiazione α e β, dei raggi X. Nello studio delle collisioni degli ioni con altri ioni o con atomi, particolare importanza acquistava il concetto di mobilità. Sotto l’azione di un campo elettrico E, uno ione o elettrone acquista infatti una velocità μE che è proporzionale al campo. La grandezza μ è la mobilità, introdotta a suo tempo per lo studio del moto degli elettroliti, che è strettamente connessa con i concetti sviluppati in teoria cinetica dei gas di velocità media e di libero cammino medio tra due collisioni ma anche con la teoria di Paul Drude (1853-1906) della conducibilità dei metalli e, come vedremo, per la teoria della conduzione elettrica nei semiconduttori. 

        La teoria di Drude(2) della conduzione elettrica dei metalli nasce tre anni dopo la scoperta dell’elettrone fatta da Thomson ed è un fortunato tentativo di applicazione della teoria cinetica ad un gas di elettroni liberi in moto all’interno dei reticoli cristallini che costituiscono la struttura del metallo conduttore. L’energia cinetica di ciascuna carica in movimento è uguale all’energia cinetica media di una molecola di un gas perfetto alla medesima temperatura. Le ipotesi alla base di tale teoria sono: a) quando atomi di un elemento si mettono insieme per formare un metallo, gli elettroni di valenza restano liberi di muoversi attraverso i reticoli del metallo medesimo mentre gli ioni positivi si comportano come particelle positive quasi immobili; b) gli elettroni interagiscono continuamente con gli ioni e fra due successive interazioni si muovono liberamente, si devono quindi trascurare le interazioni elettrone-elettrone; c) le interazioni devono essere considerate istantanee; d) le collisioni sono caratterizzate dal tempo medio τ tra due collisioni successive (chiamato tempo di rilassamento) di modo che la probabilità di collisione per unità di tempo è data da τ-1; e) gli elettroni raggiungono l’equilibrio termico solo attraverso le collisioni; la velocità, dopo una collisione, ha una direzione casuale e dipende dalla temperatura; nelle equazioni si dovranno considerare, come nella teoria cinetica, le velocità medie. Con tali premesse Drude, applicando la legge di Ohm, si ricavò la densità di corrente j in funzione del campo elettrico E applicato:

dove σ è la conducibilità data da:

dove n è il numero di elettroni per unità di volume, q è la carica dell’elettrone, τ è il tempo medio tra due urti successivi dell’elettrone, m è la massa dell’elettrone.

Gli elettroni in moto tra gli ioni di un metallo con i quali hanno continui urti.

        Questa teoria venne accettata perché, oltre a spiegare in modo semplice la conducibilità elettrica e varie leggi note dell’elettricità (come l’effetto Joule originato dalle collisioni disordinate di elettroni con ioni), dava una spiegazione soddisfacente della vecchia legge di Wiedemann-Franz(3)  la quale stabiliva che a diverse temperature la conducibilità termica χ ed elettrica σ sono approssimativamente le stesse per tutti i metalli risultando proporzionali tra loro e che il rapporto tra conducibilità termica e conducibilità elettrica è proporzionale alla temperatura assoluta χ/σ = cost.T(4).

        La teoria presenta però delle difficoltà una delle quali è immediatamente evidente. Si può notare che la densità di corrente è direttamente proporzionale al numero di elettroni per unità di volume. Sembra cioè che più sono gli elettroni di valenza che costituiscono il gas di elettroni, più densità di corrente si debba considerare. Sperimentalmente le cose non stanno così perché migliore conducibilità presentano i metalli con uno o due elettroni di valenza. Inoltre, secondo la teoria di Drude, la resistività elettrica dovrebbe variare come la radice quadrata della temperatura assoluta mentre sperimentalmente questa dipendenza è lineare. Altre difficoltà nascono dal confronto con l’effetto Hall(5) (in contrasto con le ipotesi di Drude, in alcuni metalli i portatori di carica risulterebbero positivi ed anche sulla densità di tali portatori per alcuni metalli non vi è accordo) e dal contributo che il gas di elettroni classico dovrebbe dare al calore specifico del metallo in considerazione e che non corrisponde ai dati sperimentali (la questione sarà risolta, come vedremo, da Sommerfeld, Pauli ed altri a partire dal 1926 con l’applicazione al gas di elettroni della fisica dei quanti).

        Nonostante alcune difficoltà, rilevate negli anni immediatamente successivi alla sua elaborazione, la teoria di Drude risultava troppo importante per la mole di fatti che, almeno in prima approssimazione spiegava. Inoltre sembrava che occorresse fare qualche modifica per un completo accordo. In ogni caso non si era trovato altro che la sostituisse. Nel 1917, poi, si ebbe una verifica sperimentale a suo sostegno ad opera dei due fisici nordamericani Richard Tolman (1881-1948) e Dale Stewart (1890-1958)(6). Tolman e Stewart fecero ruotare a grande velocità una bobina di rame, non alimentata, intorno al suo asse e poi la frenarono bruscamente. Per inerzia i portatori di carica proseguirono il loro cammino, producendo una corrente che veniva misurata da un galvanometro. Misurando il rapporto e/m di tali portatori con quello e/m dei raggi catodici, trovarono che era lo stesso con la conseguenza che i portatori di carica dovevano essere elettroni.

        Un altro fenomeno che risultava spiegato con la teoria di Drude era l’effetto termoionico, l’emissione cioè di elettroni da parte di metalli riscaldati. Il fenomeno era noto da almeno 200 anni (l’aria vicino ai corpi caldi conduce elettricità) e si presentava con modalità differenti. Fu compreso a partire dai lavori di Becquerel (1853), attraverso quelli di Edison (1881), fino a quelli di J.A. Fleming del 1890 e 1896 e di J.J. Thomson del 1899 il quale mostrò che, in un tubo a vuoto, la scarica prodotta da un filamento di carbone incandescente era costituita da elettroni negativi. Fu infine il fisico britannico Owen Willans Richardson (1879-1959) che dette una descrizione del fenomeno(7) all’interno della teoria degli elettroni liberi di Drude. Egli dispose una placchetta di platino in un tubo a vuoto e mostrò che ogni unità di superficie del platino emetteva un limitato numero di elettroni che aumentava molto rapidamente con la temperatura con una legge come la seguente(8):

dove isè la corrente emessa, T la temperatura assoluta, S la superficie che emette, A una costante indipendente dal metallo che emette, b una costante dipendente dalla natura del metallo che emette (direttamente proporzionale al lavoro di estrazione degli elettroni dal metallo diviso per la costante di Boltzmann V.e/k). Questa espressione era stata ricavata da Richardson a partire dalla semplice ipotesi che gli elettroni, liberamente in moto all’interno del metallo riscaldato, venivano fuori da esso quando arrivavano sulla superficie con un’energia, dipendente dalla componente della loro velocità normale alla superficie medesima, maggiore del lavoro necessario per estrarli da essa (funzione lavoro). 

        Gli studi sull’effetto termoionico seguirono particolarmente con il fine di stabilire qual è la barriera di potenziale esistente alla superficie del metallo. In tal senso vi fu un lavoro del 1914 di Schottky che determinò, ancora in ambito classico, l’altezza della barriera studiando la forza di richiamo che agisce su un elettrone che sfugge dal metallo mediante il metodo della carica immagine(9). Le prime importanti risposte alla spiegazione dell’effetto termoionico ed al calcolo della barriera di potenziale si ebbero solo con la sua trattazione mediante la fisica dei quanti, l’introduzione dello spin dell’elettrone e della statistica di Fermi-Dirac.

        Oltre al riscaldamento, vi sono altri metodi per far superare agli elettroni la barriera di potenziale che li costringe all’interno del metallo.

        Uno di essi prende il nome di emissione secondaria scoperto nel 1902 dai due fisici tedeschi L. Austin e H. Starke(10).  I due ricercatori, studiando i fenomeni di riflessione dei raggi catodici, trovarono che le superfici metalliche urtate da fasci di elettroni molto energetici emettono una quantità di elettroni a volte maggiore di quella incidente. Per evidenziare tale fenomeno è necessario che gli elettroni emessi dalla superficie metallica non ricadano su di essa(11).

Meccanismo dell’emissione secondaria provocata da un elettrone incidente.  http://www.jlab.org/html/intralab/calendar/archive02/HPC/talks/hilleret.pdf

        Altro fenomeno, il più noto, che vede elettroni superare la barriera di potenziale è l’effetto fotoelettrico, scoperto da H. Hertz nel 1887 e spiegato da Einstein nel 1905 utilizzando la teoria dei quanti di luce (i fotoni, come li battezzò G.N. Lewis nel 1926). Ho abbondantemente discusso di effetto fotoelettrico in altro articolo, ora accenno solo a ciò che ci sarà utile in questo. Se si espone una superficie metallica ad una sorgente di radiazione ultravioletta (UV), come ad esempio un arco voltaico o una lampada a vapori di mercurio, il metallo si carica di elettricità positiva. Il fenomeno si verifica anche con radiazioni aventi frequenze più elevate dell’UV, come i raggi X o gamma. Se la frequenza della radiazione incidente è inferiore ad un dato valore di soglia (caratteristico di ciascun metallo) qualunque sia l’intensità della sorgente di radiazione, il fenomeno non ha luogo. Il fenomeno può venire esaltato sistemando la placca metallica in una ampolla in cui sia stato fatto il vuoto. La fenomenologia è abbastanza semplice ma senza quanti non si riusciva a spiegare il fenomeno. Leggiamo la spiegazione dalle parole dello stesso Einstein:

La consueta concezione, per la quale l’energia della luce si distribuisce in modo continuo nello spazio irradiato, incontra, nel tentativo di spiegare i fenomeni fotoelettrici, notevoli difficoltà, che sono state fatte oggetto di uno studio particolarmente approfondito dal Signor Lenard [Einstein si riferisce ad un articolo di Lenard del 1902]. Partendo dal principio che la luce eccitatrice è costituita di quanti di energia hν, l’emissione … [di elettroni] si può spiegare nel seguente modo. I quanti di energia penetrano nello strato superficiale del corpo e la loro energia si trasforma, almeno in parte, in energia cinetica di elettroni… Inoltre va supposto che ogni elettrone, nell’abbandonare il corpo, debba effettuare un lavoro w (che è caratteristico del corpo considerato). Ad uscire dal corpo con la massima velocità normale [Vmax] saranno gli elettroni eccitati che si trovano direttamente alla sua superficie e che acquistano una velocità normale ad essa“.

        Questi elettroni avranno una energia cinetica T (corrispondente a quel valore massimo di velocità) data da:

T = hν – w

dove: h è la costante di Planck (h = 6.63·10-34 J·s); ν è la frequenza della radiazione incidente; T è l’energia cinetica degli elettroni espulsi dal metallo in corrispondenza della loro velocità massima; w è l’energia con cui l’elettrone è legato al dato metallo (è una costante caratteristica di ciascun metallo chiamata funzione lavoro o lavoro di estrazione, come ho già detto, e che era determinato dallo studio dell’emissione termoionica). Quindi, supposto che la frequenza ν sia superiore a quella ν0 di soglia, gli elettroni usciranno dal metallo con una energia che al massimo vale T data dall’energia hν del quanto incidente a cui va sottratta l’energia w che il quanto deve spendere per strappare l’elettrone dall’atomo. Il fatto poi che nella relazione T = hν – w si debbano considerare non le velocità generiche con cui viene espulso un elettrone ma le velocità massime, è semplice conseguenza del fatto che alcuni elettroni avranno energia cinetica inferiore ad hν – w, avendola perduta nell’attraversare il metallo. Si noti, da ultimo, che se, nella solita relazione T = hν – w, la frequenza della radiazione incidente è data da ν0 = w/h, risulta che T = 0. E questo ν0 è proprio il valore da assegnare alla frequenza di soglia cioè alla barriera di potenziale.

        Qui subentra un fatto importante per l’epoca in cui veniva proposto. Il modello atomico di Thomson si prestava male alla spiegazione dei fenomeni che sperimentalmente si continuavano ad individuare e relativi a ionizzazioni o ad emissione di luce dai tubi di scarica. Fu anche l’insieme di queste difficoltà che aiutò l’affermarsi, dopo quello di Rutherford, del modello atomico di Bohr del 1913 e che di prestava molto meglio come base modellistica per spiegare appunto tutto ciò che si trovava.

I TUBI ELETTRONICI

         Quanto ho detto molto sommariamente nel paragrafo precedente riguarda ancora questioni teoriche. Ma, mentre la parte teorica veniva elaborata, gli elettroni trovavano un loro uso che, con il passare degli anni, si rivelerà fondamentale per gli avanzamenti stessi della conoscenza scientifica e per varie applicazioni pratiche impensabili fino alla fine dell’Ottocento. Non entro in tutti i dettagli delle singole scoperte che a partire dal 1900 si susseguirono in ambito definibile tecnologico, ma cerco solo di cogliere gli aspetti principali della ricerca nel campo degli elettroni nei tubi a vuoto.

        Il primo tubo a vuoto che venne realizzato è il diodo(12). Esso fu scoperto dall’ingegnere elettrotecnico britannico e fisico John Ambrose Fleming (1848-1945) che lavorava per la Marconi Wireless Telegraph Company e che modificò una scoperta fatta nel 1884 da Thomas Edison(13): se una lamina metallica viene chiusa in un bulbo di una lampada elettrica e collegata al terminale positivo del filamento, si avrà il passaggio di una notevole corrente, mentre non si avrà alcun passaggio di corrente se la lamina viene collegata al terminale negativo. Fleming, che aveva lavorato per la Edison Company di Londra, nel 1890 iniziò a studiare il

Effetto Edison.

La lampada che utilizzò Edison per la sua esperienza. Tratto da: http://www.nps.gov/archive/edis/edisonia/11000000.htm

fenomeno in lampade a filamento di carbone finché nel 1904 riuscì a dimostrare la generalità del fenomeno evidenziato da Edison (esso aveva luogo sia con onde elettriche che con onde radio) ed a costruire un apparato che permette la conduzione in un solo verso (e che serviva all’origine come rivelatore di onde radio) ed era utile quindi per l’uso che ne voleva fare Fleming, infatti un gruppo di onde raddrizzate daranno impulsi dello stesso segno alla lamina vibrante dell’altoparlante e tali impulsi saranno seguiti da intervalli di riposo. Ed è ciò che rende possibile la percezione del segnale.

Schema del diodo ideato da Fleming. Nel caso di figura la placca metallica è costantemente alimentata dal positivo della pila e quindi si ha un flusso continuo di elettroni (cioè corrente nel verso indicato. Ma se l’alimentazione provenisse da corrente  alternata o da onde elettromagnetiche la placca sarebbe, alternativamente,  collegata a polarità positive e negative, con la conseguenza che passerebbe corrente solo quando essa risulta positiva.

Nella prima figura vi è un’onda sinusoidale (corrente alternata o onda elettromagnetica) che va ad alimentare il diodo. All’uscita del diodo si hanno solo le semionde positive, le uniche che il diodo fa passare. La terza figura è relativa ad un montaggio con due diodi (che qui non interessa) in cui la semionda negativa viene ribaltata per fornire una corrente in uscita meno discontinua della precedente. Nei due casi si dice impropriamente che la corrente alternata è stata raddrizzata mentre in realtà è solo unidirezionale con caratteristiche pulsanti. Dal punto di vista dell’uso per cui Fleming aveva realizzato il diodo (rivelatore di onde radio) si comprende che un gruppo di onde raddrizzate (seconda figura) daranno impulsi dello stesso segno alla lamina vibrante dell’altoparlante e tali impulsi saranno seguiti da intervalli di riposo. Ed è ciò che rende possibile la percezione del segnale. Prima però che avvenga tutto ciò è necessario disporre di  un sistema che trasformi le alte frequenze in arrivo all’antenna in basse frequenze. In caso contrario l’inerzia della membrana dell’altoparlante non riuscirebbe a seguire quelle oscillazioni e sarebbe quindi impossibile rilevarle. Ciò si realizza con un trasformatore. A questo punto sarebbe indispensabile un amplificatore del segnale in arrivo che si realizzerà con la scoperta del triodo. (Per cogliere i vari problemi che sono alla base delle trasmissioni radio si può vedere il mio articolo: Il contributo scientifico di Guglielmo Marconi).

Un diodo utilizzato come raddrizzatore. L’alimentazione è l’onda  in arrivo a sinistra ad alta frequenza. Tale onda viene trasformata ed inviata al diodo. Il diodo taglia i semiperiodi negativi (rispetto al catodo) dell’onda fornendo un segnale in uscita che è unidirezionale. La resistenza R rappresenta il circuito in cui viene utilizzato il segnale raddrizzato.

Disegno del diodo nel progetto per il brevetto britannico.

          Le leggi dell’emissione di elettroni da parte del catodo (emissione termoelettronica) sono quelle stabilite da Richardson. La corrente che si genera, diretta dal catodo all’anodo (corrente anodica Ia), è unidirezionale e presenta il fenomeno della saturazione: per una data temperatura del filamento, la corrente anodica cresce con l’aumentare della tensione anodica Va ma fino ad un dato limite, superato il quale ogni aumento di Va lascia praticamente costante l’intensità di corrente. Si dice allora che si è raggiunta l’intensità di saturazione Isat la quale dipende dalla temperatura assoluta del filamento (ed anche dalla sua natura) e cresce con essa.

        Nei primi anni del Novecento le ricerche si appuntavano tutte alle questioni poste dalla radiotelegrafia e Fleming non era il solo a ricercare un rivelatore di onde radio. Allo stesso fine lavorava in Austria per la Siemens il fisico Robert von Lieben (1878-1913) che presentò per primo (1906) un brevetto per un tubo a vuoto che aveva le caratteristiche di un triodo che, a parte tre successivi perfezionamenti del 1910 e 1911, non ebbe seguito per la prematura morte di von Lieben.

Brevetto di von Lieben del 4 settembre 1910.

Brevetto di von Lieben del 20 dicembre 1910.

Brevetto di von Lieben del luglio 1911.

Un triodo von Lieben (è alto 315 mm)

        Negli USA lavorava invece per la General Electric il fisico-inventore Lee de Forest (1873-1961) che, dopo un primo brevetto del 1907 di un tubo a due elettrodi, realizzò nel 1908 un apparato per la rivelazione delle onde che aveva, rispetto a quello di Fleming, un elettrodo in più a forma di griglia. Si tratta del triodo che de Forest chiamò audion.

Brevetto di de Forest del 1907

Brevetto di de Forest del 1908. Si può notare l’inserimento esplicito della griglia tra i due elettrodi.

        Cerchiamo di comprendere il ruolo della griglia e quindi le importanti novità realizzate da de Forest aiutandoci con lo schema seguente.

Uno dei primi triodi realizzati da de Forest

       Il filamento, reso incandescente, scalda il catodo che emette elettroni. Questi, per raggiungere l’anodo che supponiamo ad un potenziale V(positivo rispetto al catodo), devono passare attraverso la griglia. Se portiamo la griglia ad un potenziale Vg (riferito anch’esso a quello del catodo), il numero di elettroni che arriva all’anodo (l’intensità cioè della corrente anodica Ia), dipende sia da Vg che da Va. Variando Vg opportunamente si può regolare il flusso di elettroni tra catodo ed anodo. Se, per ipotesi, Vg è nulla, allora la griglia è come se non ci fosse. Se la griglia è a potenziale negativo (riceve una corrente di elettroni dall’esterno), essi respingono gli elettroni provenienti dal catodo, riducendo l’intensità Ia. Se la griglia è a potenziale positivo (gli viene sottratta una corrente di elettroni), aumenta la corrente Ia. Queste operazioni sulla griglia si possono fare in laboratorio per misurare i vari effetti ma, nella pratica sono le oscillazioni elettromagnetiche provenienti da un’antenna che alimentano la griglia originando una variazione della corrente nel triodo molto più intensa di quella che alimenta la griglia. Si rifletta ora su quanto sto per dire. Se la corrente variabile in uscita da questo triodo (primo triodo) la utilizziamo per alimentare la griglia di un secondo triodo, l’effetto di aumento della corrente Ia nel secondo triodo sarà ancora maggiore. E questo processo può essere ripetuto quante volte si vuole senza perdere le caratteristiche delle oscillazioni d’ingresso ma solo amplificandole.

La rilevazione e l’amplificazione di un segnale oscillante con un solo triodo.

La rilevazione e l’amplificazione di un segnale oscillante con due triodi.

            Lo studio dei principi fisici che permettono il funzionamento di un triodo si deve a Langmuir mentre  la formulazione deilla parte tecnica che ne permette l’uso all’interno dei circuiti si deve in massima parte ai lavori di E.H. Armstrong del 1915 che tra l’altro introdusse le curve caratteristiche del triodo che permettono di discutere il suo comportamento osservando la figura seguente dove si mostra come la griglia permette di controllare la corrente anodica.

             Esemplifico con dei dati per essere più chiaro. Applichiamo tra catodo ed anodo una differenza di potenziale di Va = 100 volt. Variando la tensione Vg di griglia passiamo, come in figura, da – 8 volt a + 4 volt. In tal modo abbiamo la curva disegnata più in alto che è la curva caratteristica del triodo. Ripetiamo ora l’esperienza con Va = 90 volt e variando Vg da – 4 a + 4. Otterremo la curva disegnata più in basso, simile alla precedente. Riferendoci a quest’ultima curva e osservando il triangolo tratteggiato, si nota che è possibile ottenere un’amplificazione di 5 mA della corrente anodica in due modi differenti: o aumentando la tensione anodica di 10 volt o elevando la tensione di griglia di 2 volt. Da questa osservazione si può comprendere come la griglia del triodo produca amplificazione. Nell’esempio fatto il fattore di amplificazione è 5 e ciò vuol dire che la griglia agisce sulla corrente anodica cinque volte di più della tensione anodica.

       Le due figure seguenti mostrano invece, relativamente alla ricezione di segnali oscillanti, rispettivamente: la funzione del diodo come rivelatore; la stessa funzione accompagnata da quella del triodo come amplificatore.

      Le caratteristiche di un triodo permettono il suo uso, oltre che come amplificatore, anche come raddrizzatore (regolando il potenziale di griglia in modo che passino solo i semiperiodi dell’oscillazione che interessano), quindi come rivelatore di oscillazioni elettromagnetiche, ancora come strumento indispensabile al microscopio elettronico ed infine come generatore di onde persistenti (onde radio, TV, radar, …). Si tratta di operare opportunamente sui valori di tensione e corrente di griglia, catodo ed anodo ed anche di collegare in modi particolari il triodo in determinati circuiti. Infine è possibile modificare il triodo stesso in una varietà enorme di altre valvole, introducendo nel bulbo di vetro altri elettrodi, particolarmente griglie alimentate in modo diverso al fine di dare effetti diversi. Si ha così il tetrodo che ha due griglie, una schermo e l’altra di controllo; quindi il pentodo che, oltre alle due griglie precedenti ne ha una chiamata di soppressione; quindi ogni tipo di valvole multigriglia che serva a determinati scopi; si hanno poi valvole multiple che, all’interno di uno stesso bulbo di vetro hanno i componenti di due valvole originariamente nate come separate; si hanno ancora valvole elicoidali che servono per produrre microonde (un caso particolare è il magnetron, in uso nei forni a microonde); e così via con una vera quantità di prodotti per l’elettronica. Tutto ciò è partito da quelle poche cose che ho detto, dal diodo e dal triodo realizzati nei primissimi anni del Novecento. E’ opportuno osservare, tornando alla storia di queste realizzazioni, che ci vollero molti anni perché si affermassero divenendo di uso comune. Il problema nasceva dalla tecnica di fabbricazione che era ancora piuttosto artigianale e la difficoltà più grande era il vuoto che si doveva realizzare dentro il bulbo poiché molecole di vari gas disperse dentro di esso si ionizzavano e rendevano la risposta della valvola difettosa rispetto a ciò che ci si aspettava.  Vi erano anche i costi e, per ricevere segnali radio, si preferivano i cristalli (la radio a galena) che erano meno costosi. Fu durante la Prima Guerra Mondiale che, per usi militari e soprattutto dalla Telefunken tedesca anche a seguito del taglio del cavo transatlantico della Germania da parte britannica, si affermarono le valvole che erano più affidabili dei cristalli e, subito dopo la guerra, a partire dal 1920, si iniziarono a produrre valvole su larga scala grazie ai miglioramenti e quindi all’abbassamento dei costi nella fabbricazione. La questione principale, come accennato, restava quella della produzione di alti vuoti.

IL VUOTO

        Il problema dei gas residui dentro il bulbo venne studiato scientificamente, a partire dal 1910, dal chimico-fisico statunitense Irving Langmuir (1881-1957)(14) che lavorava per la General Electric Company al miglioramento delle lampade ad incandescenza e dei tubi per raggi X. A lui ed a Lewi Tonks si deve l’introduzione del tungsteno e di un un gas inerte (argon) nel bulbo al posto del carbone in tali lampade. Questi cambiamenti allungarono di molto la durata delle lampade ad incandescenza. Nel 1913 Langmuir pubblicò una memoria(15) in cui discusse la formula di Richardson individuando i motivi per cui, sperimentalmente, ci si allontanava da essa. Questi studi convinsero Langmuir della necessità di spingere ulteriormente il vuoto per riuscire ad ottenere dai tubi a vuoto effetti migliori. Le pompe da vuoto in uso fino al 1915 erano pompe dette a basso vuoto (pompe ad acqua e pompe meccaniche o rotative)(16).

        Nel 1915 W. Graede realizzò la prima pompa ad alto vuoto, la pompa molecolare. Riferendoci alla figura seguente, il cilindro A ruota velocemente dentro il cilindro B. Il recipiente è preventivamente vuotato da una pompa preliminare e le molecole di gas hanno di conseguenza un cammino libero medio

maggiore della distanza tra i due cilindri. Esse quindi urtano più spesso con le pareti che tra di loro. Il gas viene quindi trascinato nel movimento del cilindro in rotazione verso la pompa preliminare. Tale pompa è in grado di realizzare vuoti dell’ordine di 10-3 mm di Hg con il vantaggio, rispetto a quelle a basso vuoto, di realizzare il vuoto con maggiore velocità. Un importante miglioramento a tale pompa fu ideato da Holweck. Anche qui vi è un cilindro interno che ruota dentro

uno esterno, con la differenza che ora, sulla superficie interna del cilindro esterno si è praticato un solco a spirale. Le scanalature sono due, una destra ed una sisnistra che si incontrano alla bocca del vuoto nella zona centrale. Il gas da eliminare è trascinato dalla rotazione verso i due estremi del cilindro. Si tratta di una pompa veloce che produce vuoti dell’ordine di 10-6 mm di Hg. A questo punto, e siamo ancora nel 1915, intervenne di nuovo Gaede realizzando una modifica sostanziale nei sistemi da vuoto, la pompa a diffusione.

Vi è un getto di vapore di mercurio dentro il quale, attraverso dei forellini S, diffonde il gas dal recipiente da vuotare (RV). Le molecole di gas vengono trascinate dai vapori di mercurio verso una zona in cui il mercurio condensa (la parte tratteggiata in basso) ed aspirate via da una pompa preliminare (PP). A questo punto però le molecole di mercurio diffondono verso il recipiente da vuotare limitando il raggiungimento di vuoti molto alti (si può in parte rimediare facendo circolare dell’acqua di raffreddamento intorno al mercurio condensato). Il miglioramento decisivo di questa pompa fu realizzato da Langmuir nel 1916. In

essa una resistenza riscalda il mercurio contenuto nel bollitore R. I vapori di mercurio salgono verso il camino C e urtano sull’ombrello O dal quale vengono deflessi. Dopo l’urto con le pareti refrigerate della pompa, i vapori ricondensano ritornando nel bollitore. Le molecole di gas che entrano nel getto, provenendo da A che è connesso al recipiente da vuotare (RV), vengono intrappolate dal mercurio e convogliate verso la parte inferiore della pompa da dove vengono rimosse da una pompa preliminare (PP). Queste pompe, oggi, sono chiamate indifferentemente pompe a condensazione o pompe a diffusione ed è inutile dire che dai pionieri ora accennati, i progressi nel raggiungimento di vuoti ultraspinti si sono susseguiti incessantemente fino ad oggi.

        Con la tecnica da vuoto delle pompe a diffusione o a condensazione le valvole, primi componenti attivi dei circuiti che da elettrici diventano elettronici, fecero il grande balzo nell’uso quotidiano. Le radio che iniziarono a divenire popolari nel primo dopoguerra avevano le valvole come componenti principali e più ve ne erano e più amplificavano, meno distorcevano e meno sibilavano (compatibilmente con le qualità dell’emissione e dei ripetitori). Le valvole sono anche alla base dei primi televisori dentro i quali fa mostra di sé un valvolone che è il tubo catodico, di recente sostituito con tubi al plasma o a cristalli liquidi. Più in generale, fino agli anni Cinquanta del Novecento, si può dire che non vi sia stato campo della tecnica avanzata che non prevedesse l’uso di valvole di ogni tipo. Fornisco un solo dato per rendere conto dell’importanza che tali componenti elettronici ebbero negli sviluppi scientifico-tecnologici: il primo calcolatore realizzato tra il 1943 ed il 1945 presso la Pennsylvania University, l’ ENIAC (Electrical Numerical Integrator and Computer), era costruito con 18 mila valvole assemblate da oltre 500 mila contatti Ma le valvole, che avevano rappresentato un clamoroso balzo in avanti della tecnologia, avevano qualche difetto: erano fragili, si scaldavano troppo e consumavano troppo, costavano abbastanza, erano soggette a corti circuiti, erano ingombranti. Per sostituirle serviva ritornare agli sviluppi della scienza, allo studio del passaggio della corrente elettrica attraverso i solidi.

LA CONDUZIONE NEI METALLI: PAULI E SOMMERFELD

        Tre paragrafi indietro abbiamo visto la teoria dell’elettrone libero per la conduzione elettrica elaborata, ancora con la fisica classica, da Drude nel 1900. Da quel momento è stato necessario il trascorrere di un quarto di secolo perché la fisica dei quanti diventasse abbastanza matura da arrivare a trattare problemi complessi come, appunto, la conduzione elettrica.

         Dopo l’elaborazione del suo famoso Principio (1925)(17), Pauli, il 10 febbraio 1927, fece un passo avanti e nella sua memoria, Sulla degenerazione del gas e il paramagnetismo(18), estese la statistica quantistica del gas perfetto monoatomico  per le particelle a spin semintero di Fermi e Dirac (1926)(19) al caso in cui gli atomi del gas possiedano spin e alla magnetizzazione di un tale gas. In questo lavoro, Pauli considerava appunto gli elettroni di conduzione all’interno di un metallo come un gas perfetto degenere. Nel settembre 1927, in occasione del Congresso di Como, Arnold Sommerfeld presentò una relazione in cui riusciva a spiegare per la prima volta il contributo al calore specifico da parte degli elettroni di un metallo utilizzando la nuova statistica(20). In pratica si trattava di passare dai livelli energetici atomici a livelli energetici dell’intero cristallo ed applicare anche qui la possibilità di occupazione di ognuno di questi livelli per due soli elettroni aventi spin opposti. Si tratta di un complesso lavoro che combinò principio di esclusione, statistica di Fermi-Dirac, con il fatto che Pauli, quello stesso anno, aveva esteso, come detto, il suo principio da un atomo al gas di elettroni in un conduttore. Egli trattò gli elettroni come particelle indipendenti in una scatola (buca di potenziale) e soggetti solo al principio di esclusione (un gas di elettroni degenere che ubbidisce alla distribuzione di Fermi) e con essi fornì una spiegazione della conducibilità elettrica, del diamagnetismo e dei calori specifici. Vediamo in cosa consiste la teoria semiclassica dell’elettrone libero sviluppata da Sommerfeld.

        Un modello semplificato per la struttura cristallina di un metallo vede un reticolo tridimensionale di atomi disposti ai vertici di figure solide regolari.

       Volendo considerare l’energia potenziale in un punto all’interno del metallo occorre tener conto che essa è la risultante di tutte le energie potenziali che sono prodotte in quel punto dagli ioni che occupano i vertici del reticolo.

       L’atomo che occupa un vertice del reticolo ha poi, esso stesso, una struttura che, in prima approssimazione, può essere pensata costituita da un nucleo di carica positiva Z·e circondato da Z elettroni (in orbite che approssimativamente si svolgono lungo una sfera).

       Se prendiamo in considerazione un elettrone sull’ultimo livello energetico atomico (un elettrone di valenza) di uno di questi atomi del reticolo è facile capire cosa accade. Questo elettrone avrà carica   q= – e ;  vedrà quindi la parte rimanente del  «suo» atomo come uno ione di carica q2  = + e.

     Facciamo ora l’ipotesi di scegliere l’infinito come riferimento di potenziale dove V = 0 e ricordiamo che, per un atomo isolato, l’espressione che ci fornisce il potenziale V in un punto a distanza dal nucleo è:

  V = q/r

dove q1 è la carica totale racchiusa in una sfera di raggio r.  

          E’ allora evidente che l’energia potenziale U è data da:

 U = q2·V.

        Poiché nel nostro caso la carica totale fornita dallo ione è q= + e, si trova subito che il valore per l’energia potenziale di un elettrone nel campo dello ione è:

            U  = q2V     =>       U=q2(q1/r)       =>     U  =  –  e2/r

        Rappresentando graficamente questa espressione  (si tratta evidentemente di una iperbole equilatera riferita ai propri assi: U·r  =  – e2) si trova  quanto mostrato in figura 1.

Figura 1 (da Millman, Halkias)

         E’ bene, a questo punto, ricordare che r è una distanza radiale dallo ione (in figura indicato con α) e quindi deve essere considerata in tutto lo spazio circostante lo ione. Scelta quindi una direzione arbitraria a partire dallo ione, la curva α1α2 di figura rappresenta la funzione U = U (r) a destra dello ione mentre la curva tratteggiata rappresenta U (r) a sinistra dello stesso ione.

     Il  metodo induttivo ci permette facilmente  di arrivare alla situazione del cristallo da cui  eravamo partiti.

     Consideriamo allora due ioni (a e b) adiacenti e trascuriamo tutti gli altri. Nella figura 2 si vede come vanno le cose, tenuto conto che:

       α1α2 rappresenta la funzione U (r) per lo ione a ;

       β1βrappresenta la funzione U (r) per lo ione b ;

       α1rappresenta la funzione U (r) risultante dall’interazione (somma) dei due ioni nella zona compresa tra α e β (si osservi infatti che: ab + ac = ad).

Figura 2 (da Millman, Halkias)

     Una importante caratteristica della curva α11 risultante è il suo essere praticamente coincidente con le curve α1α2 e β1β2 nelle vicinanze degli ioni e più schiacciata delle altre due nella zona tra essi compresa.

     Consideriamo ora una intera fila di ioni (α, β, γ, δ, …) all’interno del reticolo metallico e cerchiamo di trovarci l’andamento dell’energia potenziale da ione a ione fino ad arrivare alla superficie del metallo.

     Il procedimento, analogo a quanto visto per due ioni adiacenti (si tiene conto solo della piccola influenza che sulle curve risultanti danno gli ioni vicini), fornisce la curva di figura 3.

Figura 3 (da Millman, Halkias)

     Quello che si nota subito è che all’interno del metallo c’è una ampia regione che è, con buona approssimazione, equipotenziale a campo medio nullo (basta osservare che, a parte la rapida variazione di U nelle immediate vicinanze degli ioni, dove tende a  –  ∞, le curve risultanti sono molto schiacciate nelle zone tra ione e ione, fatto questo che sta appunto ad indicare la lenta variazione di U (r) in queste zone).

     Soffermiamoci ancora sulla figura 3: si vede che lo ione d è l’ultimo sulla destra della fila di ioni presa in considerazione. Il che, è ovvio, vuol dire che alla sua destra non vi sono più ioni. Ebbene questo ultimo ione non può essere considerato esso stesso la «superficie» del metallo; alla sua destra c’è infatti una piccola zona a cui compete un certo valore di energia potenziale di cui bisogna tener conto. Questa piccola zona alla destra di d sposta la «superficie» del metallo di poco ed in un modo non perfettamente definito. Dalla figura si vede che la curva che ci dà U alla destra di d è più «alta» di tutte le altre. Se si tiene conto dell’ovvia osservazione che l’interno del metallo è circa a sinistra di d e l’esterno del metallo è circa a destra di d, la maggiore «altezza» della U (r) alla destra di d implica che nel passaggio dall’interno all’esterno del metallo (e viceversa) c’è una barriera di energia potenziale.

      Rimane da vedere cosa fanno gli elettroni in questo campo di energia potenziale. Sempre riferendoci alla figura 3,  consideriamo  un  elettrone  a  cui  compete una  energia corrispondente al livello A di figura. Esso sarà uno degli elettroni dei livelli energetici più interni dell’atomo e perciò risulterà fortemente attratto dal nucleo (elettrone legato), avendo a disposizione solo il piccolo intervallo a-b per i suoi movimenti. Questo elettrone infatti “colliderà” alternativamente nei punti a e b delle barriere di energia potenziale non avendo possibilità di liberarsi e di entrare in qualunque processo di conduzione quando si applichi un campo elettrico esterno.

         Gli elettroni liberi sono invece quelli a cui compete, ad esempio, un’energia corrispondente al livello B di figura 3. Questo elettrone non possiederà solo energia potenziale ma sarà dotato anche di energia cinetica; esso si muoverà liberamente all’interno del metallo risentendo solo della piccola azione che gli altri elettroni liberi hanno su di lui. Quando questo elettrone raggiunge la superficie del metallo colliderà con la barriera di energia potenziale nel punto C e, rimbalzando, tornerà verso l’interno del metallo.

    Un elettrone «più libero» ancora è quello a cui compete, ad esempio, un’energia corrispondente al livello D di figura 3. Questo elettrone ha complessivamente un’energia superiore a quella della barriera; esso è pertanto in grado di lasciare, in qualsiasi momento, il metallo (ad esempio: per effetto termoionico).

     Consideriamo ancora la figura 3 ed in essa la zona di energia in cui gli elettroni sono liberi. Questa zona può essere schematizzata come nelle figure che seguono che sono successivamente due modi differenti di riportare la figura 3. In pratica si passa a disegnare la sola zona dove vi è un gas di elettroni liberi tralasciando il resto del cristallo che, al fine di ciò di cui ci occupiamo, ora non interessa.

Figura 4. Disegno schematico degli elettroni liberi in una buca di potenziale dentro il metallo (Da Larkin Kerwin).

Figura 5. Altro modo di presentare la figura precedente (Da Dekker). La schematizzazione che abbiamo fatto corrisponde ad   aver ammesso che il campo agente su di un elettrone, all’interno del metallo, sia effettivamente uguale a zero, e non solo  in media. Ci interesseremo quindi degli elettroni liberi (quelli  responsabili dei fenomeni di conduzione) che si trovano, in base alla nostra ipotesi, in una regione equipotenziale (non soggetti ad alcuna forza) dove si comportano allo stesso modo di un gas perfetto; nel far questo si trascurano completamente gli elettroni legati. Questo punto di vista è, come si può riconoscere, in accordo con l’elettrostatica classica anche perché non tiene conto della struttura atomica.

        Il ragionamento di Pauli e Sommerfeld era il seguente. Un elettrone in un metallo o in un solido qualunque è soggetto al campo generato da tutti i nuclei e gli elettroni che lo costituiscono e che abbiamo or ora rappresentato graficamente. Tra gli elettroni si dovranno considerare quelli responsabili dei legami e quelli di valenza considerati liberi responsabili cioè, in determinate condizioni, della conduzione. Questi ultimi elettroni liberi si devono trovare in una zona a potenziale costante dentro il metallo e devono avere un’energia potenziale minore di quella posseduta da un elettrone all’esterno del metallo (nella zona chiamata di vuoto).

        Riferendoci all’ultima figura riportata, si considera una buca di potenziale dentro la quale vi sono tanti livelli energetici su cui si trovano elettroni liberi in accordo con il principio di Pauli. Oltre ai livelli pieni di elettroni e cioè quelli fino ad EF (livello di Fermi) vi saranno altri livelli, in figura non riportati, che si trovano sopra al livello di Fermi, ed occupanti l’intervallo energetico Φ. La quantità ES rappresenta la differenza di energia tra un elettrone in riposo dentro il metallo ed un altro in riposo fuori di esso, al livello di vuoto (in genere Eha un valore di circa 10 eV). Alla temperatura T = 0°K il massimo livello occupato è quello di Fermi. Al crescere della temperatura gli elettroni andranno su livelli superiori nell’intervallo energetico Φ (con  Φ = ES – EF). Il comportamento degli elettroni è come quello di un gas. Per avere conduzione occorre applicare al metallo una differenza di potenziale che provoca, in questo modello, l’abbassamento di una parete della buca di potenziale e quindi la fuoriuscita degli elettroni dalla parte dove la barriera si è abbassata. Il modello è semplice ed intuitivo e si sbarazza della grande complicazione che sarebbe il mantenere l’intero cristallo e valutarne tutte le interazioni. Esso però è insufficiente come fu mostrato anni dopo. Ad esempio non spiega perché un conduttore è diverso da un isolante.

        Per quel che ci interessa quello considerato nella buca di potenziale è un gas di elettroni liberi che ha una densità dell’ordine di 1022 per cm3. Aggiungo poi che  se invece delle figure riportate, fosse possibile riportare la figura di una buca di potenziale (ricordo le sei dimensioni dello spazio delle fari che alle tre coordinate spaziali aggiunge quelle delle quantità di moto), invece del livello di Fermi dovremmo parlare di superficie di Fermi (una superficie sferica che separa la zona dei livelli energetici occupati – quelli interni alla sfera – dai livelli energetici non occupati – esterni alla sfera).

LA CONDUZIONE NEI METALLI: BLOCH, FRENKEL, HOUSTON, WILSON, FLOWER.

        Per tutti gli anni Venti vi fu un grande interesse intorno alla questione della conduzione elettrica dei metalli e più in generale sulla struttura dei cristalli anche in relazione all’utilizzo dei raggi X per studiarne la struttura. Il primo che fornì una descrizione quantomeccanica (non più classica come Drude e Lorentz o semiclassica come Sommerfeld) fu il fisico sovietico Yakov Il’ich Frenkel (1894-1952) che dedicò al tema varie memorie(21). La sua prima memoria in proposito è del 1924 e si deve tener conto che ancora non era comparso né il lavoro di Pauli sul Principio d’indeterminazione né il lavoro di Fermi relativo alla statistica delle particelle a spin semintero. Il suo modello era in accordo con tutti i fatti sperimentali già spiegati dalla teoria classica ed eliminava tutte le contraddizioni che la stessa teoria classica comportava (la lunga vicenda del calore specifico che Ehrenfest chiamò la catastrofe della capacità termica; la mancanza di una spiegazione della suscettibilità paramagnetica delle sostanze; la differenza tra conduttori ed isolanti – perché alcune sostanze hanno degli elettroni liberi ed altre no?;  come mai la forte corrente che può condurre un metallo diminuisce al crescere della temperatura mentre la debole corrente condotta da un isolante aumenta con la temperatura.). Nel modello di Frenkel, per spiegare come potessero gli elettroni essere in grado di condurre bene l’elettricità ma essere incapaci di dare contributi alla capacità termica (cosa che sarà spiegata compiutamente con il Principio di Pauli), l’energia cinetica degli elettroni in un metallo è indipendente dalla temperatura dipendendo invece dal carattere quantistico del moto degli elettroni. Nel modello solo il moto collettivo degli elettroni di valenza, che si origina durante la condensazione dei metalli in cristalli, può avere influenza sulla conducibilità elettrica. Più oltre Frenkel delineò la teoria quantistica della conduttività elettrica nei metalli affermando che il reticolo ideale deve essere trasparente e quindi non presentare resistenza per gli elettroni in moto attraverso di esso. La resistenza elettrica sorge quando gli elettroni subiscono lo scattering a causa della mancanza di omogeneità del reticolo che si origina a seguito delle fluttuazioni di temperatura.

        Queste idee furono accettate e sviluppate dal fisico svizzero Felix Bloch (1905-1983)del quale parlerò tra qualche riga. Prima un cenno ad un altro fisico che si occupò della stessa questione, lo statunitense William Houston (1900-1968) i cui lavori ebbero minore importanza. Tali lavori(22) vennero realizzati tra il 1927 ed il 1928  in Germania dove Houston si era recato dagli USA per due semestri di perfezionamento post lauream a fianco di Sommerfeld a Monaco ed Heisenberg a Lipsia. In quegli anni le lezioni di Sommerfeld riguardavano, per la prima volta, proprio la conduzione elettrica nei metalli. Fu Sommerfeld che incoraggiò Houston ad occuparsi dello studio del cammino libero medio degli elettroni e della sua relazione della resistenza in funzione della temperatura nei metalli. Sull’argomento Sommerfeld pubblicò un lavoro proprio con Houston ed Eckart(23). Passato a Lipsia i suoi studi con Heisenberg riguardarono problemi di spettroscopia ma è da notare che qui conobbe e divenne amico di Bloch, trasferitosi dalla Svizzera alla Germania, che stava laureandosi con Heisenberg. E fu proprio Bloch (che nel 1933, a seguito dell’andata al potere di Hitler, si trasferirà dalla Germania agli USA) che dette il maggiore contributo alla spiegazione quantomeccanica della conducibilità elettrica dei metalli(24).

        Bloch aveva iniziato ad elaborare la sua teoria, teoria dell’orbitale molecolare, che, opportunamente integrata da molti altri contributi, diventerà poi la teoria delle bande di energia(25), nella sua tesi di dottorato fatta con Heisenberg a Lipsia nel 1928 e l’aveva subito pubblicata(26). Contributi successivi molto importanti, vennero da H. A. Wilson(27) e Ralph Flower (1889 – 1944)(28).

         Per spiegare, almeno qualitativamente, il contenuto della teoria, occorre rifarsi per un momento ad un fenomeno ben noto in fisica: la corda vibrante. Una corda elastica lunga L, unidimensionale e continua, fissata con un estremo ad una parete e tenuta in mano all’altra estremità, potrà vibrare solo a quelle frequenze che soddisfano la seguente condizione: la lunghezza d’onda l deve essere un sottomultiplo intero del doppio della lunghezza L della corda (2L = nl, con ³ 1 ed intero). Le frequenze possibili sono quindi discrete (ricordiamo che n è proporzionale ad 1/l), ad ogni valore intero di n appartiene una frequenza.

           La stessa cosa si verifica per un oscillatore del tipo riportato in figura 6 (a) (massa m collegata ad una molla che è fissata ad una parete); si hanno cioè frequenze discrete del tipo riportato in figura 6 (b).

         Se ora accoppiamo (accoppiamento debole) due oscillatori con frequenze uguali come in figura 7, si può dimostrare che se le frequenze possibili per i due oscillatori disaccoppiati (figura 6(a)) sono quelle riportate in figura 8(a) e (b), le frequenze possibili per i due oscillatori accoppiati (fig. 7) sono date dalla figura 8 (c). Quello che succede è che ogni frequenza degli oscillatori isolati si scinde in due frequenze distinte.

     Se abbiamo tre oscillatori disaccoppiati che oscillano con frequenze uguali e li accoppiamo otteniamo che ogni singola frequenza di oscillazione dell’oscillatore isolato si scinde in tre diverse frequenze (fig. 9).

     Ritornando nel campo atomico ed osservando che l’atomo è un oscillatore, l’estensione è immediata.

     Consideriamo due atomi identici a grande distanza l’uno dall’altro. Supponiamo, per fissare le idee, che questi due atomi abbiano i loro elettroni disposti sugli orbitali s. I livelli energetici elettronici per questi atomi saranno come quelli riportati in fig. 10.

    Ora avviciniamoli. Essi quanto più saranno vicini tanto più interagiranno. In definitiva non si dovranno più considerare i due atomi (oscillatori) separati ma accoppiati. Quello che accade è analogo a quanto abbiamo visto nel caso degli oscillatori ed è riportato in figura 11 in cui è disegnata l’energia E dei successivi livelli energetici in funzione della distanza d tra i due atomi.

.

     Quando i due atomi sono a grande distanza vi è un livello energetico 1s singolo e comune (degenere) per i due atomi. Quando i due atomi interagiscono il livello 1s, comune ai due atomi, origina due livelli 1s per l’accoppiamento tra i due atomi, ed il livello 2s per i due atomi separati origina due livelli 2s per l’accoppiamento tra gli stessi due atomi.

     Se portiamo ad interagire tre atomi con livelli energetici  del tipo riportato in fig. 10 otteniamo un grafico E = f(d) [energia dei livelli energetici degli atomi in funzione della distanza  tra di essi] del tipo riportato in figura 12.

    Se il numero degli atomi che interagiscono diventa N (circa  1023 per cm3) avremo N livelli energetici in corrispondenza di ogni singolo livello energetico che avevamo per ciascun atomo isolato. Poiché il numero N è enorme, in luogo di considerare 1023 livelli energetici in corrispondenza di ogni livello energetico atomico, si può considerare una banda (continua) di energie permesse agli elettroni in corrispondenza di ogni singolo livello energetico atomico

    Quindi se dobbiamo considerare l’interazione di N atomi per cm3 (e questo è il caso di un solido) il grafico E = f(d), che otteniamo, è del tipo riportato in figura 13.

     Così per ogni livello energetico atomico avremo N livelli energetici (che formano una banda) per il solido; e poiché per ogni livello energetico si possono avere al massimo 2 elettroni, in ogni banda vi possono essere al massimo 2N elettroni. Si ha allora banda piena (semipiena) per un solido i cui atomi hanno un numero pari (dispari) di elettroni liberi.

     Poiché stiamo trattando con atomi è importante notare che non si debbono più considerare livelli energetici elettronici relativi al singolo atomo ma, per così dire, il singolo atomo sparisce e si ha a che fare con livelli elettronici che sono di tutto il cristallo. In ognuno di questi livelli poi, come abbiamo già visto, vi possono essere al massimo due elettroni e ve ne sono due solo se hanno spin antiparalleli. Ebbene, conseguentemente con quanto detto ora, questi elettroni si muoveranno con traiettorie quantizzate attraverso l’intero cristallo.

     E’ proprio dal riempimento delle bande, costituite dai livelli elettronici del cristallo, che è possibile trovare una distinzione tra conduttori ed isolanti.  

        Prima di far questo, però, forniamo un modo più semplice per rappresentare le bande. Allo scopo serviamoci della figura 14.

     Nella figura 14 (a) sono schematizzate le bande energetiche che si formano all’interno di un solido: la banda ad energia più bassa è completamente piena di elettroni, quella intermedia altrettanto, mentre l’ultima è completamente vuota.

     I casi che si possono presentare in termini di riempimento di bande e distanza tra queste ultime sono riportati in fig.15:

     La figura 15 (a) è relativa al caso di un materiale isolante. Le prime due bande sono completamente piene di elettroni, mentre l’ultima banda è completamente vuota. Nellebande completamente piene gli elettroni non hanno possibilità di contribuire alla conduzione, a causa del principio di Pauli. Infattil’acquisto di energia da parte di un elettrone implica un suo salto ad un livello energetico a cui compete una energia superiore, ma, essendo tutti i livelli occupati da due elettroni con spin antiparalleli, non c’è possibilità, all’interno della banda, che un elettrone acquisti energia, poiché non ha livello energetico dove sistemarsi. D’altra parte i primi livelli non occupatida elettroni (quelli attraverso i quali gli elettroni stessi potrebbero condurre) si trovano sulla terza banda, quella completamente vuota, ma il salto energetico E1 tra la banda piena e quella vuota è tanto grande che la forza elettrica, comunemente impiegata, non è in grado, da sola, di fornire energia sufficiente ad un elettrone, che si trova nella banda piena, per questo salto.

      La figura 15 (b) è relativa al caso di un materiale conduttore. La prima banda (quella ad energia più bassa) è completamente piena di elettroni, la seconda è piena per metà, mentre la terza è completamente vuota. In questo caso basta fornire agli elettroni una piccolissima quantità di energia  Eper mandarli in conduzione sui livelli energetici che sono liberi all’interno della stessa banda (quella ad energia intermedia). [Ricordiamo che fornendo energia ad un «set» di elettroni, situati in una banda, i primi ad essere eccitati sono quelli che si trovano sui livelli energetici superiori della banda].

      La figura 15(c) è infine relativa al caso di un materiale semiconduttore. La prima banda è completamente piena di elettroni, come pure la seconda, mentre la terza banda è completamente vuota. Come si può osservare la situazione è strutturalmente simile a quella di un materiale isolante; la differenza è che il salto energetico E3 fra le ultime bande, nel caso del semiconduttore, è molto minore del salto energetico E1 del caso dell’isolante. Quando l’intervallo E3 di energia è sufficientemente piccolo l’energia termica (dovuta a volte anche alla sola temperatura ambiente) è in grado di eccitare alcuni elettroni della parte superiore della banda piena, attraverso l’intervallo di energie proibite agli elettroni, fino alla parte inferiore della banda vuota. Allora la banda «piena» non lo è del tutto, e quella «vuota» neppure, e gli elettroni possono condurre in entrambe le bande (vedi figura 16). Poiché, pero, vi sono relativamente pochi elettroni liberi di

farlo, i materiali che presentano queste proprietà (silicio, germanio,…), non conducono una corrente paragonabile a quella dei metalli e si meritano il nome di semiconduttori (quelli descritti sono chiamati semiconduttori intrinseci e si trovano nel IV gruppo della tavola periodica degli elementi; vi sono poi i semiconduttori estrinseci, creati per immissione di impurità agli elementi del V gruppo della tavola periodica (antimonio, indio, …).

      Prima di andare oltre vediamo come questa teoria spiega alcune delle cose che la teoria semiclassica non spiegava.

    Abbiamo già visto qual è la differenza tra materiali conduttori e materiali isolanti; abbiamo così spiegato un primo fenomeno che la teoria dell’elettrone libero non spiegava.

    Cerchiamo ora, con la teoria delle bande, di rispondere a quell’altro problema che era rimasto insoluto: perché la forte corrente che può condurre un metallo diminuisce al crescere della temperatura, mentre la debole corrente condotta da un isolante aumenta con la temperatura?

    Per rispondere a questa domanda occorre risalire alla natura ondulatoria degli elettroni.

    Consideriamo quindi un gas di elettroni all’interno di una scatola in cui una dimensione prevalga nettamente sulle altre due (come riportato in figura 17).

    Questa situazione rappresenta in prima approssimazione gli elettroni liberi all’interno di un metallo.

    Ad ogni elettrone è associata un’onda che ha la caratteristica di darci la probabilità, ad ogni istante, di trovare l’elettrone in un certo punto dello spazio (l’altezza dell’onda in un punto misura la probabilità che l’elettrone si trovi in quel punto).

    Affinché un’onda possa esistere lungo il «segmento» L occorre che essa valga zero alle due estremità di L (vedi figura 18).

     Questo fatto è direttamente legato al moto di un elettrone lungo la direzione L all’interno della scatola. Se l’elettrone è un’onda (e se c’è l’onda c’è l’elettrone), esso urtando ad una estremità della scatola deve riflettersi su se stesso (ricostruendo la stessa onda) per andare di nuovo ad urtare all’altra estremità che lo farà di nuovo riflettere su se stesso (ricostruendo la stessa onda).

     In definitiva la condizione per l’esistenza di un’onda (un elettrone) all’interno di una scatola è che lungo L possa starci un numero esatto di mezze lunghezze d’onda o, che è lo stesso, 2L = nl (si ricordi quanto visto sulla condizione di esistenza di un’onda su una corda).

     All’interno della scatola gli elettroni si muoveranno o verso destra o verso sinistra ed il grafico che ci fornisce le energie degli elettroni in funzione delle velocità è dato dalla figura 19 (si ricordi che  E = ½.mv2 rappresenta una parabola nel piano E, v).

     Le lunghezze delle onde permesse (vedi fig. 18) determineranno le velocità permesse che risulteranno equidistanziate sull’asse delle ascisse di figura 19 (si ricordi che v è proporzionale a l ). Sull’asse delle ordinate vi sarà invece l’energia che è permessa ai singoli elettroni che nel caso in esame (gas di elettroni in assenza di nuclei atomici) sarà tutta cinetica.

     Nella scatola gli elettroni (in assenza di forze esterne) si muoveranno indifferentemente verso destra e verso sinistra cosicché si può pensare che una metà circa si muove verso destra mentre l’altra metà si muove verso sinistra. Il risultato è che non si ha nessuna « corrente » elettrica risultante.

     Prendiamo ora la scatola ed alle due sue estremità applichiamole una forza elettrica in modo che questa provochi uno spostamento degli elettroni da sinistra verso destra (in realtà ci sarà una componente di velocità che si sottrarrà agli elettroni che si muovono verso sinistra ed una componente di velocità che si sommerà agli elettroni che si muovono verso destra). Il risultato può essere schematizzato come in figura 20.  

     Completiamo ora il modello inserendo nella scatola a distanze regolari i nuclei atomici (ricordando che la dimensione L è molto maggiore delle altre due si dovrà considerare una sola fila equidistanziata di nuclei).

     Con i nuclei aggiunti al gas di elettroni la scatola ci rappresenta in prima approssimazione la situazione di un metallo e in accordo con quanto visto nel paragrafo precedente bisognerà tener conto dell’esistenza di bande di energia permesse e proibite.

    La figura 21 ci rappresenta la nuova situazione.

        Ora, evidentemente, non è più possibile pensare che indefinitamente gli elettroni « passino » da sinistra a destra come avveniva nel caso illustrato in figura 20 (gas di elettroni senza nuclei). Poiché ad ogni passaggio da sinistra a destra corrisponde un acquisto di energia (al passaggio ad un livello energetico più elevato) è chiaro che, data la struttura a bande, questo processo debba ad un certo punto interrompersi (quando gli elettroni sono arrivati ad occupare il livello energetico più elevato che compete ad una banda di energia permessa).

     E quando un elettrone raggiunge il livello energetico più elevato di una banda sarà riflesso all’indietro andando ad occupare livelli lasciati vuoti alla sinistra (vedi figure 22 e 23).

    A questo punto si può introdurre l’effetto originato dalla temperatura.

    La temperatura fa aumentare il moto di vibrazione degli atomi originando quindi una più marcata variazione delle distanze interatomiche del reticolo cristallino (la situazione atomica appare agli elettroni più disordinata). Questo fatto origina la riflessione di elettroni che hanno anche lunghezza d’onda diverse da quelle del limite della banda ed in definitiva si avranno riflessioni di elettroni anche molto prima che essi vadano a trovarsi al limite della banda.

     La nuova situazione è illustrata in figura 24.

     Quando gli elettroni sono diffusi a sinistra trovano stati ad energia più bassa avendo ceduto sotto forma di calore la differenza di energia agli atomi che li hanno diffusi. Più sale la temperatura e più il disordine atomico aumenta e più onde elettroniche (anche di diverse lunghezze d’onda) saranno riflesse dagli atomi del reticolo.

    E’ allora evidente che nel caso di un conduttore, all’aumentare della temperatura debba aumentare la resistenza elettrica.

    Rimane ora da prendere in considerazione ciò che avviene per un isolante all’aumentare della temperatura.

     Se si scalda molto un materiale isolante aumenta notevolmente l’energia di oscillazione degli atomi che si trovano ai nodi del reticolo. Questa energia si trasmette agli elettroni i quali non potendo «muoversi» all’interno della banda in cui si trovano cercano altri stati in cui sistemarsi. Gli impulsi che gli elettroni ricevono dagli atomi del reticolo sono sufficienti a permettere che una parte di essi possa saltare nella banda vuota dove può cominciare ad entrare in conduzione.

________________________________  

        Dalla fine degli anni Venti ai primi anni Trenta si erano fatti innumerevoli progressi nell’ambito della fisica della conduzione dell’elettricità nei solidi ed in particolare si era scoperto come funzionavano i semiconduttori, delle sostanze che avevano avuto un loro uso fin dall’inizio del Novecento per raddrizzare la corrente alternata. Vi erano comunque varie difficoltà, non ultima la diffidenza che gli sudi teorici avevano in vari ambienti di ricerca. Nei primi anni Trenta la situazione era ancora così confusa che uno dei maggiori fisici del 900, W.Pauli, scriveva: I semiconduttori sono un pasticcio (filthy mess). Chi può affermare che esistono veramente? Durante la Seconda Guerra mondiale anche Fermi espresse un certo scetticismo sulla chimica e la fisica dello stato solido. Nei primi anni Quaranta testi avanzati che si occupavano di fisica dei solidi (Modern Theory of Solids, 1940) non citavano né silicio né germanio anche se già si conosceva il ruolo importante del drogaggio. Dal punto di vista di chi lavorava sulla fisica dei solidi, restavano ancora dei problemi da risolvere che erano però relativi al formalismo della meccanica quantistica. Gli anni successivi alla fine degli anni Trenta servirono a questo ed anche a passare all’applicazione pratica di quanto scoperto. Quest’ultimo aspetto inizierà ad avere i suoi sviluppi nel secondo dopoguerra, a partire dal 1948 con l’invenzione del transistor.

DAI RADDRIZZATORI AL TRANSISTOR

        Il primo rettificatore fu scoperto nel 1874 dal fisico tedesco Karl Ferdinand Braun (1850-1918)(29), famoso per aver realizzato anche l’oscilloscopio a raggi catodici, facendo alcune esperienze su un cristallo di galena (ma anche con pirite e rame) che ebbe diffusione come rivelatore di onde radio 30 anni dopo. La galena, solfuro di piombo, è un cristallo semiconduttore (tale nome è del 1911 e dovuto a Königsberger e Weissche) divenne il primo diodo raddrizzatore che, in analogia con quanto farà il diodo a vuoto e come abbiamo discusso, era utilizzato per ricevere i segnali radio. Braun scoprì che la galena rettificava i segnali se almeno un elettrodo è costituito da un filo conduttore messo a contatto con il cristallo.

Schema di ricevitore radio che utilizza la galena come rivelatore (detector) delle onde: un filo conduttore tocca la galena in un punto.

        L’effetto rettificante di un punto di contatto avrà una notevole importanza nella scoperta del transistor.

        Braun aveva a che fare con un buon conduttore, il filo, messo a contatto con un semiconduttore ed il filo (catodo) emetteva elettroni che venivano raccolti dal semiconduttore (anodo). Evidentemente l’operazione inversa era impossibile e questo stabiliva l’unidirezionalità del segnale alternato e quindi permetteva di avere solo i semiperiodi utili alla ricezione (si riveda quanto detto sui diodi a vuoto). Un raddrizzatore come quello descritto va sotto il nome di raddrizzatore a strato d’arresto.

        Più avanti negli anni, intorno al 1920, il sistema fu perfezionato per poter essere utilizzato anche per raddrizzare la corrente da alternata in continua (in realtà pulsante) anche con l’introduzione di un sottile strato vuoto (l’analogo di quello che vi è nel diodo a vuoto). Dopo varie sperimentazioni e ricerche si stabilirono le migliori coppie conduttore-semiconduttore (rame-ossido di rame; ferro-selenio, …). Nel 1926, L.O. Grondahl e P.H. Geiger (USA) scoprirono le proprietà di rettificazione dell’accoppiamento rame-ossido di rame(30). Intorno al 1930 si cercarono anche delle spiegazioni teoriche del fenomeno ricorrendo alla teoria già esistente delle differenze di potenziale esistente tra differenti conduttori (A. Volta). Due conduttori diversi (nel nostro caso un conduttore ed un semiconduttore) richiederanno dei lavori differenti per far uscire gli elettroni. Se li mettiamo a contatto sorgerà tra i due una differenza di potenziale. Una differenza di potenziale sarà una barriera per un conduttore e non per l’altro, sarà cioè più facile inviare (mediante una differenza di potenziale applicata dall’esterno) far passare elettroni in un verso piuttosto che in un altro. Questo fenomeno è abbastanza piccolo per il contatto tra due conduttori, diventa invece importante per il contatto tra conduttore e semiconduttore scegliendo opportunamente i due materiali, infatti non tutti gli accoppiamenti sono in grado di formare la richiesta barriera (barriera di Schottky). Questa teoria venne elaborata nel 1938  dal fisico svizzero (poi tedesco) W. Schottky (1886-1976)(31), che lavorava per la Siemens, al quale è dovuto l’effetto Schottky (o emissione di campo)(32), l’invenzione della griglia del triodo a vuoto ed il tetrodo. Altri lavori importanti in proposito furono realizzati dal fisico britannico N. F. Mott nel 1939(33),  in seguito perfezionati dal tedesco (poi americano) H. Bethe(34) e dal sovietico A. S. Davydov(35). Tutti questi studi non furono però in grado di spiegare l’intera fenomenologia per comprendere la quale sarebbe servita la spiegazione quantomeccanica.

Il diodo che Schottky realizzò nel 1938 creando un contatto tra alluminio e silicio (o oro e silicio o platino e silicio). Il diodo Schottky è un diodo che ha una soglia di tensione molto bassa ed un tempo di commutazione molto breve e ciò permette di rivelare segnali deboli alle diverse frequenze. Altra caratteristica di tali diodi è la loro utilizzabilità a potenze elevate.

La struttura interna della figura precedente

Realizzazione di una giunzione di Schottky

Il simbolo in un circuito di un diodo Schottky

Caratteristiche tensione-corrente di una giunzione Schottky

        Guardando le date dei lavori che sono stati prodotti, si vede che si è arrivati a ridosso della Seconda Guerra Mondiale. Come ho già detto la guerra da una parte chiude le comunicazioni scientifiche tra i vari Paesi e quindi rappresenta un blocco allo scambio creativo di notizie e ricerche, dall’altra è un’occasione eccellente per accelerare gli studi che possono avere applicazioni militari. Nel campo in cui  mi sto occupando ora qualcuno aveva intravisto possibilità eccellenti che permisero la vittoria nella guerra sul mare: il radar realizzato dalla Gran Bretagna permise la distruzione della flotta tedesca sul mare. Ebbene, proprio nelle ricerche sul radar, nelle quali furono impegnate la Purdue e la Bell,  si avanzò molto anche in quella dei raddrizzatori e nella loro evoluzione. Per quanto se ne sa uno dei contributi utili nelle ricerche successive consistette nella realizzazione di metodi di purificazione dei metalli e dei semiconduttori (Seitz, 1942) e il drogaggio(36) (atomi di boro in silicio) di alcuni semiconduttori (Theuerer, 1943).

        Altre ricerche importanti venivano fatte negli USA presso la Purdue University (sotto la direzione del fisico e chimico austriaco Karl Lark-Horowitz), la General Electric e la Bell  con i suoi  Physical Research Department of Bell Telephone Laboratories. Quest’ultimo laboratorio aveva iniziato a mettere insieme un gruppo di scienziati che si occupasse dei problemi della conducibilità nei solidi fin da tempi che precedevano la Prima Guerra Mondiale ed a questo gruppo, come teorico, si unì Shockley nel 1936 con il preciso compito di sostituire nelle centrali telefoniche i vecchi relays elettromeccanici con deviatori elettronici. Shockley sapeva dell’inutilizzabilità dei tubi a vuoto perché io consumo degli elettrodi non garantiva la stabilità della potenza necessaria ed egli indirizzò i suoi lavori sui solidi forte del suo dottorato, conseguito con Davisson su questioni di conduzione nei solidi. In un suo quaderno di appunti, alla data del 29 dicembre 1939 si è trovato un suo scritto dal titolo A semiconductor triode or amplifier:  Si dice: Mi sono convinto che oggi  un amplificatore che usi semiconduttori piuttosto che tubi a vuoto è in linea di principio possibile. Un maggior impulso alle ricerche della Bell si ebbe a partire dalla fine della Seconda Guerra Mondiale, quando nel 1945 si unì al gruppo J. Bardeen.

        Ritornando alla Purdue, nei suoi laboratori si riuscì ad ottenere un successo fondamentale: si riuscì a realizzare nello stesso cristallo di germanio una zona p (in cui i portatori di corrente sono le lacune, assimilabili a cariche positive) ed una zona n (in cui i portatori di corrente sono gli elettroni) con una zona di separazione chiamata giunzione p-n che funziona da raddrizzatore di corrente e che possiamo vedere rappresentata nelle due figure seguenti.

Impurità in prossimità della giunzione p-n

Diffusione di lacune ed elettroni in una giunzione p-n

        Dalle figure riportate, particolarmente dall’ultima, si può capire che un ruolo importante nelle giunzioni lo gioca il fenomeno della diffusione di elettroni e lacune da una regione in cui si ha un’alta concentrazione di uno dei due soggetti all’altra dove la concentrazione è minore. E’ lo stesso fenomeno che si ha con la diffusione degli elettroliti o con i gas ionizzati fenomeni nei quali vale la legge di Einstein che regola diffusione e mobilità. Nel nostro caso gli elettroni tendono a penetrare nella zona p e le lacune nella zona n. In definitiva nella zona n si ha, vicino alla giunzione, un eccesso di lacune e nella zona p, vicino alla giunzione, un eccesso di elettroni. Tale situazione è quella che genera, in corrispondenza della giunzione, una barriera costituita dalla carica spaziale. Ma solo vicino alla giunzione perché altrove, nel cristallo siamo in situazione equipotenziale. Se applichiamo una differenza di potenziale ai capi del cristallo si evidenziano le proprietà raddrizzatrici della giunzione perché, a seconda come applichiamo tale differenza possiamo o meno favorire le ricombinazioni di elettroni con lacune. Vi sono due possibilità: o si applica il + della differenza di potenziale alla zona p del semiconduttore e quindi il – alla zona n, ottenendo quella che si chiama una polarizzazione diretta; oppure si applica il + della differenza di potenziale alla zona n del semiconduttore e quindi il – alla zona p, ottenendo quella che si chiama una polarizzazione inversa.

Giunzione p-n polarizzata inversamente.

Giunzione p-n polarizzata direttamente

        Nel primo caso si esalta la barriera di potenziale della giunzione ed i portatori  maggiori di carica (+ della regione p e – della regione n) non possono attraversare la giunzione. Il circuito presenta una grande resistenza al passaggio di corrente (si ha solo un piccolo passaggio di corrente dovuto ai portatori minoritari di carica che sono i – della zona p ed i + della zona n).

        Nel secondo caso le cariche + della regione p e – della regione n possono fluire attraverso la giunzione e si ha una considerevole corrente non essendovi più opposizione al suo passaggio. In tal modo la giunzione realizza un diodo perché permette il passaggio della corrente in un solo verso.

Quanto detto nel testo riportato in tre disegni che confrontano, dall’alto in basso, la situazione della barriera di potenziale alla giunzione: senza applicazione di differenza di potenziale, con polarizzazione inversa e con polarizzazione diretta.

La caratteristica tensione-corrente per una giunzione p-n che costituisce un diodo a semiconduttore.

Questa figura ci riporta a quanto visto per i diodi a vuoto. Il diodo, anche qui, fa passare solo una componente di un’oscillazione elettromagnetica, solo cioè i semiperiodi che vanno d’accordo con la polarizzazione diretta.

        La stessa cosa, due parti dello stesso cristallo di semiconduttore drogate in modo differente, fu ottenuta nel 1940 nei laboratori Bell ad opera del capo metallurgista delle officine, Russell Ohl, il quale si accorse anche dello strano fenomeno che avveniva sottoponendo tale materiale a luce intensa: si otteneva un considerevole passaggio di corrente. Il fenomeno fu riportato in una memoria che scrissero tre ricercatori della Bell e sarà poi investigata(37). Ora noto solo che era stato scoperto l’effetto fotovoltaico alla base del funzionamento delle attuali celle solari.

        La teoria della giunzione fu elaborata da W. Shockley(38) nel 1949 dopo che, nel frattempo (16 dicembre 1947 con presentazione al pubblico, dopo il brevetto, nel luglio 1948) era nato il transistor a punte di contatto ad opera dei due fisici statunitensi John Bardeen e Walter Brattain(39)  che lavoravano ai Bell Laboratories e stava nascendo (luglio 1949) ad opera del medesimo Shockley, insieme a M. Sparks e G. K. Teal, il transistor a giunzione. Si tratta di una delle maggiori realizzazioni del secolo XX che ha aperto la strada alla miniaturizzazione e ad applicazioni impensabili che, in 60 anni hanno cambiato letteralmente il panorama della comunicazione, dell’informazione e dell’accesso di tutti a tecnologie avanzate.

 Bardeen, Shockley, Brattain

        Il primo transistor realizzato, quello a punte di contatto, consisteva in una lastrina di cristallo semiconduttore, detta base, a una faccia della quale era connesso un elettrodo, mentre sull’altra faccia appoggiavano due elettrodi, uno detto emettitore, l’altro collettore.

Il disegno preistorico del transistor a punte di contatto. C = elettrodo collettore; E = elettrodo emettitore; M = involucro metallico connesso alla base metallica B ed al cristallo di germani G; I = isolante; T = sottilissimi e vicinissimi fili di contatto di bronzo fosforoso con la punta tagliata a cuneo per avere una superficie di contatto minori di 10-9 mm2. I due contatti puntiformi devono essere molto vicini tra loro (tra 0,005 e 0,025 cm). L’intero apparato ha un diametro di 5 mm ed è alto 17 mm. Da questi pochi dati si può capire quali livelli di tecnologia sono necessari per produrre apparati di tal genere.

Lo schema di funzionamento del transistor a punte di contatto (ciò che è chiamato buchi sono ciò che ho chiamato lacune). Il sottile strato superficiale di germanio è drogato p e la corrente è formata da lacune emesse dalla punta emettitrice e raccolte dalla punta collettrice. Lo strato di germanio sottostante è drogato n.

Circuito in cui è inserito un transistor

        Dalla seconda delle tre figure riportate si può osservare che nelle zone di contatto si hanno fenomeni di diffusione di carica che abbiamo visto discutendo della giunzione p-n e che permettono il passaggio in un senso e non in senso opposto. Dalla terza figura si può vedere che all’emettitore che facilita la conduzione, che è quella di polarizzazione diretta, mentre all’elettrodo collettore si applica una tensione opposta cioè la polarizzazione inversa.

        Il transistor, l’oggetto ora descritto, corrisponde ad un triodo a vuoto (il catodo, la griglia e l’anodo del triodo sono qui rispettivamente  l’emettitore, la base, il collettore) e, come quello, serve sia da raddrizzatore che da amplificatore (di potenza in quanto amplifica sia corrente che tensione). E, prima di passare a descrivere meglio le funzioni e i successivi avanzamenti, voglio dire subito qual è il passo gigantesco che si è fatto. In luogo della valvola, abbiamo un piccolissimo cristallo di metallo che può regolare e amplificare le correnti che passano negli apparecchi elettronici. È quasi infrangibile. E’ molto più affidabile di una valvola per non avere parti deperibili. Funziona con pochissima energia. Emette una quantità di calore insignificante, e ciò permette di assemblarne molti insieme riducendo enormemente gli spazi con sistemi di raffreddamento molto meno impegnativi. Sono estremamente piccoli rispetto alle valvole e costano molto meno con materiali per costruirli diffusissimi sulla Terra. Un transistor ben costruito il segnale di uscita può essere fino a 105 volte più potente di quello in entrata. Per non parlare delle evoluzioni cui ha dato luogo.

        Questo primo transistor ebbe vita breve perché immediatamente sostituito dal più affidabile e semplice transistor a giunzione che contrariamente all’altro, che fu realizzato con operazioni anche empiriche per realizzare raddrizzatori ed anche con margini di eventi fortunati, nacque prima teoricamente con un lavoro di Shockley già citato (quello del 1949 in nota 37), quindi descritto nel 1951 da un lavoro di Shockley, Sparks e Teal(40).

        Appreso il modo di drogare in modo diverso due zone di uno stesso cristallo semiconduttore, il passo successivo fu quello di drogare lo stesso cristallo in modo da ottenere non più una ma due giunzioni. Vi sono due possibilità (ai fini pratici equivalenti): o uno strato n è posto in mezzo a due strati p (transistor tipo p-n-p); o uno strato p è posto in mezzo a due strati n (transistor tipo n-p-n). Le zone a differente drogaggio, come mostrato nelle figure che seguono, assumono i ruoli di emettitore, collettore e base che avevamo incontrato nel transistor a punte di contatto.

Le lettere E, C, B stanno per Emettitore, Collettore e Base e lo schema disegnato al di sotto del modellino di transistor è il simbolo del medesimo in un circuito ed anche il modo elementare di sua connessione. La freccia nel simbolo del transistor tra emettitore e base indica la direzione della corrente quando la giunzione è polarizzata direttamente (analogamente nella figura seguente). (Da Millman e Halkias).

(Da Millman e Halkias)

       
        Vediamo qualche dettaglio riferendoci solo al transistor p-n-p perché l’altro, come accennato, è perfettamente equivalente (con evidenti differenze alle quali accennerò alla fine della discussione del p-n-p).

        Polarizzando direttamente la prima giunzione ed inversamente la seconda si avrà una circolazione di corrente costituita da lacune Queste, una volta attraversata la prima giunzione, che ha una piccola barriera di potenziale perché la polarizzazione è diretta, diffondono attraverso la regione centrale n come portatori minoritari e qui giunte si ricombinano solo parzialmente con altrettanti elettroni. Infatti, poiché la larghezza della zona n è molto piccola rispetto alla lunghezza di diffusione delle lacune, solo una piccola parte di queste riesce a ricombinarsi prima di raggiungere la seconda giunzione; la maggior parte delle lacune si situa invece in prossimità della giunzione, dove il campo elettrico creato dalla polarizzazione inversa agisce in modo da spingere le lacune (portatori minoritari) ad attraversare la seconda giunzione e farle arrivare nella seconda regione di tipo p. Una volta entrate in questa regione le lacune tornano ad essere portatori maggioritari e fluiscono verso il terminale esterno.

        Il funzionamento del transistore a giunzione p-n-p si basa quindi sulla capacità di trasferire le lacune dalla prima alla seconda regione di tipo p attraverso una ristretta regione di tipo n (questa regione intermedia, nei due tipi di transistor, ha una conduzione differente da quella dei due estremi e si comporta proprio come la griglia nel triodo a vuoto). Ciò viene ottenuto, come già affermato, mediante due giunzioni p-n polarizzate una in senso diretto e l’altra in senso inverso. La corrente di lacune che scorre nella seconda regione di tipo p è solo leggermente inferiore alla corrente che attraversa la prima regione di tipo p. Quindi con l’applicazione di una piccola tensione si riesce a produrre una corrente in un circuito a bassa resistenza (essendo la prima giunzione p-n polarizzata direttamente, la sua resistenza è piccola) e a far circolare pressoché la stessa corrente in un circuito ad elevata resistenza (essendo la seconda giunzione polarizzata inversamente, la sua resistenza è grande) ottenendo così in uscita una tensione elevata e quindi un ‘amplificazione di potenza.

        Le differenze dell’n-p-n con il p-n-p sono che le tensioni di polarizzazione risultano invertite e quindi le correnti circolanti vanno intese invertite di segno. Inoltre nell’n-p-n l’emettitore di tipo n inietta elettroni nella base p con la conseguenza che sono ora gli elettroni i portatori minoritari e diffondono attraverso la base finché non risultano spinti ad attraversare la giunzione di collettore  dal campo elettrico prodotto dalla differenza di potenziale fra collettore e base (con collettore positivo rispetto alla base). La figura seguente riporta i versi delle correnti nei due tipi di transistori.

IE, IC, Isono rispettivamente le correnti di emettitore, di collettore, di base e risulta      IE = IC + IB

        _____________________________________

A partire da questi primi transistor se ne sono realizzati di tutti i tipi sfruttando tutte le conoscenze fisiche da mettere insieme a quelle tecnologiche per  la realizzazione dei cristalli semiconduttori. Di enorme importanza fu la scoperta (1958) del diodo tunnel (che sfrutta l’effetto tunnel, tipicamente quantistico, scoperto da Wilson nel 1932) da parte del fisico giapponese Leo Esaki (studi in Svizzera, poi negli USA presso la IBM). Tra il 1958 e 1959, Jack Kilby della Texas Instruments e Robert Noyce della Fairchild Camera, trovarono una soluzione al problema di sistemare un gran numero di componenti in uno spazio ristretto con la realizzazione del circuito integrato. Invece di fare tanti transistor, diodi e resistenze e montare il tutto su una base, si costruì il tutto direttamente in un solo pezzo di cristallo semiconduttore (alcuni tra i chip più avanzati contengono alcune centinaia di milioni di transistor). Il passo successivo è di un italiano, Federico Faggin (incredibile, troviamo un italiano in un settore di ricerca produttivo e commerciale ad alto rendimento noi che in Italia siamo specializzati in ricerca di prestigio certamente eccellente ma con marginali ricadute produttive). Era un perito elettronico di Vicenza che, dopo il diploma preso nel 1960, iniziò a lavorare per la Olivetti Computers (quella che è stata svenduta nel 1963 agli USA e che ha fornito alle aziende americane circa 3000 tecnici di altissimo livello).

Federico Faggin. Laureato in fisica a Padova nel 1965 venne assunto dalla SGS-Fairchild operante in Italia (oggi è la ST Microelectronics) che lo inviò a fare ricerca nella sua sede californiana (Palo Alto). Qui Faggin elaborò svariatissimi progetti(41) estremamente avanzati di integrazione di semiconduttori su larga scala. Nel 1970 Faggin passò alla Intel dove realizzò il primo microprocessore(42), l’Intel 4004, il primo realizzato in grado di sviluppare una potenza di calcolo molto superiore al primo computer, l’ENIAC al quale ho accennato. Da questo primo prodotto si aprì la strada ad una serie di microprocessori che hanno fatto la storia della Intel. Ma la storia di Faggin seguì con altre realizzazioni in società da lui fondate.

L’Intel 4004

________________________________________

        Sono arrivato al punto che mi ero ripromesso. Più sono andato avanti e più ho fatto diventare la trattazione discorsiva per evidenti motivi legati alla comprensione di quanto scrivo. Siamo al punto in cui neppure si può iniziare un corso di elettronica perché mancano comunque moltissime conoscenze di base. Ma, per chi avesse tali conoscenze, sappia che da qui inizia l’elettronica che è un campo sterminato ed affascinante che ci permette di tenere in una mano, nello stesso oggettino, un computer che riceve posta, che permette di vedere filmati, che permette di realizzare delle foto e dei video. Manca solo una manina che ci accarezzi il capo quando siamo un poco giù di corda.

Roberto Renzetti


NOTE

(1) Nella memoria La théorie électromagnetique de Maxwell et son application aux corps mouvants(Arch. neerl.25; 1892; pag. 363) e soprattutto in quella successiva del 1895 (Versuch einer theorie der electrischen und optischen erscheinungen in bewegten Kõrpern – Proposta di una teoria per i fenomeni elettrici ed ottici nei corpi in movimento – Leiden: Brill, 5, 1895, pagg. 1-137) Lorentz parlava di ioni. Solo nella memoria del 1899 (Simplified Theory of Electrical and Optical Phenomena in Moving SystemsProc. Roy. Soc. Amst. 1: 1899, 427-442, dopo la scoperta di esso da parte di J.J. Thomson del 1897, si  introduce il termine elettrone che sarà definitivamente codificato nel suo libro The theory of electrons (Leipzig & Berlin: B.G. Teubner, 1909/1916). L’idea di una struttura discontinua della carica elettrica che portò poi alla scoperta dell’elettrone cominciò a porsi in relazione agli esperimenti di Faraday sull’elettrolisi del 1833. Questi esperimenti rivelarono alcuni fatti inattesi e peraltro non spiegati dallo stesso Faraday, perché ad un elettrodo si liberi un grammo-atomo di un elemento di valenza Z, facente parte del composto in questione, la soluzione elettrolitica deve essere attraversata sempre da una quantità di elettricità pari a Z volte 96.522 coulomb. La spiegazione di questo fenomeno fu data nel 1874 dall’irlandese G.J. Stones (1826-1911). Egli mostrò che se la materia e l’elettricità sono considerate discontinue e formate di tante piccole particelle, allora tutti gli esperimenti di Faraday diventano semplici da spiegare. Se ciascun atomo di materia nel passare attraverso la soluzione elettrolitica porta con sé una quantità di carica definita e ben determinata, allora la quantità di materia depositata su di un elettrodo sarà direttamente proporzionale a questa quantità di carica. Ora un grammo-atomo di materia contiene un numero di atomi pari a N (numero di Avogadro) e quindi ciascun atomo trasporta una carica q pari a:  

      q = Z. (96.522/N) coulomb.

Così la carica che ogni ione elettrolitico, di qualsiasi tipo esso sia, trasporta è sempre multipla di 96.522/N, che quindi  risulta essere la carica elementare (e). Il lavoro di Stoney fu pubblicato solo nel 1881 (Phil. Mag. 11, 384; 1881) anno in cui anche Helmholtz era diventato un fervente sostenitore dell’esistenza di questa carica elementare (J. Chem. Soc. 39, 277; 1881). E’ importante sottolineare l’adesione di Helmholtz a questa teoria poiché il prestigio di cui egli godeva permise una più rapida propagazione dell’idea. Fu comunque ancora Stoney che ne1 1891 diede alla supposta carica elementare il nome di elettrone. Va comunque notato che, come osserva Whittaker (Vol.1, nota 3 di pag. 392), al di là di uno stimolo concettuale, l’elettrone in quanto tale, così come era postulato dai lavori di Stoney ed Helmholtz, non ebbe alcuna influenza sullo sviluppo della teoria elettromagnetica. Anche la stessa scoperta sperimentale dell’elettrone, fatta da J.J. Thomson ne1 1897, non modificò in nulla l’elettromagnetismo classico. L’unica conseguenza che ebbe fu il fornire una solida base alla teoria di Lorentz. La ragione di ciò risiede nel fatto che, per l’elettromagnetismo classico, è poco importante che esistano delle particelle che possiedono la stessa carica. L’importante è che si abbiano delle cariche particellari, infatti  “l’uguaglianza o la disuguaglianza di queste cariche non fa differenza per le equazioni. Per fare un esempio dalla meccanica celeste, non vi sarebbe alcuna differenza nelle equazioni se le masse dei pianeti fossero tutte uguali“. Il fatto però che si fosse riusciti ad individuare ima carica elementare per altri versi ebbe una ricaduta enorme nella fisica: nello sviluppo della fisica dei quanti e della fisica atomica.

        Secondo Lorentz, quindi, certamente “le concezioni di Maxwell possono servire di fondamento per la teoria cercata“, ma sarebbe stato necessario fare qualche cambiamento. Leggiamo direttamente il brano originale (dalla memoria del 1892) in quei passi in  cui viene stabilita la teoria degli elettroni nelle sue ipotesi fondamentali:

Mi è sembrato utile sviluppare una teoria elettromagnetica fondata sull’idea che la materia ponderabile fosse perfettamente permeabile all’etere e potesse spostarsi senza comunicare a quest’ultimo il minimo movimento … Purtroppo una difficoltà si presenta fin dall’inizio. Come farsi un’idea precisa di un corpo che, spostandosi in seno all’etere ed essendo conseguentemente attraversato da questo mezzo, è allo stesso tempo la sede  di una corrente elettrica o di un fenomeno dielettrico ?

La risposta a questo quesito seguiva immediatamente:

Per superare la difficoltà ho cercato, per quanto possibile, di ricondurre tutti i fenomeni ad uno solo, il più semplice di tutti, e cioè al movimento di un corpo elettrizzato … Sarà sufficiente ammettere che tutti i corpi ponderabili contengano un gran numero di particelle di carica positiva e negativa e che i fenomeni elettrici siano prodotti dallo spostamento di queste particelle.

Seguendo questo punto di vista una carica elettrica è dovuta ad un eccesso di particelle di un dato segno, una corrente elettrica è un reale flusso di questi corpuscoli e negli isolanti ponderabili ci sarà ‘spostamento elettrico’ quando le particelle elettrizzate che essi contengono sono allontanate dalla loro posizione di equilibrio.”

[…]

Le particelle cariche saranno considerate come appartenenti alla ‘materia ponderabile’ che può subire l’azione di forze; tuttavia supporrò che in tutto lo spazio occupato da una particella ci sia anche l’etere, ed inoltre che uno spostamento dielettrico ed una forza magnetica, prodotti da una causa esterna, possano esistere come se la ‘materia ponderabile’ non ci fosse affatto. Quest’ultima è dunque considerata come perfettamente permeabile all’etere.

    Alle equazioni di Maxwell, che in questo momento dello sviluppo dell’elettromagnetismo  erano passate da venti a quattro e che descrivevano la situazione del campo e quindi dell’etere, Lorentz dovette aggiungerne una quinta che rendesse conto di un fenomeno impensabile nella teoria di Maxwell, dell’interazione elementare tra campo elettromagnetico e carica elettrica. Questa equazione, risultato di grande importanza e ancora oggi nota come forza di Lorentz (il primo che aveva dedotto questa formula in modo corretto era stato Heaviside nel 1889) con simbolismo moderno si scrive:

dove F  rappresenta la forza che si esercita su una carica q in moto con velocità  v  all’interno di un campo elettromagnetico E e B con una direzione formante un angolo a con quella del campo magnetico B [nel caso in cui a risulti uguale a 90°, cioè la direzione del moto di q risulti perpendicolare a quella del campo B allora la formula diventa F = q(E + vB)]. Ed in pratica ciò vuol dire che le cariche q in moto sono sorgenti di forze dipendenti dalla velocità.

(2) Nelle memorie Zur Elektronentheorie der MetalleAnnalen der PhysikAnnalen der Physik 306 (3): 566-613 (1900); Zur Elektronentheorie der Metalle II Teil. Galvanomagnetische und thermomagnetische Effecte Annalen der Physik 308 (11): 369-402 (1900); ibid 7, 687-692 (1902). Osservo a margine  che dal 1900 P. Drude assunse la direzione degli Annalen der Physik ed ebbe quindi un ruolo estremamente importante nell’accettare la pubblicazione dei lavori di Einstein del 1905.

(3) Wiedemann, G., Franz, R., Ueber die Wärme-Leitungsfähigkeit der MetalleAnnalen der Physik 89 (8): 497–531, 1853.

Gustav Heinrich Wiedemann (1826-1899); Rudolph Franz (1826-1902). Nel 1905 fu H. Lorentz a mostrare il non accordo della teoria di Drude con la legge di Wiedemann-Franz.

(4) La costante cost fu determinata nel 1872 dal fisico danese Ludvig Lorenz (da non confondersi con Hendrik Lorentz) che trovò: cost = 3/2.(k/q)2, dove k è la costante di Boltzmann e q è la carica dell’elettrone.

(5) L’effetto Hall (Hall, Edwin, On a New Action of the Magnet on Electric CurrentsAmerican Journal of Mathematics, vol 2, 1879) consiste nella nascita di una differenza di potenziale (potenziale di Hall) sulle facce opposte di un conduttore elettrico dovuto a un campo magnetico perpendicolare alla corrente elettrica che passa nel conduttore medesimo.

Sulla striscia conduttrice di figuravi è una corrente I che circola come mostrato. Quando agisce il campo magnetico B gli elettroni della corrente vengono deviati verso destra con la conseguenza di generare una differenza di potenziale Vh tra i due lati della striscia. L’effetto (questo effetto classico) sarà spiegato in modo completo con la Forza di Lorentz (vedi nota 1).

L’effetto Hall può essere utilizzato per determinare il segno dei portatori di carica.

(6) Tolman, Richard C., T. Dale Stewart, The electromotive force produced by the acceleration of metalsPhysics Review 8 (2): 97–116, 1917.

(7) O. W. Richardson, Proc. Chambr. Phyl. Soc., XI, p. 286, 1901. I lavori successivi di Richardson sono:
Richardson (1912), The Laws Of Photoelectric Action And The Unitary Theory Of Light (Lichtquanten Theorie).36 (published 1912 Jul 12), pp. 57-58. Richardson (1913), The Emission Of Electrons From Tungsten At High Temperatures: An Experimental Proof That The Electric Current In Metals Is Carried By Electrons38 (published 1913 Jul 11), pp. 57-61. 

(8) In realtà Richardson, nel suo lavoro del 1901 era giunto ad un’altra espressione per is. Il suo primitivo ragionamento prevedeva che gli elettroni fossero trattenuto all’interno del metallo da una forza analoga alla tensione superficiale che trattiene le molecole all’interno di un liquido e che permette che solo alcune lo lascino sotto forma di vapore. A partire quindi dalla formula che fornisce la tensione di vapore egli trovò

Oggi viene fornita la relazione che ho riportato nel testo trovata dallo stesso Richardson nel 1911 (per rendere conto di alcune difficoltà che l’altra relazione aveva con la teoria dell’emissione elettronica ricavata con la termodinamica) e da altri ricercatori. In realtà le due relazioni sono equivalenti nell’intervallo di temperature in cui si può sperimentare prima della fusione del metallo. L’equivalenza discende dai differenti valori che si possono assegnare alle costanti A e b, poiché le potenze riportate di T hanno poco peso nelle due relazioni rispetto al notevole peso dell’esponenziale.

(9) Ho trattato della carica immagine, all’inizio dell’articolo su Kelvin che si trova al link: http://www.fisicamente.net/FISICA/index-1765.htm

(10) L. Austin, H. Starke, Über die reflexion der kathodenstrahlen und eine damit verbundene neue erscheinung sekundärer emissionAnn. Phys. Lpz., 9  no. 271, 1902.

(11)  Chiamando con δ, coefficiente di emissione secondaria, il rapporto fra la corrente dovuta all’emissione secondaria e quella primaria, si trova che esso cresce al crescere dell’energia cinetica degli elettroni primari ma fino ad un dato valore massimo, per poi decrescere lentamente. Ciò è spiegato nel modo seguente: con il crescere della velocità degli elettroni primari, ciascuno di essi, dopo aver realizzato il lavoro necessario per estrarre un primo elettrone secondario, ha ancora energia sufficiente per liberarne un secondo, quindi un terzo, … Ma ogni successiva estrazione avviene in strati di atomi sempre più interni del metallo con la conseguenza che solo in parte gli elettroni secondari liberati all’interno possano venir emessi, risultando invece riassorbiti dagli strati atomici sovrastanti. Riguardo al non far ricadere fgli elettroni secondari sulla superficie che li ha emessi, si tratta di disporre di un tubo a vuoto con almeno tre elettrodi: uno come sorgente di elettroni primari, un altro che abbia una elevata differenza di potenziale rispetto al primo sul quale vadano ad urtare gli elettroni primari con grande energia, un terzo che sia a potenziale ancora più elevato in grado di raccogliere gli elettroni secondari emessi dal secondo elettrodo (oltre che i propri ed una parte di quelli primari). Per maggiori informazioni si veda: H. Bruning, L’émission électronique secondaireRevue Techn. Philips, III, 3, p. 80, 1938.

(12)  I nomi che furono dati al diodo, che Fleming chiamò valvola oscillatrice, sono diversi e vale la pena riportarli per evitare confusioni nel seguito: tubo a vuoto con due elettrodi per rettificare, valvola termoionica, diodo a vuoto, kenotron, tubo termoionico, valvola di Fleming. Fleming comunicò la scop On the Conversion of Electric Oscillations into Continuous Currents by Means of a Vacuum Valve, Proceedings of the Royal Society, Vol. LXXIV, No. 505, pp. 476- 487; March 16, 1905.
Ricordo qui che le due regolette che si studiano in corsi elementari di fisica, quella della mano destra e quella della mano sinistra, per stabilire i versi di campi elettrici, magnetici e forze meccaniche, sono dovute a Fleming.

Regola della mano destra. Un conduttore percorso da corrente ha intorno a sé un campo magnetico il verso delle cui linee di forza è determinato da questa regola (si deve abbracciare con la mano destra il conduttore ponendo il pollice nel verso della corrente; le line di forza avranno il verso disegnato dalle dita della mano).

Regola della mano sinistra. Disponendo la mano sinistra con pollice, indice e medio disegnando i tre assi cartesiani nello spazio e sistemati in modo che l’indice indichi il verso del campo magnetico, il medio la direzione della corrente, troveremo qual è la direzione della forza meccanica come mostrato in figura.

(13) Edison lavorava al perfezionamento delle lampade ad incandescenza. In tali lampade il filamento era di carbonio e tale materiale, con l’uso, anneriva l’ampolla di vetro facendo perdere luminosità alla lampada. Probabilmente per catturare le polveri che si generavano nella lampada passò attraverso la sistemazione di una placca all’interno dell’ampolla, in modo che tale placca fungesse da trappola per polveri. Si tenga conto che l’elettrone non era stato ancora scoperto e che la corrente con la quale ebbe a che fare Edison sarebbe stata di grande aiuto alla successiva comprensione dei fenomeni elettrici. Nel 1884 Edison dette una dimostrazione del passaggio di corrente tra filamento e placca ed a tale dimostrazione era presente Fleming.

(14) Come scienziato Langmuir ha avuto il grave difetto di credere a sciocchezze infinite sulle quali scrisse anche un Colloquium on Pathological Science, nel quale si occupò di percezioni extrasensorialità e di altre sciocchezze che rendono questo premio Nobel un vero Ig-Nobel.

(15) Phys. Rev., Vol. II, p. 450, 1913.

(16) Per comprendere il principio di funzionamento di una pompa ad acqua mi riferisco alla figura seguente.

Un forte getto d’acqua emerge ad alta velocità dalla strozzatura B; esso viene raccolto dal cono e convogliato in C. Il tubo D è connesso al recipiente da vuotare. Le molecole in B vengono intrappolate dal getto e spinte verso l’atmosfera e successivamente rimpiazzate da nuove molecole provenienti da D. Non si è d’accordo su quali principi regolino tale pompa anche se pare certo si debba prendere in considerazione il teorema di Bernouilli. E’ fondamentale per il corretto funzionamento una geometria perfetta. Queste pompe permettono il raggiungimento di vuoti dell’ordine di 10-3 mm di Hg come massimo.

 Vediamo invece il principio di funzionamento delle pompe meccaniche o rotative riferendoci anche qui alla figura seguente.

Due alette sono tenute con mole in una cavità del rotore eccentrico, in modo da tenere sempre isolati i due tubi di entrata e di uscita. Man mano che il rotore gira le alette spazzano una quantità di gas dall’entrata (recipiente da vuotare) e lo comprimono verso l’uscita, dove c’è una valvola che, aprendosi, ne permette l’espulsione attraverso il gorgoglio in un bagno d’olio (ciò fa intendere che per spegnere questa pompa è necessario far rientrare aria in essa dopo averla isolata dal sistema  per evitare che l’olio sia  risucchiato all’interno della pompa medesima).  Queste pompe permettono il raggiungimento di vuoti dell’ordine di 10-3 mm di Hg (ed anche meglio lavorando con pompe a più stadi).

(17) W. Pauli, Über den Zusammenhang des Abschlusses der Elektronengruppen im Atom mit der Komplexstruktur der SpektrenZeitschrift fur Physik, Vol 31, pp. 765-783, 1925.

(18) W. Pauli, Uber Gasentartung und Paramagnetismus, Zeitschrift für Physik 41, pp. 81–102, 1927.

(19) Enrico Fermi, Sulla quantizzazione del gas perfetto monoatomicoRend. Lincei 3, 145-149, 1926.
E. Fermi, Zur Quantelung des Idealen Einatomigen Gases36, 902, Zeitschrift für Physik 1926.
Dirac, P. A. M., On the Theory of Quantum MechanicsProceedings of the Royal Society, Series A 112: 661-77, 1926. [questo lavoro fu pubblicato, indipendentemente da quello di Fermi, sei mesi dopo].

(20) A. Sommerfeld, On the electron theory of metals based on Fermi statisticsZeitschrift fur. Physik, 47, 1-32; 43-60, 1928.

(21)  Frenkel’ Ya I, Electrical Theory of Solid Bodies, Zeits. f. Phys. 26, 117, 1924.
Frenkel’ Ya I, Zh. Russ. Fiz.-Khim. O-va Chast’ Fiz.56: (4), 505–524, 1924.
Frenkel’ Ya I, Zeits. f.  Phys.37, 572, 1926. 
Frenkel’ Ya I, Phys. Rev37, 27, 1276, 1931.

Occorre ricordare che Frenkel dette notevoli contributi alla fisica dei solidi. In particolare a lui (1931) si deve l’introduzione dell’ eccitone che è una coppia legata elettrone-lacuna che si muove attraverso il cristallo trasportando energia ma non carica (la lacuna, come vedremo meglio nel testo, è uno spazio lasciato libero da un elettrone o, meglio, uno spazio che può essere occupato da un elettrone con la conseguenza che tale spazio è una carica positiva virtuale). Ancora a Frenkel è dovuto lo studio dei difetti nella struttura cristallina (difetti di Frenkel: un atomo che si trasferisce dal suo posto nel reticolo ad una posizione interstiziale, una posizione cioè non occupata in precedenza da un altro atomo). Infine a lui sono dovuti i primi studi (1926) sugli sforzi di scorrimento teorico per un cristallo perfetto

(22) William V. Houston, Ztschr. f. Phys., 48. S. 449 – 468. 1928.

(23) A. Sommerfeld, W. V. Houston, and C. Eckart, Zeits. f. Physik, 47, 1, 1928.

(24) Per una trattazione semplice del legame metallico si può vedere un mio lavoro in http://www.fisicamente.net/FISICA/index-317.htm .

(25) Leggiamo quel che scrive Coulson in proposito:

Gli orbitali [metallici] per una disposizione infinita [di atomi] differiscono però, per un aspetto molto importante, da quelli molecolari …. Lo si può constatare molto semplicemente considerando un atomo (per esempio di litio) e osservando come variano le energie permesse degli elettroni via via che si costruisce il cristallo infinito per successive addizioni di un ulteriore atomo. …  quando si addiziona al primo atomo A, un secondo atomo B, l’orbitale atomico … si trasforma in due orbitali biatomici … ciascuno con una sua distinta energia. Se ora addizioniamo un terzo atomo si otterranno tre orbitali molecolari e le loro energie saranno raggruppate attorno all’energia originale di A. Si può continuare questo processo. Per ogni successiva addizione di un nuovo atomo si ha un valore dell’energia di più, e nello stesso tempo si alterano un po’ quelli della serie precedente. Il processo è illustrato nella fig. 3, da cui si vedrà che al limite ogni orbitale atomico

dà origine ad una banda di energie. Si otterrà una banda da ciascuno degli orbitali permessi dell’atomo originale e il modo in cui si formano queste bande dimostra che il numero totale di livelli di una banda è uguale al numero di atomi del metallo. Se il numero totale di atomi è molto grande (dell’ordine di 1023 in un normale pezzo di metallo … ) i livelli sono così ravvicinati che si può con ragione considerarli un continuo. Se le singole energie atomiche (per esempio 2s e 2p del litio) sono ben separate, o se la distanza tra atomi adiacenti è tanto grande che tra gli orbitali vicini non vi è alcuna apprezzabile sovrapposizione, le singole bande di energia resteranno distinte. Ma se le energie atomiche originali non differiscono molto, o se gli atomi sono sufficientemente vicini, le bande possono a.l1ora perdere la loro individualità e confondersi una con l’altra. In termini approssimati significa che gli orbitali molecolari non devono più essere considerati come composti solamente dell’uno o dell’altro tipo di orbitale atomico, ma di entrambi.

Si possono perciò descrivere i livelli energetici per un metallo nei seguenti termini. Quando gli atomi sono a distanza infinita, le energie sono semplicemente le energie di orbitali atomici separati. Ma diminuendo la costante reticolare, si verificano delle interazioni, e ogni singolo livello si divide in una banda la cui larghezza aumenta regolarmente.

(26) Felix Bloch, Über die Quantenmechanik der Electronen in KristallgitternZeits. f. Phys, 52, 555-600, 1928.
Felix Bloch, The electron theory of ferromagnetism and electrical conductivityZeits. f. Phys. 57, 545, 1929.

Bloch ed altri (Bethe e Sommerfeld) erano arrivati a stabilire l’esistenza di bande di energia per isolanti (bande completamente piene) e conduttori metallici (bande semipiene). Saranno successivamente Wilson e Flower ad introdurre le bande per i semiconduttori (piene ma vicine). Wilson, in particolare, dimostrò che i semiconduttori sono isolanti che hanno le loro bande di valenza e conduzione molto vicine, introdusse (dopo Frenkel) il concetto di lacune e sviluppò la teoria delle bande dei livelli elettronici

Naturalmente, oltre ai citati vi sono stati molti altri contributi di svariati autori che qui cito almeno per nome: R. Peierls (Proc. Phys. Soc. London, Ser. A49, 72, 1937), Nordheim, H. Bethe (Theory of diffraction of electrons in crystalsAnn Phys. 87, 5, 1928), Brillouin, Morse, Strutt (Maximilian Julius Otto Strutt, Wirbelströme in elliptischen Zylinder, Ann. Physik 84, 485-506, 1927; Eigenschwingungen Einer Saite mit sinsförmige MassenverteilungAnn. Physik, 85, 129-136, 1928;  Zur Wellenmwchanik des Atomgitters, Ann. Physik, 86, 319-324, 1928).

(27) A.H. Wilson, The theory of electronic semi-conductors, Proc. R. Soc., London, Ser. A133: 458, 1931. 
A. H. Wilson, The theory of electronic Proc. Roy. Soc., London, A134, 277, 1931.
A. H. Wilson, Reviews of Modern Physics, 4, 723; 1932.

(28) R. H. Fowler, Proc. R. Soc. London, Ser. A140, 505, 1933.
R. H. Fowler, Proc. R. Soc. London, Ser. A141, 56, 1933.
R. H. Fowler, A. H. Wilson, Proc. Roy. Soc. London, A137, 503, 1932.

(29) Karl Ferdinand Braun, Ueber die Stromleitung durch Schwefelmetalle (On current flow through metallic sulfidesPoggendorf’s Annalen, 1874.

(30) L.O. Grondahl, P.H. Geiger, A New Electronic RectifierProc. AIEE Winter Convention, p.357, NY 1927.

(31) W. Schottky, Halbleitertheorie der SperrschichtNaturwissenschaften, 26, p.843, 1938.
W. Schottky, Z. Physik113, 367, 1939.

(32) L’effetto Schottky consiste nella riduzione del lavoro di estrazione degli elettroni da un conduttore come conseguenza della particolare giunzione realizzata con il semiconduttore. Corrisponde quindi all’aumento degli elettroni emessi da un catodo scaldato dall’applicazione di un campo elettrico che riduce il valore dell’energia richiesta per l’emissione di elettroni. L’energia minima richiesta per sfuggire dalla superficie di un dato materiale è chiamata funzione lavoro è aiutata dal calore. Applicando un campo elettrico molto debole si ottiene l’emissione rapida di elettroni dalla superficie del materiale. Aumentando il campo si arriva ad abbassare sensibilmente la funzione lavoro. Continuando nell’operazione continua ad aumentare il numero degli elettroni che vengono emessi. A valori molto alti del campo applicato non si hanno aumenti degli elettroni emessi. Inizia un altro fenomeno chiamato emissione a campo elevato.

(33)  N. F. Mott, Proc. Cambridge Philos. Soc., 34, 568, 1938.
N. F. Mott, Proc. R. Soc. London, Ser. A171, 27, 1939.

(34) H. Bethe, Theory of High Frequency Rectification by Silicon Crystals, MIT Radiation Laboratory, 1942.

(35) A. S. Davydov, J. Phys. U.S.S.R., 1, 167, 1939.

(36) Drogare un  semiconduttore (semiconduttore estrinseco) vuol dire inserire in esso una piccola quantità di impurità o atomi di una  sostanza diversa al fine di aumentarne la conducibilità. Il drogaggio può essere di tipo n o di tipo p. Il primo si ha quando si immettono impurità che hanno un eccesso di cariche negative (atomi generalmente pentavelenti come l’antimonio, il fosforo, l’arsenico) rispetto a quelli richiesti per i legami reticolari e quindi quando alcuni elettroni acquistano libertà di movimento all’interno del semiconduttore ed il secondo quando l’atomo che va a drogare ha un elettrone in meno di quelli che servono per soddisfare i legami del reticolo cristallino e tale mancanza di elettrone, indicata con il nome di lacuna, si comporta come una particella carica positivamente e si può spostare all’interno del semiconduttore (si realizza ciò drogando con atomi generalmente trivalenti come il boro, il gallio, l’indio).

Se si aggiunge boro al silicio nella proporzione di 1 atomo ogni 105, a temperatura ordinaria la sua conducibilità aumenta di 103. Ciò mostra le molte possibilità di conducibilità che si possono ottenere da un semiconduttore variando anche di poco il drogaggio
 

Si considerino dapprima le impurità di tipo n dette anche donori. Esse possiedono cinque elettroni di valenza, uno in più del necessario per completare i quattro legami covalenti; il quinto elettrone può abbandonare l’atomo di origine e diventare un elettrone libero; si viene così ad avere un eccesso di elettroni liberi rispetto al numero di lacune.

Gli atomi dell’impurità di tipo p (dette anche accettori) sostituiscono nel reticolo cristallino alcuni atomi del semiconduttore; poiché ciascun atomo dell’impurità possiede solo tre elettroni di valenza, uno dei quattro legami covalenti non viene formato. In queste condizioni è facile che un altro elettrone, appartenente ad un legame covalente tra due atomi adiacenti del semiconduttore, vada ad occupare il legame vuoto lasciando così una lacuna dietro di sé, si crea in tal modo un eccesso di lacune rispetto al numero di elettroni liberi e ciò corrisponde ad avere un eccesso di cariche positive.
 

Nella figura a, all’interno del reticolo, cristallino è stata introdotta una impurità pentavalente che fornisce un elettrone a disposizione in più per la conduzione (un elettrone per ogni donore). Nella figura b, all’interno del reticolo, cristallino è stata introdotta una impurità trivalente che lascia libero un posto (una lacuna) in un legame (una lacuna per ogni accettore). (Da Holden). 

Vediamo la stessa cosa nelle 4 figure che seguono tratte da Millman e Halkias.

Struttura cristallina del germanio.

Nella struttura precedente un legame covalente si è spezzato creando un lacuna ed un elettrone.

Nel reticolo cristallino del germanio, un atomo di germanio è stato sostituito da un’impurità pentavalente e quindi si ha un elettrone in più per ogni impurità (drogaggio n).

Nel reticolo cristallino del germanio, un atomo di germanio è stato sostituito da un’impurità trivalente e quindi si ha una lacuna in più per ogni impurità (drogaggio p).


Resta da dire che drogando ad esempio in modo n si fanno diventare gli elettroni i portatori di carica maggioritari ma restano sempre le lacune come portatori di carica minoritari. Drogando in modo p i portatori maggioritari sono le lacune e gli elettroni sono portatori minoritari. Se quindi si realizza una giunzione p-n essa deve funzionare come raddrizzatore proprio perché da una parte i portatori di carica sono di un tipo e dall’altra di tipo opposto  (Wilson, 1931). Il ruolo dei portatori minoritari non fu ben capito quando fu descritto da Wilson. Occorreranno i lavori di Shockley perché si arrivasse a cogliere l’importanza del fenomeno.

Un semiconduttore non drogato è chiamato intrinseco ed in essi il numero di lacune eguaglia quello degli elettroni liberi (in assenza di tensione applicata). Un semiconduttore estrinseco di tipo p ha un numero di lacune molto maggiore del numero di elettroni liberi. Un semiconduttore estrinseco di tipo n ha un numero di elettroni liberi molto maggiore di quello delle lacune.

Le impurità che servono per drogare, devono essere a loro volta estremamente pure per essere in grado di permettere un ottimo controllo delle proprietà elettriche dei semiconduttori estrinseci.

(37)  J. H. Scaff, H. C. Theuerer, and E. E. Schumacher, P-type and N-type silicon and the formation of the photovoltaic barriers in silicon ingots, Trans. A.I.M.E., vol. 185, pp. 383–388, June 1949.
 

(38) W. Shockley, The Theory of p-n Junctions in Semiconductors and p-n Junction TransistorsBell System Technical Journal, Vol. 28 No. 3, pp. 435–89, July 1949.

W. Shockley, Circuit Element Utilizing Semiconductive Material, U. S. Patent 2, 569, 347 (Filed June 26, 1948. Issued September 25, 1951).

W. Shockley, Electrons and Holes in Semiconductors with Applications to Transistor Electronics, New York: Van Nostrand 1950.

(39) W. H. Brattain, Phys. Rev., 71, 345, 1947.
J. Bardeen, Phys. Rev., 71, 717, 1947.
W. H. Brattain, W. Shockley, Phys. Rev., 72, 345, 1947.
J. Bardeen, W. H. Brattain, The Transistor, A Semi-Conductor TriodePhys. Rev. 74, 230-231, July 1948.
W.H. Brattain, J. Bardeen, Nature of The Forward Current in Germanium  Point ContactsPhys. Rev., 74, 231-232, 1948.  
J. Bardeen, W. H. Brattain, Physical Principles Involved in Transistor Action, Phys. Rev. 75, 1208-1225, aprile 1949.

(40) G. K. Teal, J. B. Little, Growth of Germanium Single CrystalsPhysical Review, 78, p. 647 1950.
F. S. Goucher, G. L. Pearson, M. Sparks, G. K. Teal, W. Shockley,Theory and Experiment for a Germanium p-n JunctionPhys. Rev. 81, 637 (1951).
W. Shockley, M. Sparks, G. K. Teal, p-n Junction TransistorsPhysical Review,  83, No. 1, pp. 151-162, July 1951.
G. K. Teal, M. Sparks, E. Buehler, Growth of Germanium Single Crystals Containing p-n JunctionsPhys. Rev. 81, 637- 637, 1951.
M. Sparks, G.K. Teal, Method of Making P-N Junctions in Semiconductor MaterialsU. S. Patent 2,631,356 (Filed June 15, 1950. Issued March 17, 1953).

Teal, Gordon K., Methods of Producing Semiconductive BodiesU. S. Patent 2,727,840 (Filed June 15, 1950. Issued December 20, 1955).

(41) Faggin, F., Klein, T., Vadasz, L., Insulated Gate Field Effect Transistor Integrated Circuits with Silicon Gates, presentato al IEEE International Electron Device Meeting. Washington, D.C., ottobre 1968.
Federico Faggin, Thomas Klein, A Faster Generation of MOS Devices with Low Thresholds is Riding the Crest of the New Wave, Silicon-Gate IC’s. Electronics magazine, 29 settembre 1969.
F. Faggin, T. Klein, Silicon Gate Technology”. Solid State Electronics, Vol. 13, pp. 1125-1144, 1970.

(41) F. Faggin, M. E. Hoff, Standard Parts and Custom Design Merge in a Four-chip Processor Kit, Electronics magazine, 24 aprile 1972.
F. Faggin, M. Shima, M.E. Hoff, Jr., H. Feeney, S. Mazor, The MCS-4 – An LSI Microcomputer System, presentato alla IEEE, Region Six Conference, 1972


BIBLIOGRAFIA

(1) A. Einstein – La teoria dei quanti di luce – Newton Compton, 1973.

(2) Franca Magistrelli – Appunti di tecnica del vuoto – Università di Roma – CNEN, 1963.

(3) René Taton (coordinata da) – Storia generale delle scienze – Casini 1965 (Contributo di P. Marzin e J. Le Mézéc, Vol IV, Parte II, Cap. IX).

(4) E. Whittaker – Aether and Electricity – Thomas Nelson and Sons, 1954.

(5) Max Born – Atomic Physics – Blackie & Sons 1961.

(6) C. Kittel – Introduzione alla fisica dello stato solido – Boringhieri 1971.

(7) C. Kittel – Elementary Solid State Physics – John Wiley & Sons 1966.

(8) A. J. Dekker – Fisica dello stato solido – Ambrosiana 1965.

(9) J. M. Ziman – Principles of the Theory of Solids – Cambridge University Press 1965.

(10) J. Millman, C.C. Halkias – Dispositivi e circuiti elettronici – Boringhieri 1971.

(11) Alan Holden – La fisica dei solidi – EST Mondadori 1967.

(12) C. A. Coulson – La valenza – Zanichelli 1970.

(13) V. Medved, S. Medved, M. Montalbetti – Le basi dell’elettronica – Delfino 1984.

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: