ATOMI E MOLECOLE 2

L’atomo nella fisica

         In quello che abbiamo fin qui detto rispetto alle vicende della teoria atomica ci siamo fermati intorno alla metà del Settecento per quel che riguarda l’atomo nella fisica (i conti fatti da Bernouilli). Il resto rappresenta essenzialmente uno sviluppo della teoria nell’ambito della chimica che, come già accennato, non aggiungeva molto alla soluzione del problema continuità – discontinuità proprio perché la chimica può prescindere dalle dimensioni degli atomi.

        E’ interessante seguire per grandissime linee come si sviluppò il dibattito nell’ambito della fisica.

         Quando abbiamo parlato di Aristotele come di un oppositore della teoria atomica, abbiamo forse dato l’impressione che negare l’esistenza degli atomi si esaurisse a quelle argomentazioni e che la marcia verso la conquista dell’atomo sia stata del tutto lineare, frutto di un cumulo di fatti e teorie che inevitabilmente dovevano portarci agli atomi. Le cose non stanno così: la conquista della discontinuità della materia ha avuto un cammino estremamente travagliato che molto spesso si è intersecato con questioni che a prima vista nulla avevano a che fare con l’argomento in discussione. In alcune epoche lo scontro tra i sostenitori della continuità della materia con gli atomisti è diventato addirittura drammatico coinvolgendo problemi filosofico – ideologici di grande trascendenza.

         Il Settecento fu il secolo di Newton. E tra i lavori di Newton, per ciò che ci riguarda, assume un carattere di estrema importanza la scoperta della legge di gravitazione universale. Due masse med m 2 poste ad una distanza r si attraggono con una forza F data da:

dove G è una costante, detta costante gravitazionale, che vale G = 6,7 .10-11 N.m2/Kg2. Questa semplice relazione dice molto di più di quanto non si legga in essa. Innanzitutto l’azione che si esercita tra due masse avviene lungo la retta congiungente i centri delle due masse (azione rettilinea); quindi questa azione si esercita a distanza tra le masse, senza che nessun intermediario la trasmetta (azione a distanza); infine l’azione è istantanea nel senso che non impiega tempo per relazionare tra loro due masse, e ciò vuol dire che l’azione si propaga con velocità infinita (azione istantanea). Ebbene, l’ammissione di questa legge non fu tanto pacifica. Un’altra scuola di pensiero, quella che faceva capo a Descartes prevedeva invece che le azioni non potessero aver luogo che per contatto, cioè da punto a punto. Sullo sfondo quindi del problema continuità – discontinuità della materia c’erano delle implicazioni più profonde che coinvolgevano il tipo di azione e, in qualche modo, l’atomismo si identificò con l’azione a distanza mentre i sostenitori della continuità della materia si schierarono con razione a contatto. E neanche a pensare che le cose fossero così semplici: in realtà i problemi erano molto più complessi e questa sorta di manicheismo da me introdotto non riguardava altri  se non coloro che sempre nella loro vita hanno bisogno di schierarsi in modo acritico. E’ comunque utile mantenere questo schema a fini di brevità che ci siamo proposti.

        I lavori di Newton, il suo metodo, la sua impostazione ebbero il sopravvento e, almeno per tutto il Settecento, si affermò l’azione a distanza e con essa si poté liberamente pensare all’esistenza di atomi indipendentemente dal fatto che essi fossero o meno necessari a spiegare  un qualche fenomeno. A parte il lavoro di Bernouilli, del quale abbiamo parlato, e di altre speculazioni dello stesso tipo, a proposito dell’esistenza degli atomi, occorrerà attendere la fine del secolo per avere u altro problema alla soluzione del quale l’ipotesi atomica darà un qualche notevole contributo.

        Che cos’è il calore ? Dietro questa innocente domanda c’è una infinità di problemi di grande complessità. Tra le varie teorie che si erano avanzate quelle fluidistiche, che prevedevano cioè essere il calore un fluido che passava da un corpo ad un altro, sembravano aver preso il sopravvento.  Questo fluido, il calorico, doveva essere dotato di peso  e, proprio l’esperienza della conservazione della massa di Lavoisier (come accennato), aveva dato ad esse un colpo mortale. Secondo la teoria fluidistica infatti un corpo, se scaldato, deve pesare di più di quando esso è freddo. Ebbene, data la conservazione della massa, niente del genere si verificava.

        Fu Benjamin Thompson, il conte Rumford, che  per la prima volta interpretò il calore, così come noi oggi facciamo, in termini dinamici. Egli era addetto alla foratura dei cannoni per il Duca di Baviera ed il forte attrito che i trapani esercitavano sopra i blocchi metallici produceva un notevole riscaldamento. Per raffreddare l’insieme di trapano e blocco metallico si poneva tutto in acqua; ciò che Rumford fece fu il mettere in relazione il numero dei giri che un trapano faceva con il riscaldamento che si produceva. E Rumford concluse che il calore non è altro che ciò che forniamo: noi forniamo movimento ed otteniamo calore, ebbene il calore è movimento. Ritorna in primo piano l’ipotesi atomica elaborata da Bernouilli: il moto delle particelle che costituiscono la materia è legato alla trasmissione del calore. E fu H. Davy che nel 1812 realizzò una esperienza, di gran semplicità, nella quale rese manifesta l’equazione calore = movimento: strofinando tra di loro due pezzi di ghiaccio, questi ultimi fondono.

       Alla fine del Settecento e nei primi anni dell’0ttocento tutta la fisica delle grandi Accademie ed Università si andava schierando con l’ipotesi atomica.

         Ampére nel 1814 assegnò agli atomi un ruolo che fino ad allora non avevano avuto: da essi sono emanate le forze attrattive e repulsive che sono alla base della costituzione della materia. Ancora Ampére nel 1820 ipotizzò che la materia deve essere costituita da molecole formate da un nucleo centrale intorno a cui ruotano delle correnti microscopiche.

         Laplace era certamente schierato con l’ipotesi atomica e con lui tutti i grandi della scuola dei fisici matematici francesi. E’ comunque un essere schierati senza aggiungere nulla che faccia crescere l’ipotesi atomica.

        Viceversa, in sordina, verso la fine del Settecento viene avanzata una teoria da parte del padre gesuita G.R. Boscovich che avrà importanti sviluppi sulla strada della negazione della discontinuità della materia. Secondo Boscovich gli ultimi costituenti la materia, i supposti atomi, debbono essere considerati come punti inestesi (privi di dimensioni ma dotati di massa) intorno ai quali vi sono delle atmosfere di forza. Questi punti-atomi sono soggetti alle tre leggi della dinamica; essi possono attrarsi o respingersi a seconda della distanza che li separa. Gli atomi di Boscovich sono una sorta di palline di gomma che quando vanno ad urtarsi si compenetrano un poco prima di respingersi. E proprio quest’ultima fu la motivazione che spinse Boscovich ad elaborare la sua teoria: secondo tutte le precedenti elaborazioni gli atomi dovevano essere delle sferette rigide; quando due sferette di questa natura vanno a collidere , al momento dell’urto,  si avrà una discontinuità nella loro quantità di moto (ad un dato istante, le quantità di moto delle due sferette saranno dotate di una data direziono e verso; nello stesso istante, quello dell’urto, le stesse palline avranno quantità di moto dirette allo stesso modo ma con versi opposti, naturalmente si parla di urto centrale); tatto ciò non si verifica nell’ipotesi di atomi che sono parzialmente compenetrabili poiché la quantità di moto dei due non si annulla di colpo per cambiare istantaneamente verso, ma gradualmente va ad annullarsi per poi gradualmente riassumere lo stesso  valore ma in verso opposto.

         Questa teoria aveva il pregio di conciliare, in qualche modo,  il punto di vista della continuità (le forze sono ovunque presenti) con quelle della discontinuità (i punti inestesi). Essa inoltre si prestava molte bene ad una trattazione matematica e permetteva di spiegare tutte le proprietà e qualità della materia partendo dal punto inesteso come costituente comune della materia stessa (in pratica si aveva a che fare con un solo tipo di atomo che combinandosi variamente ed oscillando continuamente intorno alla sua posizione di equilibrio permetteva il formarsi delle varie sostanze con le diverse proprietà chimiche e fisiche). E’ interessante vedere una curva di forza tra due punti atomi di Boscovich perché in essa sono previste forze alternativamente attrattive e repulsive :

        Il finire del Settecento è caratterizzato dal lavoro di un grande pensatore, I. Kant, che ebbe grandi influenze sugli sviluppi futuri della ricerca scientifica. In particolare a Kant si ispirava Schelling, il fondatore di un movimento di pensiero, la Naturphilosophie, al quale si richiamerà il fisico danese H.C. Oërsted. In breve, secondo Schelling, la concezione di materia che si desume dall’ammissione di particelle dotate di massa ed in continuo movimento non rende ragione dell’esistenza della natura. Questa materia è un qualcosa di inerte finché su di essa non agiscono delle forze,  entità diverse e separate dalla materia; ebbene ammettere questo dualismo è, seconde Schelling, ammettere una discontinuità tra materia e spirito che non corrisponde all’unità originaria di queste due entità, ad esempio, nell’organismo umano. Egli sosteneva quindi che è lo spirito (le forze) che si organizza in materia e poneva quindi le forze, agenti tra punti inestesi, con i loro conflitti e trasformazioni, alla base dell’esistenza del mondo. Non c’è più materia quindi, ma una particolare modificazione di una determinata zona dello spazio dovuta appunto ai conflitti ed alle trasformazioni delle forze eterne e preesistenti.

        Sotto l’influenza di questo modo di intendere le cose e dopo nove anni di infruttuosi tentativi. Oërsted, con la sua famosa ed apparentemente innocente esperienza, riuscì a trovare forze disordinate nello spazio e comunque non certamente riconducibili all’azione rettilinea e a distanza di Newton: l’azione che si esercita tra un filo percorso da corrente ed un ago magnetico disposto parallelamente al filo (l’ago ruota) è perpendicolare alla congiungente filo-ago e non è più riconducibile alle forze di tipo newtoniano.

        Vi furono svariati tentativi per addomesticare l’esperienza di Oersted al fine di ricondurla alle ordinate forze della fisica di Newton. A questo fine lavorò soprattutto Ampére, ma anche Biot, Savart, e svariati altri.                                  ‘

        L’esperienza di Oërsted trovò invece un fecondo interprete in Faraday.

        La grandissima mole dei lavori sperimentali che portò a termine questo fisico britannico portarono alla conclusione che in qualche  modo era stata adombrata da Boscovich: un punto inesteso circondato da una atmosfera di forza (il campo) che teoricamente si estende all’infinito è l’atomo di Faraday. Esso nasce per il fatto che Faraday è costretto ad ammettere l’esistenza di azioni a contatto e, conseguentemente, a negare le azioni newtoniane a distanza. Merito di Faraday fu quello di affermare definitivamente le azioni a contatto e cioè le azioni di campo. L’atomo sfumava in un qualcosa di non più riconoscibile dal punto di vista delle concezioni primitive proprio nel momento in cui  era grandemente utilizzato nella chimica. E proprio da un fenomeno molto studiato dai chimici venne un indizio, all’epoca non colto, molto importante a favore della concezione atomica. Fu ancora Faraday che nel 1833 ricavò le sue famose leggi dell’elettrolisi: perché ad un elettrodo si liberi un grammo-atomo di un elemento di valenza z, facente parte del composto in questione, la soluzione elettrolitica deve essere attraversata da una quantità di elettricità data da z volte 96.522 coulomb. Era il primo tangibile indizio della natura discontinua dell’elettricità, dell’esistenza dell’elettrone. Ma evidentemente era troppo presto perché da questo indizio si potesse trarre una qualche conclusione.                           

         Intanto negli stessi asmi (1827) il botanico britannico Robert Brown scoprì  un fenomeno che avrebbe in seguito trovato una convincente spiegazione nell’ambite di uno degli assunti della teoria atomica: l’energia termica di un corpo è legata ai moti di  minuscole particelle all’interno del corpo medesimo. Si tratta dei moti browniani, di fenomeni che riguardano i moti casuali a zig-zag che minuscole particelle in sospensione in un fluido eseguono. Come per l’altro indizio, quello dell’elettrone, bisognerà attendere vari anni prima che una esauriente spiegazione del fenomeno venga proposta (Einstein e Smolusovskij – 1905).

        Ancora in quegli anni si stavano studiando degli strani fenomeni che non si riusciva in alcun modo a comprendere: gli «spettri» originati da diverse sostanze quando erano bruciate ed osservate attraverso opportuni strumenti. Data la rilevanza di queste argomento per ciò che segue, soffermiamoci un poco su di esso.

Gli spettri.

            Tutti dovrebbero conoscere la celebre esperienza di Newton della separazione della luce solare mediante un prisma di cristallo:

Della luce bianca (Sole o lampada ad incandescenza), uscente dalla fenditura F, quando attraversa un prisma P, viene scomposta nei colori che la compongono. Su di uno schermo si osserverà una zona illuminata in modo continuo con tutti i colori dell’arcobaleno a partire dal rosso (cui corrisponde la minima deviazione), fino al viola (cui corrisponde la massima deviazione (ad ogni colore corrisponde una data frequenza; maggiore è la frequenza di un dato colore, maggiormente esso risulta deviato). Ebbene, quella striscia illuminata con i vari colori si chiama spettro e, in particolare, spettro della luce bianca.

            La scienza che studia gli spettri si chiama spettroscopia. Seguiamone le tappe principali

1802 – il britannico W.H. Wollaston (1766-1828), osservando lo spettro solare prodotto da un prisma, scopre l’esistenza di sette righe scure distribuite in modo irregolare (più oltre se ne scopriranno altre);

1814 – il tedesco J. Fraunbofer (1787-1826) osserva il fenomeno in modo più  approfondito: conta 560 righe scure, scopre che una di queste righe (chiamata D, quella in corrispondenza del giallo che poi si scoprirà essere una doppia riga) coincide con la doppia riga gialla del sodio (vedi oltre; Fraunhofer non sapeva ancora che quella doppia riga gialla era caratteristica del sodio: egli la otteneva osservando lo spettro prodotto da una candela, da una lampada ad elio e da una lampada ad alcool);   costruisce la prima carta dello spettro solare, scopre nello spettro di Venere alcune righe presenti nello spettro del Sole, introduce i reticoli di diffrazione (che permettono di separare meglio la luce) con i quali realizza le prime determinazioni della lunghezza d’onda dei vari colori dello spettro;

1827-1855 – in questi anni si sommano diversi contributi ed in particolare: la scoperta della fotografia ad opera del francese J.P. Niepce (1765-1833); la scoperta dell’emissione di spettri da parte di solidi portati all’incandescenza, ad opera del britannico J.W. Draper (1811-1882);

1857 – il tedesco R.W. Bunsen (1811-1899) scopre che utilizzando il gas illuminante, installato nel suo laboratorio nel 1855, si ottiene una fiamma non molto luminosa ma ad alta temperatura e costruisce il becco Bunsen, con il quale si possono ottenere gli spettri dei soli corpi portati all’incandescenza senza interferenze da parte della fiamma che non ha un proprio colore specifico;

1859 – Kirchhoff e Bunsen gettano le basi della moderna spettroscopia, distinguendo con chiarezza la differenza esistente tra spettri di emissione e spettri di assorbimento : se sul becco si fa bruciare del sodio, lo spettro presenta due righe gialle che coincidono esattamente con le più brillanti delle linee oscure dello spettro del Sole (riga D); osservando poi lo spettro della luce solare  lungo la cui traiettoria è interposto il becco con del sodio che brucia, non appare più la riga D nello spettro solare ed al suo posto vi sono le righe gialle del sodio; questo ultimo fenomeno si verifica solo quando la luce solare è molto attenuata, in caso contrario si continua  a vedere la linea D; lo stesso fenomeno si può ottenere mantenendo costante l’intensità della luce solare e aumentando o diminuendo la temperatura della fiamma del becco. Da ciò Kirchhoff capì il significato dello spettro solare ed in particolare delle sue linee scure: la superficie del Sole emette radiazioni (fotosfera) di tutti i colori e l’atmosfera di gas incandescenti del Sole (cromosfera e corona), molto meno calda della fotosfera, assorbe una parte delle radiazioni emesse dal Sole, ed assorbe quelle che sono emesse dagli elementi componenti l’atmosfera solare. Come dice Kirchhoff: “le fiamme colorate nei cui spettri si presentano linee brillanti e marcate [spettro di emissione: quello di figura è del sodio],

indebolisce talmente i raggi del colore di queste linee quando passano attraverso di esse, che in luogo delle linee brillanti compaiono linee scure [spettro di assorbimento: quello di figura è ancora del sodio con la riga gialla di emssione che diventa nera in assorbimento

quando si colloca dietro la fiamma una fonte di luce di sufficiente intensità e nel cui spettro mancano queste linee. Concludo quindi che le linee scure dello spettro solare, he non sono prodotte dall’ atmosfera terrestre, nascono dalla presenza nella infuocata atmosfera del Sole, di quelle sostanze che nello spettro di una fiamma presentano le linee brillanti nella stessa posizione.” Ed in questo modo Kirchhoff e Bunsen riuscirono a stabilire la presenza sul Sole di alcuni elementi: confrontando le righe che compongono lo spettro solare con quelle, ottenute in laboratorio, per elementi noti (all’esistenza di un dato insieme di righe nello spettro corrisponde sempre la presenza di un dato elemento).                                                                     

           Altro fondamentale risultato ottenuto da Kirchhoff nello stesso anno è il cosiddetto principio di inversione secondo il quale una sostanza assorbe le stesse radiazioni che è in grado di emettere.

        Per portare avanti le loro ricerche i due si servirono di uno spettroscopio, strumento da loro realizzato e  costruito da K. A. von Steinheil (famoso costruttore di strumenti ottici) nel 1853. Sulla destra della figura vi è una fenditura regolabile in ampiezza da cui far passare la luce. La luce può essere quella di una lampada (luce bianca) o quella ottenuta con un becco Bunsen sul quale è sistemata una retina metallica sulla quale si mettono delle sostanze che si fanno bruciare per vederne gli spettri. Questa “luce” passa attraverso il collimatore T, va sul prisma P dove viene separata, quindi entra nel cannocchiale C (mobile su una ghiera graduata) ai cui estremi vi è un osservatore o una lastra fotografica (al posto di P, per avere studi più sofisticati si possono sistemare dei reticoli di diffrazione).

            Gli studi in questo campo portarono a stabilire senza ombra di dubbio che ciascun element aveva un suo spettro che differiva da tutti gli altri. Se si aveva un composto, lo spettro che veniva fuori era semplicemente la sovrapposizione degli spettri dei vari elementi che lo costituivano. Per questa via si scoprirono nuovi elementi poiché in dati composti comparivano serie di linee che non erano mai state osservate per nessun elemento. Esemplifico con gli spettri di due elementi, il primo dell’elio (elemento prima sconosciuto e che, appunto, fu trovato per via spettroscopica, analizzando lo spettro solare), il secondo del neon.

            Ebbene, i dati osservativi stavano lì, avevano permesso importanti scoperte, ma non si riusciva a capire quale fosse l’origine degli spettri. Si provò a metterli dentro delle formule empiriche che rendessero conto della frequenza da assegnare ad ogni riga per differenti elementi. Nel 1885, lo svizzero Balmer riuscì a montare una formula che rendeva conto della frequenza delle varie righe dello spettro dell’idrogeno (nel visibile). La formula di Balmer è:

dove B è una costante che vale 3,3.105s-1  ed n è il numero d’ordine della riga dello spettro dell’idrogeno della quale si vuole misurare la frequenza (si osservi che, nel visibile, sperimentalmente n va da 1 a 6).

            Dallo studio della sua formula Balmer riuscì a prevedere alcuni fatti:

1) devono esistere delle righe relative ad n = 7, 8, 9, ……, ∞ nella regione dell’ultravioletto (queste righe furono osservate subito dopo con uno spettroscopio opportuno);

2) devono esistere relative ad 1/12 (nella formula) situate nel lontano ultravioletto (queste linee furono osservate sempre con uno spettroscopio opportuno da Lyman nel 1906: serie di Lyman);

3) devono esistere altre righe relative a 1/32 (nella formula) nella regione dell’infrarosso (queste righe furono osservate da Paschen nel 1908);

4) devono esistere altre righe relative a 1/42, 1/52, … nella regione dl lontano infrarosso (queste righe furono osservate negli anni seguenti da diversi ricercatori, tra cui Brackett e Pfund).

Ritorniamo all’atomo nella fisica.

            La fine dell’Ottocento era piena di attività scientifica sperimentale e teorica. Sulla strada aperta da Faraday iniziò a muoversi Maxwell che, se da una parte sviluppò le idee di Faraday relative al campo e quindi ad una materia costituita da atomi evanescenti, dall’altra dette un enorme contributo alla teoria cinetica dei gas che non poteva in alcun modo essere trattata con gli atomi-campo. Questa strana situazione era abbastanza comune all’epoca: la trattazione dei fenomeni elettromagnetici doveva far ricorso alla teoria di campo, cioè all’azione a contatto, cioè a punti-atomi che non sembravano più avere le loro caratteristiche materiali; la trattazione dei fenomeni riguardanti la teoria cinetica e, più in generale, di quelli riguardanti la termodinamica trattata con metodi statistici, doveva far ricorso all’atomo materiale, alla minuscola pallina che rimbalzava incessantemente tra le pareti di un recipiente.

        Intorno alla metà del secolo iniziarono le prime misure della velocità con cui le perturbazioni elettromagnetiche si propagavano nei cavi conduttori. E qui, pian piano, si riaffaccia un costituente della materia dalla natura corpuscolare: sarebbe un flusso di particelle cariche elettricamente che spostandosi da una parte all’altra, trasporta la perturbazione elettromagnetica. Queste particelle sono ancora del tutto indefinite: c’è chi pensa che questa corrente sia dovuta ad un solo flusso di particelle, cariche di un determinato segno, in un sol verso; c’è chi pensa  si tratti di un doppio flusso contrapposto, in modo che le particelle cariche di un segno vanno in un verso mentre quelle   di segno opposto vanno in verso opposto. Si susseguono moltissimi lavori teorici ma non si coglie ancora con chiarezza l’eventuale senso dell’ammissione di queste particelle cariche come costituenti la materia. In particolare se ancora di atomi si doveva parlare, visto che la materia è di per sé neutra e visto che eventualmente bisogna ammettere in essa delle particelle cariche, si dovrà ammettere, sempre in essa, la presenza di una carica di segno opposto che la renda neutra. Ed in ogni caso, se si deve parlare di atomi, bisogna cominciare a rinunciare al loro essere dei grani inscindibili.

        Intanto, nel 1874, l’irlandese G. J. Stoney riprese il fenomeno dell’elettrolisi del quale Faraday aveva fornito la legge nel 1833. E sulla stessa strada si mosse anche Helmholtz nel 1881, con in più il grande vantaggio che l’autorità scientifica di Helmholtz era tale che una qualunque cosa egli sostenesse veniva subito presa in seria considerazione. Ebbene, sia Stoney che Helmholtz,  mostrarono che se la materia  e l’elettricità sono considerate discontinue (cioè formate da tante piccole particelle) allora gli esperimenti di Faraday sono semplici da spiegare.

        Se ciascun atomo di materia, nel passare attraverso la soluzione, porta con sé una quantità di carica definita e ben determinata, allora la quantità di materia depositata su di un elettrodo sarà direttamente proporzionale a questa quantità di carica. Ora, un grammo-atomo di materia contiene un numero di atomi pari al numero N di Avogadro e quindi ciascun atomo trasporta una carica q pari a:

 q  = z.(96.522/N) coulomb

con z numero intero. Così la carica che ogni ione elettrolitico, di qualsiasi tipo esso sia, trasporta è sempre multipla di 96.522/N, che risulta quindi  essere la carica elementare. A questa carica elementare Stoney, nel 1891, dette il nome di  elettrone (agli inizi Stoney con la parola elettrone indicava la carica elettrica associata ad uno ione monovalente). 

        Alla possibile conclusione di esistenza di una carica elementare di elettricità si arrivò anche da una strada completamente diversa, quella dello studio della scarica nei gas rarefatti.

        Nel 1879 il britannico W. Crookes, impegnato nello studio della scarica elettrica in gas rarefatti, sulla strada aperta fin dal 1751 da Watson e poi seguita da moltissimi ricercatori (Davy, Faraday, Abria, Geissler, Plücker, Hittorf, Karley, …)  produce una scarica elettrica in un tubo di vetro in cui aveva praticato un vuoto molto spinto (dell’ordine di un millesimo di atmosfera). Da questa esperienza ricava l’esistenza &i raggi emessi dal catodo, costituiti, secondo la sua teoria, da molecole elettrizzate espulse dal catodo stesso (raggi catodici). Mentre anche altri ricercatori , come E. Riecke, erano convinti della natura corpuscolare dei raggi catodici, alcuni, tra cui l’autorevole Hertz, non erano della stessa opinione.

         Hertz, insieme al suo assistente Lenard, fece una serie di esperienze con i gas rarefatti. In particolare osservò (1892) che i raggi catodici erano in grado di attraversare sottili lamine metalliche. Da ciò egli concluse che non poteva trattarsi di fenomeni corpuscolari e che, al contrario, i raggi catodici non sono altro che delle vibrazioni dell’etere, allo stesso modo della luce.

         Intanto Goldstein, servendosi di un catodo perforato, aveva scoperto resistenza dei raggi anodici, o positivi, o canale (1886); e Schuster era riuscito a misurare, anche se con scarsa precisione, il rapporto tra la carica e la massa delle ipotetiche  particelle emesse dal catodo, osservandone la deviazione in un campo magnetico. .

        Per rendere conto di una molteplicità di problemi teorici l’olandese H. A. Lorentz, nel 1892, elaborò una teoria degli elettroni nella quale l’elettricità era considerata un fenomeno di spostamento di particelle, gli elettroni, dotate di carica e di massa.

        Da questo proto c’è un dato teorico da sottoporre alla prova dell’esperienza e le ricerche, appunto sperimentali si faranno sempre più frenetiche. Eccone una breve cronologia.

1894 – il britannico J.J. Thomson (1856-1940), usando di uno specchio ruotante, riesce a calcolare la velocità dei raggi catodici trovando un valore di circa 10.000 Km/sec,  velocità molto più piccola di quella della luce ed enormemente più grande di quella delle molecole di un gas. Quindi, conclude Thomson, né Hertz né Crookes hanno ragione: non si tratta né di vibrazioni dell’etere né di molecole, ma di particelle d’altra natura e cariche negativamente;

1894 – P. Lenard dimostra che i raggi catodici possono uscire dal tubo di scarica, attraversando foglie sottili di alluminio come finestre e quindi diffondendosi nell’aria;

1895 – il tedesco W.C. Rontgen (1845-1923)  scopre che, nelle vicinanze di un tubo di Crookes, le lastre fotografiche rimangono impressionate ed interpreta il fenomeno come originato da nuovi e misteriosi raggi provenienti dal tubo, che egli chiama raggi X;

1895 – il francese J. Perrin (1670-1941) dimostra che i raggi catodici sono costituiti da particelle cariche negativamente, gli elettroni;

1896 – Rontgen approfondisce lo studio dei raggi X scoprendo che essi sono generati da tutti i punti colpiti dai raggi catodici e che hanno la proprietà di scaricare i corpi elettrizzati;

1896 – il francese G. Gouy (1654-1926) scopre la rifrazione e la diffrazione dei raggi X;

1897 – J. J. Thomson dimostra che quando i raggi X passano attraverso un gas lo rendono conduttore di elettricità;

1897 – il tedesco K.F. Braun (1850-1918) dimostra che i raggi catodici sono deviati da un campo magnetico, ma anche da un campo elettrico e su questo principio costruisce un tubo (tubo di Braun), del tipo del tubo catodico di un televisore. Sul fondo del tubo è cosparsa sostanza fluorescente sulla quale si produce una piccola scintilla quando è colpita da un raggio catodico;

1897 – il tedesco W. Wiechert (l86l-1928) fornisce un’altra determinazione del rapporto tra massa e carica dell’elettrone, dalla deviazione dei raggi catodici sotto l’influenza di un campo magnetico e dal confronto dei dati così ottenuti con quelli che erano stati ottenuti mediante elettrolisi;

1897 – J.J. Thomson misura il rapporto e/m, tra carica e massa di un elettrone, trovando che esso vale 770 volte l’analogo rapporto per lo ione idrogeno;

1897 – il tedesco W. Kaufmann (1871-1947), usando il tubo di Braun, corregge in 1770 il valore trovato da Thomson. Per le sue misure Kaufman si basa sempre sulla deviazione dei raggi catodici mediante campo magnetico ma anche sulla differenza di potenziale tra gli elettrodi.

        A questo punto comincia a porsi il problema: se e/m calcolato per l’elettrone è tanto più grande del Q/M dello ione, ciò dipende dal fatto che è molto più grande di Q o dal fatto che è molto più piccolo di M ? Proprio allora il britannico C.T.R. Wilson (1869-1959) costruì uno strumento che permetteva di visualizzare le tracce delle particelle cariche (camera di  Wilson o camera a nebbia).

1899 – J.J. Thomson, utilizzando una camera di Wilson, scopre che la carica di uno ione gassoso è la stessa dello ione idrogeno da fenomeni elettrolitici ed è anche la stessa di quelle particelle che vengono emesse da una superficie metallica per effetto fotoelettrico. Thomson trasse la conclusione che la carica dell’elettrone doveva essere uguale a quella dello ione idrogeno (che oggi sappiamo essere un protone), e di conseguenza era la massa m dell’elettrone che doveva essere molto piccola rispetto a quella di questo ione. Il valore che Thomson trovò per m era più piccolo di circa 1700 volte del valore della massa dello ione idrogeno. Questo valore fu in seguito perfezionato da ulteriori misure e mediante strumenti sempre più perfezionati.

        Scoperta l’esistenza di una carica negativa costituente la materia e dato per scontato che la materia è neutra, si cominciò a porre il problema delle cariche positive che, all’interno della stessa materia, avrebbero dovuto neutralizzare le negative.

         Altri fenomeni da campi diversi si accumulavano sulla strada dell’evidenza sperimentale dell’elettrone. L’effetto fotoelettrico, scoperto casualmente da Hertz nel 1877, è uno di questi. Questo effetto, così come era stato scoperto, consisteva sella carica positiva che acquistava una determinata lastra metallica sottoposta ad una radiazione ultravioletta. Il fatto notevole è che l’effetto si produce solo per radiazioni da una data frequenza in su (frequenza di soglia) ed è indipendente dall’intensità della radiazione che colpisce la lastra metallica (non si ha l’effetto anche per elevatissime intensità di una radiazione che abbia frequenza inferiore a quella di soglia). Nel 1899 il tedesco Lenard ed il britannico J. J. Thomson comprendono che si tratta di elettroni emessi dalla superficie metallica (si noti che nel 1902 lo stesso Lenard affermò l’inconciliabilità di questo effetto con l’idea di energia che si propaga con continuità).

        Altri fenomeni ancora si presentavano nella radioattività che, proprio sul finire del secolo, veniva scoperta. Nel 1896 il francese H. Becquerel scopriva che alcuni sali di uranio riescono ad impressionare lastre fotografiche attraverso sostanze opache interposte. Dallo studio di questi fenomeni sia Becquerel che il britannico Rutherford ricavarono, nel 1899, che l’uranio emetteva due tipi differenti di radiazione con differenti proprietà elettriche  e di penetrazione (i raggi a ed i raggi b). La conclusione cui arrivarono i due fisici era che si doveva trattare di radiazioni costituite da particelle dotate di carica. Appena un anno dopo (1900) P. Villard scoprì un terzo tipo di radiazione emessa dai sali di uranio con caratteristiche analoghe ai raggi X, (raggi g).

         L’accumularsi di tutti questi fatti provenienti da fenomeni completamente diversi convinse i più dell’esistenza dell’elettrone ma, fatto ancora più importante, mostrò che questo elettrone doveva essere un costituente comune di tutti gli atomi di tutti gli elementi.

         Nel 1910, lo statunitense R. Millikan, migliorando alcuni apparati sperimentali realizzati precedentemente da J. J. Thomson, riuscì a misurare con una certa precisione la carica dell’elettrone, trovando:

 e  =  1,602 . 10-19 coulomb

 Allo stesso modo si è riusciti più tardi (l911) a misurarne la massa:

 me  =  9,108 . 10-31 Kgm.

        II secondo decennio del Novecento fu poi determinante per stabilire la realtà degli atomi. La scoperta dei raggi X, alla quale abbiamo accennato, permise a M. von Laue e quindi ai Bragg di passare allo studio dei cristalli facendoli attraversare da questi raggi. Ne risultarono effetti incredibili di interferenza, dallo studio (difficile) dei quali si poté risalire con certezza al fatto che essi sono costituiti da atomi disposti ai vertici di determinati reticoli, proprio quelli che empiricamente erano stati studiati precedentemente in mineralogia e teoricamente con l’uso della matematica.

         Infine, negli ultimi anni, la realizzazione del microscopio elettronico ci ha permesso di indagare ancora meglio la struttura cristallina arrivando quasi a percepire la presenza degli atomi (vedremo più oltre che c’è una impossibilità di principio di fotografare un atomo. A titolo di esempio, mostro una foto realizzata con un microscopio a campo ionico di una punta di una lega di platino iridio avvertendo che le figure che si vedono sono dovute alla diffrazione e che in nessun caso possono essere confusi con singoli atomi).

         Tutto quanto abbiamo qui detto, in modo molto succinto, ha convinto  dell’esistenza degli atomi. Ma, abbiamo già avvertito  che le cose non sono così semplici; proprio sul finire del secolo scorso contro gli atomi fu scatenata una vera e propria crociata in nome di non vedo e quindi non credo. I motivi erano in realtà ben altri. Si era costruita un’equazione che voleva atomismo = meccanicismo = materialismo e, da contraltare, l’altra equazione che voleva inesistenza di materia = inesistenza di atomi = idealismo. La lotta fu durissima e per la verità, all’epoca fa vinta dagli antiatomisti (che facevano capo alla corrente filosofica dell’empiriocriticismo, più nota come neopositivismo) guidati dall’austriaco E. Mach e dal tedesco W. Ostwald.

        Cercherò era di dare un maggior ordine e sistematicità alla trattazione.

        Allo scopo inizierò dallo studio dei primi modelli atomici che vennero proposti per rendere conto del fatto, già annunciato, che da una parte si erano individuate delle particelle negative come costituenti la materia e, dall’altra, quest’ultima risulta neutra.

I primi modelli atomici.

          Già nel 1899, J. J. Thomson stava elaborando un qualche modello di atomo che rendesse conto dei fenomeni fisici osservati. Egli si rendeva conto che all’interno di un atomo doveva, in qualche modo, esservi della carica positiva. La presenza degli elettroni negativi nella materia doveva prevedere la presenza di un qualcosa di positivo che andasse a neutralizzare la carica di segno opposto. Ma su questa supposta carica positiva non si sapeva nulla. Fu Kelvin che nel 1901 suggerì che la carica positiva dovesse essere assegnata ad una massa omogenea e continua, da pensarsi come ordinariamente sono pensati i fluidi (una specie di massa gelatinosa a bassissima densità). Un atomo, allora, deve essere pensato come un continuo sferico di carica positiva dentro cui si trovano queste piccole masse che sono gli elettroni. Riguardo poi a come sono distribuiti gli elettroni nella gelatina positiva, dipende dal loro numero: se l’atomo ha un solo elettrone questo si dispone al centro della sfera; se gli elettroni sono più di uno, probabilmente (dice Kelvin), si disporranno in superfici sferiche concentriche con la sfera ed interne ad essa. Questi elettroni saranno, inoltre, probabilmente dotati di moto rotatatario intorno al centro della sfera.

         Quest’ultima eventualità, il moto rotatorio degli elettroni, creava però dei problemi con gli ultimi sviluppi dell’elettromagnetismo ed in particolare con i lavori di H.A. Lorentz del 1895 (sulla questione tornerò, con qualche dettaglio più oltre).

             J. J. Thomson si mise a studiare il problema e nel 1904 portò a compimento il suo modello atomico servendosi di quanto Kelvin aveva sostenuto nel 1901. Tale modello atomico era pensato come costituito da una carica elettrica positiva distribuita uniformemente in una sfera piccolissima, neutralizzata da un conveniente numero di elettroni immersi nella stessa sfera e liberi di muoversi in essa:

Nel 1911 E. Rutherford, che era stato assistente di Thomson, suggerì, in base all’esperienza, che in un dato atomo la carica positiva e la maggior parte della massa fosse concentrata in un nucleo di dimensioni estremamente ridotte; la carica negativa, formata dagli elettroni è distribuita nel resto del volume atomico che risulta essere quindi in gran parte vuoto (se un elettrone atomico girasse intorno al Duomo di Milano, il nucleo non sarebbe più grande della capocchia di uno spillo).

       Vediamo l’esperienza  dalla quale Rutherford dedusse il suo modello atomico. Questa esperienza fu realizzata per la prima volta da Geiger e Mardsen nel 1909. I due fisici, allievi di Rutherford, stavano studiando le radiazioni emesse spontaneamente da un campione di radio con il seguente dispositivo sperimentale:

che consisteva di:

a) un campione S di radio le cui radiazioni sono schermate da due fogli F di piombo, a parte quelle che riescono a passare dalla fenditura;

b) una lamina d’oro L molto sottile (spessore ~ 10-6 cm) da far attraversare dalla radiazione;

c) degli schermi fluorescenti R (fatti ad esempio di solfuro di zinco) che quando sono colpiti da una particolare radiazione provocano una scintillazione localizzata che permette di individuare il punto di arrivo della radiazione stessa. Tali schermi o rivelatori potevano essere spostati tutt’intorno al sistema

          La pasticca del radio emette, fra l’altro, radiazioni a, cioè particelle formate tra l’altro da due protoni   (nuclei di elio: He2+). Queste particelle escono a gran velocità dalla fenditura F e vanno ad urtare ed attraversare la lamina d’oro. A quell’epoca si aveva a disposizione il modello atomico  di Thomson ed un pezzo di materia, costituito da questi atomi era pensato molto compatto (vedi la figura (a)):

La previsione era che la maggior parte delle particelle a, emesse dal radio riu scisse ad attraversare l’atomo (di Thomson): quelle che passavano per il centro non dovevano subire alcuna deviazione (nel qual caso, per motivi di simmetria, c’è equilibrio fra le forze repulsive agenti su di esse, quelle che passavano un poco più distanti dal centro dovevano essere deviate di angoli piccolissimi, aumentando la deflessione all’aumentare della distanza dal centro dell’atomo.

In definitiva si doveva trovare che poche particelle risultassero non deviate, mentre la gran parte dovesse risultare deviata.                  

       I risultati che furono trovati dall’esperienza furono del tutto diversi. Si trovò infatti che le particelle a venivano deviate sempre di più quanto più passavano vicine al centro dell’atomo finché, quando passavano nel centro, venivano rifles se totalmente indietro. Si trovò cioè che la maggior parte delle particelle attraversava indisturbata (senza cioè alcuna deviazione) la lamina d’oro mentre le rimanenti altre subivano delle forti deviazioni e addirittura delle riflessioni all’indietro.

         Questo fatto, apparentemente sorprendente, si poteva spiegare solo in un modo: all’interno dell’atomo c’era una forte concentrazione di carica positiva che determinava la repulsione delle particelle a . E questa fu la spiegazione che diede Rutherford: l’intera carica positiva, in luogo di essere diluita in tutto lo spazio occupato dall’atomo, è concentrata in un nocciolo (il nucleo) al centro dell’atomo.

        In questa esperienza le cariche negative (gli elettro ni) non disturbavano, infatti il loro comportamento è analogo a quello delle molecole d’aria quando sono attraversate da un proiettile: si spostano. La più grossa conseguenza di questa osservazione è che gli atomi sono in gran parte costituiti da spazio vuoto: la materia è costituita da più vuoti che pieni

        I risultati conseguiti con le esperienze sulle particel le a diffuse da una lamina d’oro convinsero Rutherford a for mulare un nuovo modello atomico. [Si osservi che per spiegare alcuni fatti sperimentali relativi agli spettri di emissione di alcune sostanze, nel 1903, il fisico giapponese H. Nagaoka (1865-1950) propose alla società fisico-matematica di Tokio m modello atomico costituito da un nucleo centrale positivo circondato da particelle cariche negativamente (gli elettroni) disposte in cerchio intorno al nucleo, a distanze uguali tra di loro. Il lavoro di Nagaoka fu pubblicato neli 1904 sulla rivista britannica Nature e, come si vedrà, il modella atomico di Rutherford coincide praticamente con quello di Nagaoka]. In definitiva, secondo Rutherford, si ha un nucleo positivo immerso in una atmosfera poco densa di elettroni, o meglio, si ha un si stema solare in miniatura con il nucleo centrale ed un certo numero di elettroni che gli ruotano intorno trattenuti dal l’attrazione coulombiana, così come i pianeti ruotano intor no al Sole,  sottoposti  all’attrazione gravitazionale. Alla periferia dell’atomo, questi elettroni negativi neu tralizzano l’effetto della carica positiva del nucleo; così che, complessivamente,  l’atomo è  neutro . Questo signi fica che il nucleo ha un

numero di cariche elementari positive uguale al numero degli elettroni. Osservo a parte che Rutherford ha scoperto il nucleo dell’atomo . Nella figura  riportata poco prima in (a), come abbiamo visto, era rappresentato un pezzo di materia costituito con atomi di J. J. Thomson, osseviamo ora che in (b) è riportato lo stesso pezzo di materia costituito con atomi di Rutherford: è evidente la profonda differenza tra i due modelli.

         Questo modello atomico di Rutherford  non resse però che poco tempo alla prova teorica. Esso presentava infatti delle gravi  incongruenze, ed in particolare con la teoria elettromagnetica di Lorentz, come abbiamo già accennato. Secondo questa teoria, infatti, ogni accelerazione del movimento di un elettrone dà origine ad un’onda elettromagnetica che irradia energia proporzionalmente al quadrato dell’accelerazione; soltanto nel moto uniforme una carica non irradia energia.  In definitiva, quando si ha una carica elettrica in moto accelerato, essa deve irradiare energia nello spazio circostante sotto forma di onde elettromagnetiche. Ebbene, gli elettroni planetari sono delle particelle cariche le quali, per di più, muovendosi di moto rotatorio, sono dotate di accelerazione centripeta. Questa emissione di radiazione sottrae energia e quindi, per il principio di conservazione dell’energia, l’ energia meccanica dell’elettrone deve via via decrescere e, di conseguenza, la sua orbita gradualmente restringersi, finché esso cade sul nucleo; e tutto ciò in un tempo brevissimo, dell’ordine di 10-10 secondi. Questo fatto comportava l’instabilità dell’edificio atomico: ogni pezzo di materia avrebbe dovuto  implodere su se stessa in tempi brevissimi ed il mondo sparirci davanti.

       E questa non era l’unica difficoltà che comportava il modello di Rutherford. Un’altra ne nasceva proprio dal confronto del possibile comportamento degli elettroni in questo modelle con i fatti sperimentali che offriva la spettroscopia. Poiché gli elettroni  potevano muoversi  intorno  al  nucleo  su ogni  possibile  orbita,  questi  elettroni  dovevano  possedere  un continuo  di  valori  di  energia  a partire da quella  spettante  alla prima orbita vicino al nucleo fino ad arrivare a quella corrispondente al livello di ionizzazione (quando cioè l’elettrone ha acquistato tanta energia da andarsene via dall’atomo cui appartiene). Guardando allo  spettroscopio la radiazione  emessa da siffatti atomi  (quando sono eccitati)  si dovrebbe  vedere uno  spettro continuo  (analogo  a quello della luce solare che passa attraverso  un  prisma)  poiché  gli  elettroni  possono  avere  tutte le  possibili  energie. Come già sappiamo questa ipotesi contrastava con  l’esperienza che  fino  ad  allora  si  era acquisita attraverso l’osservazione degli  spettri di diversi atomi eccitati.  Gli spettri atomici risultavano  infatti  costituiti  da  righe colorate separate da buio e non da un continuo di diversi     colori

         Un’altra difficoltà  era  poi  legala  alla  struttura  intrinseca dei  singoli  atomi. Ci si  chiedeva perché,  dato il   modello di Rutherford in cui gli elettroni potevano trovarsi su di un’orbita qualsiasi, due atomi di uno stesso elemento dovevano essere uguali.Perché  gli elettroni di un atomo di carbonio dovrebbero muoversi sulle stesse, identiche,     orbite  di tutti gli altri atomi di carbonio?

     Prima però di passare a vedere come furono sistemate le cose cerchiamo di illustrare quanto abbiamo detto a   proposito della prima  obiezione al modello atomico di Rutherford: perché una carica accelerata deve emettere energia.



Categorie:Senza categoria

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

%d blogger hanno fatto clic su Mi Piace per questo: