LA RELATIVITÀ DA NEWTON AD EINSTEIN 3. DALLE TEORIE SULLA LUCE, AGLI SVILUPPI DELLA TERMODNAMICA, ALL’OTTICA DEI CORPI IN MOVIMENTO : ULTERIORI FENOMENI NON RICONDUCIBILI ALLA FISICA DI NEWTON

E’  indispensabile richiamare alcuni fatti lontani per intendere quanto diremo  in  questo  paragrafo.  Lo  faremo  molto  in breve  e,   senza  scomodare  né Platone né Aristotele,  inizieremo a discutere la questione della natura della luce a partire  da Descartes.  (269)  Abbiamo  già  visto  all’inizio  di  questo  lavoro (270) che,  per  Descartes  la  materia  è  estensione.   Quindi  ogni  cosa  o  fatto che sia esteso  ha un comportamento  analogo  a quello  della materia.  La luce  si estende dappertutto: conseguenza di ciò  è che essa deve essere intesa come un  qualcosa di materiale che si propaga “istantaneamente come una pressione esercitata dalle particelle di una materia sottile“. Questa materia sottile, che permette  la trasmissione  delle  pressioni,  anche  là  dove  non appare materia sensibile,  è  l’etere,  di  aristotelica memoria  (la quintessenza),  inteso come un corpo rigido ideale. Va ben chiarito che la luce non è, per Descartes, costituita dal moto delle particelle sottili, ma dalla loro pressione le une  sulle  altre  in un  ‘universo’  tutto  pieno  (oggi  si  direbbe;  onde  longitudinali). L’etere, che riceve una pressione, vibra, come diremmo oggi, intorno alla  sua  posizione  di  equilibrio,  trasmettendo istantaneamente lapressione che ha ricevuto. (271)

       La concezione di Newton è più articolata ed egli, anche se è universalmente noto come padre della teoria corpuscolare della luce, in realtà  non prende una posizione precisa ma pone la questione in forma problematica. (272). In certi  passaggi  sembra  evidente  una sua  adesione  alla teoria  corpuscolare che fa a meno  dell’etere  (questo almeno  fino  al  1671  quando  una polemica con Hooke lo orientò  verso nuove  strade);  in altre parti  della sua  opera  (Una nuova teoria sulla luce e sui colori -1672) pare orientato verso la teoria ondulatoria sostenuta dall’etere  («Le vibrazioni più  ampie dell’etere danno una sensazione di colore rosso mentre quelle minime e più corte danno il violetto cupo;  le  intermedie  colori  intermedi»);  in altri  passaggi  poi,  come  nella Ottica (Libro II, parte III, proposizione XII) del 1704, sembra invece propendere per un’ipotesi  che  “si  direbbe un compromesso tra una teoria ondulatoria ed una teoria corpuscolare,  particelle  precedute da onde,  le  quali  in certo qual modo,  predeterminano  il  comportamento  futuro  delle  particelle”.

        Così scriveva Newton:

I raggi di luce incidendo su una superficie riflettente o rifrangente, eccitano vibrazioni nel mezzo riflettente o rifrangente … le vibrazioni così eccitate si propagano nel mezzo riflettente o rifrangente, in modo analogo alle vibrazioni del suono nell’aria …  ;  quando ciascun raggio è in quella parte della vibrazione che è favorevole al suo moto,  si fa strada attraverso una superficie rifrangente, ma quando si trova nella parte contraria della vibrazione che impedisce il moto, è facilmente riflesso … .” (273)

       E’ solo nella parte finale dell’ Ottica, nelle Questioni 28, 29 e 30, che Newton avanza,  come  ipotesi da investigare,  la sua nota teoria corpuscolare della luce. E’ superfluo notare che ogni ipotesi di Newton è legata ad una possibile, ma non definitiva e neanche tanto importante, spiegazione dei  fatti sperimentali noti e via via osservati. Così, mentre l’ipotesi  onda-particella, vista qualche riga più su, serviva a Newton per rendere conto e della colorazione delle lamine sottili e del fenomeno degli anelli (che portano il suo nome),  la teoria corpuscolare discendeva da una spiegazione che Newton tentava di dare della diffrazione. (274)  L’inflessione che un  raggio di luce subisce Quando passa, ad esempio, al di là di un forellino è interpretata come il risultato di forze attrattive o repulsive tra la materia costituente il corpo diffrangente ed il raggio luminoso (che per questo è pensato costituito da corpuscoli che, in quanto dotati di massa, subiscono l’azione delle forze attrattive o repulsive).

  ” Si comprende come l’incentivo verso una concezione corpuscolare della luce, fosse veramente molto forte. Tanto più che l’ipotesi ondulatoria, [come vedremo] già avanzata da Huygens, in mancanza [della conoscenza del fenomeno e] del concetto di interferenza, prestava il fianco ad obiezioni veramente serie, riguardo alla difficoltà di interpretare la propagazione rettilinea.” (274 bis)

          Quindi, il tentativo di spiegazione dei fenomeni di diffrazione unito al fatto che, secondo Newton, è impensabile una teoria che voglia la luce fatta di onde (“di pressioni“) perché le onde (“le pressioni“) ” non possono propagarsi in un fluido in linea retta” (275) poiché hanno la tendenza a sparpagliarsi dappertutto, (276) porta il nostro alla formulazione (dubitativa) della teoria corpuscolare che si trova nella Questione 29 dell’Ottica, introdotta con queste parole;

  “Non sono i raggi di luce corpuscoli molto piccoli emessi dagli oggetti luminosi ? Infatti questi corpuscoli passeranno attraverso i mezzi omogenei in linea retta senza essere piegati nelle zone d’ombra, com’è nella natura dei raggi di luce.” (276 bis)

         Newton passava quindi ad illustrare alcune proprietà degli ipotetici corpuscoli materiali affermando che essi agirebbero a distanza allo stesso modo dell’attrazione reciproca tra i corpi. I colori della luce ed i diversi gradi di rifrangibilità sono poi spiegati con l’ammissione che la luce bianca sia formata da corpuscoli  di  diversa  grandezza  (“i  più  piccoli  producono  il  viola  … e gli altri facendosi sempre più grandi, producono” via via gli altri colori fino al rosso).  Infine,  con questa teoria,  è  possibile  spiegare  il fenomeno della doppia rifrazione che,  come vedremo,  Huygens non era riuscito a spiegare con la teoria  ondulatoria).  In definitiva,  in  questo  modo,  la  teoria  della luce veniva ricondotta alla più  vasta  spiegazione  che  la gravitazione universale doveva fornire.

       Riguardo ad Huygens va detto che il suo Trattato sulla luce fu pubblicato nel 1691 ma fu scritto intorno al 1676. (277) In questo lavoro,  a chiusura del primo  capitolo,  fa  la  sua comparsa  la teoria  ondulatoria.  Allo  stesso  modo del suono,  dice Huygens,  la luce deve essere un fenomeno vibratorio e cosi come l’ aria sostiene  il  suono,  altrettanto fa l’etere con la luce (278) (l’etere è qui inteso come una materia estremamente sottile e perfettamente elastica).

        Così scriveva Huygens:

  “Ogni punto di un corpo luminoso, come il Sole, una candela o un carbone ardente, emette onde il cui centro è proprio quel punto …  ;  i cerchi concentrici descritti intorno ad ognuno di questi punti rappresentano le onde che si generano da essi  … Quello che a prima vista può sembrare molto strano e addirittura incredibile è che le  onde prodotte mediante movimenti e corpuscoli cosi piccoli possano estendersi a distanze tanto grandi, come, per esempio, dal Sole o dalle stelle fino a noi  …  Cessiamo però  di meravigliarci  se teniamo conto che ad una grande distanza dal corpo luminoso una infinità di onde,  comunque originate da differenti punti di questo corpo,  si uniscono in modo da formare macroscopicamente una sola onda che, conseguentemente, deve avere abbastanza forza, per farsi sentire.” (279)

       Possiamo riconoscere in queste poche righe la formulazione moderna della teoria ondulatoria fino al principio di Huygens o dell’inviluppo delle onde elementari.  Lo  stesso Huygens  illustra questo  principio con la figura 15 che ha il seguente significato: “se DCEF è  una onda emessa dal punto luminoso A,  che è  il  suo centro,  la particella B, una di quelle che si

         Figura 15

  trovano all’interno della sfera delimitata da. DCEF, avrà fatto la sua onda elementare  KCL che toccherà l’onda DCEF in C, allo stesso momento in cui l’onda principale, emessa da A, raggiunge DCEF; è chiaro che l’unico punto dell’onda KCL che toccherà l’onda DCEF è C che si trova sulla retta passante per AB. Allo stesso modo le altre particelle che si trovano all’interno della sfera delimitata da DCEF,  come quelle  indicate con b e con d,  avranno fatto ciascuna una propria onda. Ognuna di queste onde potrà però essere solo infinitamente debole rispetto all’onda DCEF,  alla cui composizione contribuiscono tutte le altre con la parte della loro  superficie che è  più  distante dal centro A.” (280)

       Quanto abbiamo ora detto può essere riassunto da quanto già sappiamo e cioè  che  ogni  punto  in cui  arriva una  vibrazione  diventa  esso  stesso centro di nuove vibrazioni  (onde sferiche); l’inviluppo di un gran numero di onde elementari,  originate in questo modo,  origina un nuovo fronte d’onda,  con centro la sorgente, molto più intensa, delle onde elementari che la compongono. Huygens  proseguiva affermando  che con questo modo  di  intendere  le cose, si spiegherebbero  tutti  i  fenomeni  ottici  conosciuti  passando  poi  a  dare  le dimostrazioni delle leggi della riflessione, della rifrazione, della doppia rifrazione e della propagazione rettilinea della luce. (281) Quando passava però a dare una  spiegazione  dei  fenomeni  che  oggi  si  spiegano  con la  polarizzazione egli molto semplicemente affermava che non gli era stato possibile trovare nulla che lo soddisfacesse. (282)   Riguardo poi alla natura di queste onde ed al loro modo di propagazione,  Huygens diceva:

Nella propagazione di queste onde bisogna considerare ancora che ogni particella di materia da cui un’onda si diparte, deve comunicare il suo movimento non solo alla particella vicina …, ma lo trasmette anche a tutte quelle altre che la toccano e si oppongono al suo moto.”  (282 bis)

E questa è una chiara enunciazione di quella che sarà la più grande difficoltà dell’ottica ondulatoria fino a Maxwell:  il fatto che le  onde luminose risultavano onde di pressione e quindi longitudinali. L’ammissione, inevitabile, di onde longitudinali e non trasversali impediva di pensare  a  qualsiasi  fenomeno  di  polarizzazione   (e  quindi  questa  difficoltà  era alla  base  di  quanto  Huygens  confessava  di  non  saper  spiegare).  Questo punto era ben presente a Newton che nell’Ottica lo cita e ne tenta una spiegazione ammettendo che i  raggi di  luce abbiano dei  «lati» ciascuno dei  quali dotato di particolari proprietà.  Se infatti  si va ad interpretare un fenomeno di polarizzazione mediante onde longitudinali, non se ne cava nulla poiché  “queste onde  sono  uguali  da tutte  le  parti“.  E’  necessario dunque  ammettere  che  ci  sia una  “differenza  …  nella posizione  dei  lati  della luce  rispetto  ai  piani di  rifrazione  perpendicolare.” Come  già  accennato  solo  la  natura  trasversale delle  onde  elettromagnetiche  avrebbe  potuto  rendere conto,  fino  in fondo, dei fenomeni  di  polarizzazione.

       C’è un altro aspetto che differenzia radicalmente la teoria ondulatoria da quella corpuscolare e riguarda la spiegazione del fenomeno di rifrazione  (nel  passaggio,  ad esempio,  da un mezzo  meno  ad  uno  più  denso).

       Secondo la teoria corpuscolare l’avvicinamento alla normale del raggio rifratto è spiegato “supponendo che i corpuscoli di luce subiscano un’attrazione da parte del mezzo più denso nel momento in cui vi penetrano. In tal modo essi vengono accelerati sotto l’azione di  un  impulso  perpendicolare  alla superficie di separazione e quindi deviati verso la normale. Me consegue che la loro velocità è maggiore in un mezzo più denso che in uno meno denso. La costruzione di Huygens basata sulla teoria ondulatoria,  parte da presupposti esattamente contrari  (fig.  16).  Quando un’onda luminosa colpisce una superficie di separazione, genera in ogni punto della superficie un’onda  elementare;

Figura 16

se queste si propagano più lentamente nel secondo mezzo che è il più denso,  l’inviluppo  di  tutte  le  onde  sferiche,  che  rappresenta  l’onda  rifratta … è  deviato verso destra.”  (283)    Anche questo quindi diventava un elemento cruciale per decidere  sulla maggiore o minore falsicabilità  di una. teoria. Se si  fosse  riusciti  a determinare  la velocità  della  luce  in mezzi  di diversa densità  si sarebbe  stati in grado di decidere quale teoria fosse più vera.

        Fin qui le elaborazioni a monte. Abbiamo già visto che, durante il ‘700, l’ottica non fa importanti progressi,  se  si  escludono alcune  questioni  di rilievo  che  provenivano  da  osservazioni  astronomiche  (aberrazione  della  luce) ed il perfezionamento di tutta una serie di  strumenti ottici  (introduzione lenti acromatiche,  telescopi più  grandi,  fotometri,  …).  In ogni  caso,  in linea con tutti  gli  altri  campi della ricerca fisica,  i  newtoniani  decidono che Newton era un corpuscolarista e  pertanto  è  la teoria corpuscolare  della luce che  trionfa  (anche  se  coloro  che  portarono  avanti  queste  idee  abbandonarono l’altro punto che qualificava la teoria corpuscolare di Newton: il fatto cioè  che  il moto dei corpuscoli costituenti  la luce  originasse vibrazioni di un ipotetico  etere).  Questa  scelta ha anche  una giustificazione pratica  di primo piano  ed è  che  la teoria corpuscolare  spiegava, più  cose di  quella ondulatoria; in particolare era molto più immediato con la prima teoria intendere la propagazione rettilinea della luce che, con la seconda, risultava piuttosto confusa (e, come abbiamo visto, non soddisfaceva neppure Huygens).

       Proprio agli inizi dell’Ottocento un giovane medico britannico scoprì un fenomeno *incredibile*; luce sommata a luce, in alcune circostanze, origina buio! E’ il fenomeno dell’interferenza (284) che fu scoperto nel 1802 da Thomas Young (1773-1829). (285) Il modo più semplice di provocare interferenza è                                

” quando un raggio di luce omogenea (286),  scriveva Young, cade sopra uno schermo su cui sono stati praticati due piccoli fori o fenditure, che si possono considerare come centri di divergenza, dai quali la luce è diffratta in tutte le direzioni. In questo caso, quando i due raggi, nuovamente formatisi, vanno ad essere intercettati su una superficie interposta lungo il loro cammino, la loro luce risulterà suddivisa da bande scure in porzioni approssimatamente uguali.” (287)

             Anche Young si serviva di modelli meccanici e quello a cui egli si rifaceva per dar ragione di quanto avviene nell’ipotesi ondulatoria, è quello delle onde di acqua in uno stagno. Se due serie uguali di onde,  provocate sulla superficie dell’acqua in punti a distanza opportuna, si incontrano, accadrà, egli osservava, che andranno a combinarsi in qualche modo. In ogni punto della superficie dell’acqua lo stato vibratorio risultante dipenderà dal modo in cui vanno a sommarsi o a sottrarsi gli effetti delle onde sovrapposte. E così, se le onde andranno a sommarsi, sovrapponendosi in concordanza di fase  esse origineranno un’onda più grande delle due componenti prese separatamente; al contrario, se esse andranno ad incontrarsi in opposizione di fase, si distruggeranno l’un l’altra in modo da originare un’onda nulla (acqua immobile).

            Conseguentemente, il principio d’interferenza per la luce era così enunciato:

Quando due parti di una stessa luce raggiungono l»occhio seguendo due diversi percorsi di direzioni molto vicine, l’intensità è massima quando la differenza dei cammini percorsi è un multiplo di una certa lunghezza; essa è minima per lo stato intermedio.” (287 bis)  

            A questo punto Young passava, a calcolarsi la lunghezza d’onda dei vari colori costituenti la luce (288) a spiegare con la teoria ondulatoria i diversi fenomeni ottici conosciuti

            Anche qui egli incontrò grande difficoltà a rendere conto della propagazione rettilinea della luce: ma la difficoltà insormontabile restava sempre quella della spiegazione tramite la teoria ondulatoria ed usando di onde longitudinali  (che Young, in analogia con il suono, riteneva essere caratteristiche della luce) dei fenomeni che  oggi chiamiamo di polarizzazione.

       Proprio in quegli stessi anni, nel 1808, il fisico francese E.M. Malus (l775-l8l2) riuscì a mettere in evidenza l’esistenza della polarizzazione attraverso fenomeni di riflessione: un raggio di luce riflesso si comporta come uno dei  raggi  birifratti  dallo  spato  d’Islanda  e  cioè  non  subisce  più  la  doppia rifrazione  se  fatto  passare  di  nuovo  attraverso  un cristallo  dello  stesso tipo. La spiegazione  che Malus  dava del  fenomeno  è  riconducibile  a  quella  newtoniana dei  lati  delle particelle,  infatti egli pensava che i corpuscoli luminosi fossero asimmetrici  e  si orientassero sia durante la riflessione,  sia durante una birifrazione,  in modo da non potersi più  orientare per successive riflessioni  o  birifrazioni.

       Naturalmente la teoria corpuscolare era sostenuta da gran parte della scuola dei fisici-matematici francesi (288 bis)  tra cui Biot e Poisson  (che tenteranno in tutti i modi,  senza però  riuscirvi,  di ricondurre i fenomeni di  interferenza alla teoria corpuscolare), Laplace e, per un certo tempo, Arago. (289) E fu proprio quest’ultimo che, in un ambiente generalmente ostile, dette un  importante sostegno al fisico che doveva dare nuovo impulso alla teoria ondulatoria fino a portarla al suo trionfo: Augustin Fresnel  (1788-1827).

       Venuto a conoscenza dell’esperimento di Young proprio da Arago, questo fisico profondamente meccanicista,  si propose di indagarlo meglio. Poteva sorgere il dubbio,  infatti,  che le frange d’interferenza osservate non fossero altro che fenomeni di diffrazione provocati dal passaggio della luce nei piccoli forellini. Egli trovò così un altro modo di produrre interferenza che non poteva far sorgere dubbi. Anziché  usare i forellini di Young fece riflettere (l8l6) un raggio di luce, proveniente da una sorgente puntiforme,  su due specchi consecutivi formanti tra loro un angolo prossimo a 180° nel modo indicato in figura 17(a) e  (b).

                                                    Figura 17

          Riferendoci alla figura 17 (a), un raggio (onda) luminoso a emesso dalla sorgente puntiforme S, si riflette sullo specchio M1  e si dirige verso il punto P dello schermo C. Analogamente esisterà un altro raggio (onda) b, proveniente da S che si dirigerà verso P, Poiché i cammini dei due raggi sono differenti, i due raggi, in generale, risulteranno sfasati tra loro. Nel caso in cui vi  sia concordanza di  fase tra  le  due  onde,  P  sarà  un punto  in cui  si  avrà un massimo di illuminazione; nel caso in cui le due onde siano in opposizione di fase, in P vi sarà buio;  nel caso di sfasature diverse vi sarà una variazione dell’ intensità dell’illuminazione dal buio al massimo di cui dicevamo. L’effetto complessivo sarà un fenomeno d’interferenza, analogo a quello che sarebbe generato da due sorgenti puntiformi S1 ed S,  (289 bis) che si osserverà sullo schermo C.

        La figura 17(b)  mostra invece più  onde che  vanno  ad  interferire  in diverso nodo sullo schermo C. A seconda del tipo di interferenza,  e quindi di sfasatura, tra le onde interessate,  i punti P, Q, R saranno bui o illuminati a varie intensità.

          Con questa esperienza Fresnel sgombrò contemporaneamente il campo sia dall’interpretazione erronea del fenomeno dovuta ai corpuscolaristi (le frange non hanno nulla a che vedere con l’interazione di tipo gravitazionale tra le pretese particelle di luce ed i bordi delle fenditure) sia da quella altrettanto erronea di Young (le frange non sono generate dall’interferenza delle onde dirette con quelle riflesse dai bordi delle fenditure).  La chiave della corretta interpretazione di Fresnel fu proprio la ripresa del principio di Huygens: ogni punto di una superficie di un’onda può diventare fonte di onde secondarie.  Ebbene,  nel  fenomeno d’interferenza creata con due  forellini, ciascun forellino diventa sorgente di onde; sono le onde che provengono da un forellino che interferiscono con quelle che si dipartono dall’altro.

          Ma fin qui le onde luminose pensate da Fresnel erano longitudinali. Egli, nella sua memoria del l8l6, diceva: “in ogni punto dello spazio dove sta condensato,  l’etere è compresso e tende ad espandersi in tutte le direzioni“,  e queste non sono altro che onde longitudinali.

          Proprio nel l8l6, però, lo stesso Fresnel, insieme ad Arago, scopre che due raggi polarizzati sullo stesso piano interferiscono, mentre se sono polarizzati su piani tra loro perpendicolari non interferiscono più. Il risultato di questa esperienza fu conosciuto da Young il quale, in una lettera ad Arago  (l8l7), avanzò l’ipotesi che le onde luminose fossero onde di tipo trasversale. Arago ne informò Fresnel il quale fece sua l’ipotesi e cominciò a lavorarvi con gran lena. Tra il 1821 ed il 1823 egli riuscì a dimostrare che, con questa ipotesi, era possibile spiegare tutti i fenomeni ottici conosciuti. (290)   La stessa propagazione rettilinea poi, che era stata sempre un grosso problema per la teoria ondulatoria, interpretata correttamente mediante i fenomeni d’interferenza (il movimento che un’onda sferica trasmette si distrugge in parte per interferenza),  non rappresentava più un problema per questa teoria.

        Di problema, semmai, ne nasceva un altro e fu lo stesso Fresnel a prospettarlo nel l821. Ammesse le onde trasversali che così bene spiegavano tutti i fenomeni  ottici,  che  caratteristiche  avrebbe dovuto avere  l’etere  per permettere il loro passaggio ? Le onde longitudinali marciano bene in un fluido, ma per le  onde  trasversali  occorre  un solido  e neppure un. solido  qualunque. Questo solido dovrebbe avere una rigidità teoricamente infinita (vista l’enorme velocità  di  propagazione della luce),  quindi più  elevata di quella dell’acciaio, e nel contempo deve essere più, evanescente di ogni gas conosciuto  per non offrire resistenza ai corpi celesti che da secoli vediamo muoversi nel cielo senza apprezzabili rallentamenti. (291)  Fresnel comunque non ebbe modo di seguire il corso degli eventi: nel 1827,  a soli 39 anni, morì. Ma la strada ad una gran mole di ricerche  sia teoriche che  sperimentali era aperta. In particolare l’analogia tra onde luminose ed  onde elastiche,  che  scaturiva dalla teoria di Fresnel, apriva un vasto campo di ricerche sui fenomeni  dell’elasticità. (292).

        All’obiezione, prima vista, di quella strana doppia natura dell’etere, cercò di rispondere G. Stokes nel 1845, Secondo Stokes la rigidità à relativa e vi sono solidi, come il gesso e la ceralacca, che se da una parte sono rigidi tanto da trasmettere vibrazioni trasversali, dall’altra sono compressibili ed estensibili (risultando molto fragili all’urto meccanico). Si tratta solo di combinare opportunamente le caratteristiche che l’etere solido deve avere per far si che abbia la rigidità richiesta unitamente all’estrema sottigliezza. (293)

        Di questi tentativi ne furono fatti tanti (294)  e dal corpo della loro elaborazione analitica, con la matematica sviluppata dalla scuola francese nel ‘700, con quella sviluppata dai Green e dagli StoKes in Gran Bretagna e con altra che via via veniva ideata allo scopo, scaturirono moltissimi teoremi che furono poi di grande utilità per gli sviluppi ulteriori della fisica (un esempio di ciò l’abbiamo già visto con Maxwell).

Già abbiamo visto nel precedente paragrafo che la teoria di Maxwell fortificava teoricamente, nell’ambito dell’elettromagnetismo, la prima ipotesi di Fresnel pur rimanendo ancora lungi da una verifica sperimentale. Vedremo nel paragrafo 3 del capitolo IV la verifica sperimentale di Hertz della teoria di Maxwell e vedremo anche , nel paragrafo 4  dello stesso capitolo, gli sviluppi della verifica sperimentale dell’ipotesi di trascinamento parziale dell’etere (per effetti del secondo ordine) ad opera, principalmente di Michelson e Morley.

        Intanto il problema dello studio dei moti relativi tra sorgente luminosa o sonora e ricevitore veniva ad interessare sempre più la fisica. Questi studi vennero affrontati in modo sistematico dal fisico austriaco C. Doppler (1803-1853). Egli, basandosi su considerazioni teoriche, scoprì nel 1842 l’effetto che porta oggi il suo nome: la frequenza di un’onda sonora dipende dal moto relativo della sorgente e del ricevitore rispetto al mezzo attraverso cui si propaga l’onda. (318)       

        II fenomeno è certamente noto a tutti: quando un’auto con una. sirena viene verso di noi, percepiamo il suono con un tono più acuto di quello che sentiamo quando l’auto è  ferma rispetto a noi;  allo stesso modo noi percepiamo un suono via via più  grave man mano che la sirena, dopo averci superato,  si allontana da noi.  Questo fenomeno si  svolge nello stesso modo se, anziché  muoversi  la  sorgente sonora,  si muove il  ricevitore;  ed ancora allo stesso modo se   il moto riguarda sia la sorgente che il ricevitore (è evidentemente, fino qui, un problema di composizione di velocità secondo la  relatività di Galileo-Newton). L’effetto Doppler , in definitiva, consiste in una variazione apparente della frequenza delle onde sonore emesse dalla sorgente, per un moto relativo tra sorgente e ricevitore.

        Doppler non si fermò qui; egli dimostrò che, supposta vera la teoria ondulatoria della luce, si sarebbe dovuto avere lo stesso effetto di variazione di frequenza anche per la luce,  a seguito di un moto relativo tra sorgente luminosa ed osservatore, anche qui per la composizione delle velocità della sorgente luminosa (monocromatica) e dell’osservatore.

          Questo fatto all’epoca si poteva evidenziare soltanto su osservazioni astronomiche (319) e mediante metodi spettroscopici, che sempre più si andavano perfezionando a partire dai lavori  di W. H.  Wollaston  (1766-1828) del 1802 e di   J.  Fraunhofer  (1787-1826) del l8l4. (320)  E Fizeau,  nel.l848, fece notare che,  sempre nel caso di validità della teoria ondulatoria della luce, se noi  osservassimo  una  stella mentre  ci  avviciniamo  ad  essa,  quest’ultima tenderà ad assumere una colorazione che si avvicinerà sempre più all’azzurro e quindi al viola. Viceversa, osservando la stessa stella mentre ci allontaniamo da essa,  quest’ultima tenderà ad assumere una colorazione rossa. Per allontanarci o avvicinarci ad una data stella usiamo dell’orbita della Terra intorno al Sole, nello stesso modo illustrato in figura l8. Se in un dato  periodo  dell’anno  noi,  con  la  Terra,  abbiamo  una  velocità  diretta  verso la stella,  sei mesi dopo la nostra velocità  sarà  diretta in verso  opposto alla stella. Ma le stelle hanno anche un moto proprio e Fizeau,  sempre nel 1848,  faceva notare che,  per una data posizione della Terra,  le stelle che si allontanavano da essa dovevano assumere una colorazione più tendente verso il rosso di quelle che, invece, o rimanevano fisse o si avvicinavano (321) (questo fenomeno va sotto il nome di spostamento verso il rosso).  (322)  

       Questi fatti introducevano nuovi elementi sulla strada dell’ottica dei corpi in movimento ed un’analisi approfondita  (che qui non facciamo)   (323)      sembrava confermare, almeno al primo ordine di v/c, la teoria di Fresnel sul ruolo dell’etere. Anche qui le cose non vanno come se si dovesse considerare il  semplice moto relativo tra sorgente ed osservatore;  anche qui non si ha una pura e semplice composizione delle velocità alla Galileo-Newton; anche qui bisogna tener conto,  per sanare l’apparente contrasto,  sia. del moto della sorgente rispetto all’etere,  sia del moto dell’osservatore rispetto all’etere  (fermo restando il fatto che l’etere risulterebbe parzialmente trascinato). Ma in genere la differenza è molto piccola e se si trascurano quantità del secondo ordine nel  rapporto v/c  (dove  c  e’  al  solito la velocità della luce e  v   quella dell’osservatore o della sorgente)  (324)  l’effetto Doppler dipende solo dal moto relativo osservatore-sorgente.  Concludendo quindi con Born si può dire che “l’effetto Doppler non e’ utiliiszabile in pratica per riconoscere lo stato di moto di un corpo nello  spazio astronomico rispetto all’etere.” (325)

       Torniamo ora più direttamente alla teoria di Fresnel del trascinamento parziale dell’etere.

       Qualche riga indietro abbiamo visto quale formula per il trascinamento lo stesso Fresnel forniva. Fu Fizeau che nel 1851 tentò di dirimere la questione tra trascinamento parziale e totale  (quest’ultima ipotesi – si veda la nota 313 – era stata autorevolmente avanzata qualche anno prima – 1645 -. da Stokes) con una memorabile esperienza nella quale utilizzava due raggi luminosi che,  dopo  aver  percorso  un certo  tragitto  in acqua corrente,  venivano  fatti, interferire. Nella figura 19 c’è  lo schema dell’esperienza:  (326)  S è la sorgente; M è uno specchio semitrasparente posto a 45°,

Figura 19

che ha la proprietà di far passare una parte della radiazione incidente e di riflettere l’altra; R1 è un obiettivo che serve a rendere parallelo il fascio proveniente da S; F è un sistema di fenditure che serve a dividere il fascio in due; ABCD rappresenta un sistema di tubi di vetro attraverso cui scorre acqua nel verso indicato in figura (l’acqua può essere fatta scorrere a velocità diverse); R2 è un altro obiettivo che serve a riunire i due fasci emergenti dai due tubi;  M2  è uno specchio piano che riflette completamente la luce che vi giunge; O è l’osservatore.

        Da S quindi si dipartono due raggi: il primo (1) passa per M1,R1,F,B,A,R2  e quindi giunge in M2  dove viene riflesso facendo il percorso M2,R2,D,C,F,R1,M1,O; il secondo (2) fa invece l’altro percorso S,M1,R1,F,C,D,R2,M2,R2,A,B,F,R1,M1,O. Nel suo percorso il raggio (1) passa attraverso l’acqua in verso contrario al moto di quest’ultima e, dopo la riflessione su M2, passa di nuovo attraverso l’acqua sempre in verso contrario al moto di quest’ultima; per il raggio (2 ) accade esattamente il contrario poiché marcia sempre nello stesso verso di scorrimento dell’acqua. I due raggi vanno ad incontrarsi nel punto O dove, attraverso un oculare, un osservatore può osservare l’interferenza prodotta dai due raggi.

       Facendo l’esperienza con acqua immobile si trova che la velocità della luce e’  c1 = c/n (dove  c  è  la velocità della luce nel vuoto ed n è l’indice di rifrazione dell’acqua). Quando l’acqua è fatta scorrere nei tubi, il raggio  (1)  e quello  (2)  subiscono due  sorti diverse:  il primo marcia in verso opposto a quello dell’acqua, il secondo nello stesso verso. Se v  è la velocità dell’acqua nel tubo e valesse semplicemente la legge di composizione delle velocità di Galileo-Newton,  la velocità della luce del raggio (1) dovrebbe comporsi completamente con la velocità dell’acqua nel tubo AB, dando per risultato W1   = c1  – v, mentre la velocità della luce del raggio  (2) dovrebbe comporsi completamente con la velocità dell’acqua nel tubo CD, dando per risultato W2  = c1 + v.  La composizione di W1 e W2   in O dovrebbe originare interferenza con un dato spostamento delle frange. Misurando questo spostamento, Fizeau trovò che la composizione non avveniva come previsto. Il trascinamento della luce da parte dell’acqua non risultava completo ma solo parziale  (327) (lo spostamento delle frange risultava più piccolo di quello aspettato) il che voleva dire che non tutta la velocità dell’acqua si sommava a quella della luce; facendo i conti Fizeau trovò lo stesso risultato che teoricamente aveva trovato Fresnel:  

W1,2       =    c/n   ±  Δv (1 – 1/n

dove il + o il – si hanno a seconda che la luce viaggi nello stesso verso  o in verso opposto a quello dell’acqua (o di qualunque altro mezzo).                                                                          

        Altre  esperienze furono fatte negli anni successivi e, a questo punto, tutte per decidere come quest’etere  si comportasse.  E’  interessante notare, con Hirosige, (327 bis)  che nonostante la teoria ondulatoria avesse ormai un elevato grado di maturità, ancora molti scienziati non erano in grado di  lavorarvi agevolmente. Ad esempio,  “il direttore dell’osservatorio di Gottinga, E. F. W. Klinkerfues,  ricavò una curiosa conclusione,  nel 1865-1866,  dalla sua discussione dell’influenza della sorgente di luce sulla rifrazione. Egli concluse che la luce emessa da una sorgente in movimento cambia il suo colore senza cambiare la sua lunghezza d’onda ..“. Secondo il suo modo di portare avanti la discussione, con questa ammissione,  “sarebbe possibile spiegare l’indipendenza delle leggi della riflessione e rifrazione dal moto della Terra, senza dover ipotizzare il coefficiente di Fresnel.”

        Questo potrebbe sembrare solo un aneddoto poco significativo se le ricerche di Klinkerfues non fossero servite da stimolo all’ esperimento di Airy. Come abbiamo visto, nel l8l8, Fresnel aveva predetto un risultato nullo all’esperienza proposta da Boscovich nel 1766.  (327 ter)   Si trattava, come si ricorderà, di misurare la velocità della luce mediante il fenomeno di Bradley dell’aberrazione ma, questa volta, con un cannocchiale pieno d’acqua, al fine di determinare come il mezzo in cui si propaga la luce influisce su c. Ebbene, a seguito dell’esperienza di Arago e di ciò che ne conseguì (e cioè che il moto orbitale della Terra non influisce sulla rifrazione della luce proveniente dalle stelle), Fresnel aveva osservato che anche l’esperienza di Boscovich avrebbe dato risultato nullo (e questo per lo stesso motivo che dava nullo il risultato dell’esperienza di Arago:  la rifrazione della luce proveniente dalle stelle nell’acqua non sarebbe stata influenzata dal moto orbitale della Terra).

        Nel 1871 l’astronomo inglese G.B. Airy (l801-l892) fece l’esperienza al primo ordine di v/c e trovò il risultato predetto da Fresnel. E così, allo stesso modo che nell’esperienza di Arago, l’unica spiegazione possibile era quella del trascinamento parziale dell’etere da parte dell’acqua contenuta nel telescopio.

         Un’altra esperienza, ancora in accordo con il trascinamento parziale, fu quella che  realizzò  M.  Hoek  (l834-1873)  nel  1868,  non più  su fenomeni astronomici ma in laboratorio. Fatto di rilievo è che, per la prima volta, si utilizzò in esperienze di questo tipo un interferometro, uno strumento di grande precisione e sensibile di ulteriori importanti miglioramenti, basato sul fenomeno  dell’interferenza anziché  su quello della rifrazione  (come abbiamo  già  visto discutendo dell’esperienza di Fizeau,  in un interferometro la luce proveniente da una  sorgente,  mediante un  sistema di  specchi  o altro meccanismo, viene scomposta in due raggi che, dopo aver percorso cammini diversi, vanno a ricomporsi in un oculare; se si ha cura che i tragitti percorsi dai due raggi siano perfettamente uguali, nell’oculare la luce si ricomporrà in fase, in modo cioè da non produrre interferenza; se lungo uno dei tragitti  la luce  subisce un qualche rallentamento,  dovuto ad esempio  all’interposizione di un mezzo più denso, poiché la lunghezza d’onda varia proporzionalmente alla velocità della  luce, nell’oculare i due raggi non si ricomporranno  più  in fase  e vi  sarà  quindi  interferenza).

        Ancora con interferometro eseguirono esperimenti dello stesso tipo  i due fisici francesi E. E. Mascart (l837-1908) e J. C. Jamin (l8l8-l886) nel 1874, con uno strumento che era stato ideato nel 1858 dallo stesso Jamin (nella figura 20 (a) è riportato lo schema di principio dell’interferometro di Hoek; nella figura 20 (b) è riportato quello  di Jamin).

Figura 20

(a) Interferometro di Hoek: il raggio di luce proveniente da S viene diviso in due dallo specchio semiargentato P che è posto a 45°; il raggio 1 dopo essersi riflesso sugli specchi M1,M2 ed M3  torna in P e quindi va all’oculare O; il raggio 2, che ha attraversato P, dopo essersi riflesso su M3,M2 ed M1 , torna in P e quindi va in O. Si noti l’uguaglianza tra i due tragitti.

(b) Interferometro di Jamin: il raggio di luce proveniente da S va ad incidere su una lastra piana trasparente; esso in parte viene riflesso (1) ed in parte rifratto (2); il raggio rifratto, dopo una riflessione in B, esce dalla lastra parallelo all’altro raggio; lo stesso fenomeno si ripete sull’altra lastra, finché in E i due raggi si riuniscono per andare nell’oculare O. Si noti l’uguaglianza tra i due tragitti.

          Tutte le esperienze ora accennate, al primo ordine di v/c, davano risultati in accordo con il trascinamento parziale dell’etere. Come osserva Tonnellat, “discutendo una qualsiasi di queste esperienze, si può mostrare che il postulato di un trascinamento parziale con il valore previsto da Fresnel fa cadere fin dall’inizio ogni speranza di poter constatare un effetto del primo  ordine  [in  v/c]   … :  il  trascinamento  e’  tale  che  esso  compensa automaticamente questo effetto. Soltanto nel 1874 Mascart, Veltmann e Potier misero in evidenza la generalità di questa conclusione che si basa, beninteso, soltanto sulla constatazione di effetti del primo ordine. Pertanto in quell’epoca Mascart suggeriva che in ottica, come in cinematica, fosse impossibile distinguere un riferimento galileiano privilegiato a mezzo di una qualsiasi esperienza.” (327 quater)   E’ interessante aggiungere che, per i suoi lavori,  Mascart prese il Gran Premio dell’Accademia delle Scienze di Parigi, la quale Accademia nella motivazione del premio affermava: “ora che il moto vibratorio della luce e l’esistenza dell’etere luminifero sono universalmente considerati come ben stabiliti,  appare di  grande  interesse dirigere  le  nostre ricerche sulle proprietà di questo mezzo elastico e le sue relazioni con la materia ponderabile.” (327 quinquies)  E’ il primo riconoscimento ufficiale della teoria ondulatoria (siamo nel 1873 !) che si accompagna ad un impegno di ricerca sul comportamento del supposto ed apparentemente indispensabile etere. Si comincia quindi ad affrontare il problema dell’etere in sé e non più legato né a problemi ottici né astronomici.

         Questo era, molto in breve, il quadro che offriva l’ottica teorica e sperimentale verso la metà degli anni ’70. Non è neanche il caso di parlare di inconciliabilità con la fisica dei sostenitori di Newton,  si potrebbe semplicemente dire che il contesto era cosi possentemente mutato da non far più riconoscere le elaborazioni newtoniane in tutto quello che si andava facendo. E’ importante però  notare che, nonostante quanto detto, la meccanica di Newton era ancora al centro della spiegazione di ogni fatto fisico. Le speculazioni e la costruzione di nuove teorie si potevano fare solo là dove il grande Newton non aveva elaborato troppo, aveva solo ipotizzato, aveva solo accennato a qualche possibile soluzione. Il quadro complessivo della  meccanica rimaneva intoccabile tant’è vero che, ad esempio, nessuno pensò di modificare la legge di composizione delle velocità. Si potevano inventare eteri con le proprietà più strane, ma lo spazio ed il tempo assoluti, unitamente al principio di relatività (ed a tutto il quadro offerto dalla meccanica) rimanevano rigorosamente intoccabili ed intoccati.

         Si era comunque aperta una strada ad una verifica sperimentale: questo  etere ormai compariva da troppe parti e non più come ipotesi accessoria ma necessaria. Si trattava di cercarlo, ma sarebbe stato necessario farlo con una tecnologia più avanzata ed in un contesto teorico più avanzato perché gli effetti che si cercavano erano del secondo ordine del rapporto v/c.

7 – DAI PROBLEMI POSTI DALLE MACCHINE TERMICHE ALLA SCIENZA DELLA TERMODINAMICA: L’ENERGIA SI DEGRADA ED IL MONDO E’ IRREVERSIBILE.

[Da questo capitolo ho tratto il materiale per l’articolo dell’indice dal titolo: “Dalle macchine termiche alla scienza della termodinamica…“. Lo ripubblico qui mantenendo la numerazione che le note lì avevano e che vanno a sostituire quelle del testo originale dalla 328 alla 437. E poiché vi sono riferimenti ad una bibliografia diversa da quella del testo originale, pubblico di seguito anche tale bibliografia].Non è questa una storia della termodinamica ma il tentativo di enucleare alcune linee di sviluppo di questo capitolo della fisica, a partire dall’energia meccanica e sua conservazione, per cercare di avvicinarci il più possibile al contesto e alla complessità del dibattito che si sviluppò alla fine del secolo scorso. Si tratta di capire, in fondo, come la dinamica della formazione di determinati concetti sia servita e serva in realtà a modificare il contesto teorico, ad offrire nuovi fenomeni da interpretare, a creare un substrato di conoscenze, ad ampliare la base fenomenologica, a dare diverse chiavi di lettura della realtà fisica, a rompere determinati schemi precedenti, ad affermarne degli altri (tutto ciò in modo spesso contraddittorio e non sempre facile da capire).

L’ ENERGIA MECCANICA

        Non torneremo a cercare le origini del concetto di energia fin dalle speculazioni aristoteliche (1). Basterà ricordare che già dai lavori di Stevin (1548-1620), Galileo (1564-1642), Huygens (1629-1695), Leibniz (1646-1716) e J. Bernoulli (1667-1748) traspare chiaramente l’acquisizione della conservazione dell’energia, limitatamente ai fenomeni meccanici (2). Il concetto di conservazione sarà invece assente nella fisica newtoniana (in ogni urto e in ogni moto, per Newton, c’è una parte di movimento che va perduta allo stesso modo in cui si perde movimento nel moto degli astri. È l’opera di Dio che rifornisce il mondo, istante per istante, di ciò di cui continuamente viene privato). E tutto ciò in contrasto, oltre che con quanto sostenuto da Leibniz — si conserva il prodotto mv2 — anche con le enunciazioni di Descartes (1596-1650) – si conserva il prodotto mv -. Si può molto agevolmente sostenere che poté affermarsi la posizione che non ammetteva la conservazione dell’energia solo perché, all’epoca, la questione non si poneva con l’urgenza imposta da macchine che consumano grandi quantità di energia non rinnovabile (3). È comunque utile una annotazione su questo problema. Nel caso galileiano (4), ad esempio, dove c’era da ricavare la conservazione da un’esperienza “ideale” di risalita di una determinata massa dopo una sua caduta (es: un pendolo), le cose si presentavano in modo “abbastanza semplice”: i parametri in gioco erano pochi, gli attriti erano già presenti ma ancora non formalizzati, i vincoli ancora non erano discussi (sarà compito dei fisici-matematici francesi). Ma quando in un processo di trasformazione di energia si producono molte “intermediazioni”, allora il problema si complica notevolmente. Già la ruota idraulica poteva prescindere da un’analisi accurata dei rendimenti: dato il corso d’acqua è data l’energia (basta, più o meno, tener conto di pochi dati empirici come le secche o le piene, come la velocità dell’acqua, il modo migliore di costruire e sistemare le pale…). Il passaggio successivo, a macchine che utilizzano combustibili e si servono di varie intermediazioni, tra cui la più importante è quella del riscaldamento di acqua per produrre vapore, rendeva e rende: il problema economicamente attuale. Si trattava di capire fin dove il combustibile può essere sfruttato e fin dove la macchina può essere migliorata: è un problema di rendimento che può essere senz’altro inteso nel senso di rendimento economico.

        Per molti anni la scienza ufficiale, che era completamente slegata dal mondo della produzione, non si occupò di questi problemi e, se lo faceva, era solo per affinare quanto già dato come acquisito. Emergeva comunque una consapevolezza: l’impossibilità del moto perpetuo che, per ora e come capiremo meglio in seguito, è solo moto perpetuo di 1ª specie. Ai molti che si affannavano con mirabolanti invenzioni l’Accademia Reale delle Scienze di Francia dovette dire basta per non essere sommersa da progetti di macchine miracolose. La stessa Accademia divulgò il seguente testo: “La costruzione di una macchina del moto perpetuo è assolutamente impossibile. Anche ammesso che l’attrito e la resistenza del mezzo non distruggessero infine l’effetto della potenza motrice primaria, tale potenza non potrebbe produrre un effetto uguale alla sua causa“(5).

        Da parte loro Euler (1707-1783), Lagrange ( 1736-1813) e D’Alembert (1717-1783) costruivano delle equazioni che formalmente sono quelle che oggi conosciamo come principio di conservazione dell’energia meccanica, ma che sostanzialmente e concettualmente non avevano grandi significati (6).

        La tecnologia del calore ampliava invece la sua base fenomenologica e tra i primi a porsi il problema della conservazione dell’energia, nell’ambito della costruzione di macchine a vapore, fu proprio uno degli ideatori di queste macchine, J. Smeaton (1724-1792) nel 1759. II lavoro di Smeaton, unito agli innumerevoli contributi empirici (e non) che da quella parte provenivano, servì anche esplicitamente alle definizioni dei concetti di lavoro e di potenza che, proprio in connessione con uno dei più intensi momenti di sviluppo delle macchine a vapore, facevano la loro comparsa nella fisica (7). Non mi dilungherò ora su questi aspetti, ma voglio sottolineare come la mole dei problemi posti dalla tecnologia di queste macchine ricadrà sulla scienza ufficiale come compito da dover risolvere appena qualche decennio dopo. Ciò che si trattava di capire era: come mai alcune trasformazioni energetiche avvengono con un bilancio positivo e altre con un bilancio negativo? (8). Certamente alla soluzione di questi problemi contribuì il diverso contesto teorico, politico, sociale, dei vari ambienti in cui vi si lavorò.

DAL CONTE RUMFORD A SADI CARNOT

        Alla comprensione delle relazioni tra lavoro meccanico e calore (9), e quindi della fondamentale questione dei bilanci nelle trasformazioni in oggetto, dette un importante contributo (1798) Benjamin Thompson, diventato successivamente Conte di Rumford per meriti scientifici. Rumford (1753-1814) stabilì (1799) l’equazione:

calore = movimento

che è il primo embrione di quel Q = L che sarà stabilito circa 50 anni dopo. Ma le elaborazioni di Rumford ebbero scarsa fortuna. L’ambiente scientifico era diviso tra i sostenitori di questa teoria dinamica e i sostenitori dell’altra, quella fluidistica del calorico (inteso come una sostanza materiale) che andava per la maggiore. Le esperienze che all’epoca si facevano per studiare l’equilibrio termico tra due sostanze sembravano confermare proprio un travaso di calorico da una sostanza all’altra: sarebbe stato più difficile spiegare questi fatti con — diremmo oggi — scambi di energia cinetica tra molecole.

Scarso successo ebbe anche la ben nota esperienza di Davy (1778-1829) che consisteva nello sfregamento sotto vuoto di due pezzi di ghiaccio con la conseguente produzione di calore e quindi di acqua (anche qui: calore = movimento). E Davy spiegava ciò parlando di “vibrazione dei corpuscoli costituenti il corpo“. Sembra strana questa situazione: la gran parte degli scienziati, che si muoveva in un preteso ambito newtoniano, non riconosceva nell’agitazione di particelle e vibrazione di un qualche mezzo la fisica di Newton e, al contrario, si soffermava su ipotetici fluidi come il calorico. Perché le particelle in ottica e un fluido nella spiegazione del calore? Tanto più che lo stesso Newton, analogamente che per la luce, così si esprimeva a proposito del calore (Ottica, questione 18):

II calore di un ambiente caldo non si trasferisce attraverso il vuoto mediante le vibrazioni di un mezzo più sottile dell’aria che, quando l’aria è stata tolta, rimane sempre? E non è questo mezzo lo stesso mediante il quale la luce si rifrange e si riflette e mediante le cui vibrazioni la luce trasmette il calore ai corpi…? E le vibrazioni di questo mezzo in corpi caldi non contribuiscono all’intensità e alla durata del caldo in questi corpi? E i corpi caldi non comunicano il loro calore a quelli freddi contigui mediante le vibrazioni di questo mezzo propagantisi dai primi ai corpi freddi?“(10).

        Anche se le affermazioni di Newton sono dubitative, basti solo ricordare che dello stesso tipo erano quelle sulla teoria corpuscolare della luce. Insomma è qui difficile capire chi sono i newtoniani. Può sembrare ancora strano, ma fu proprio uno come Young (1773-1829), che si riteneva antinewtoniano perché considerava oppresso, oppressivo e privo di slanci innovatori l’ambiente scientifico dominato dall’autorità di Newton, che riprese le affermazioni dello stesso Newton, a sostegno di una sua “non ortodossa” teoria. Così si esprimeva Young (1807):

Se il calore non è una sostanza, deve essere una qualità; e questa qualità può essere solo moto. Era opinione di Newton che il calore consista in un piccolo moto vibratorio delle particelle dei corpi, e che questo moto sia comunicato, attraverso un vuoto apparente, dalle vibrazioni di un mezzo elastico che interviene anche nei fenomeni luminosi. Se gli argomenti che sono stati avanzati ultimamente a favore della teoria ondulatoria della luce sono ritenuti validi, vi saranno ragioni ancora più forti per ammettere questa dottrina riguardo al calore, e sarà solo necessario supporre che le vibrazioni e ondulazioni, che soprattutto lo costituiscono, siano più ampie e più forti di quelle della luce, mentre al tempo stesso le più piccole vibrazioni luminose, e anche le radiazioni oscure che derivano da vibrazioni ancora più piccole possono, forse, se sufficientemente condensate, contribuire a produrre gli effetti del calore“(11).

        Questi ultimi effetti del calore erano essenzialmente quelli che, nell’industrializzata Gran Bretagna, provenivano dall’uso delle macchine a vapore. Ma l’arretratezza delle istituzioni scolastiche e (sembra impossibile) scientifiche di quel paese aveva lasciato lo studio di questi fenomeni ai soli tecnici. Fu Watt (1736-1819) che, applicando un dispositivo meccanico (diagramma indicatore) al pistone e al cilindro di una sua macchina, evidenziò direttamente e graficamente il variare della pressione del vapore in funzione del volume a disposizione del cilindro (12). Ma ancora non vi era alcuna elaborazione teorica. Al contrario, la Francia dell’École aveva cominciato a sottoporre a trattamento teorico i fenomeni implicati negli scambi di calore. Un primo fondamentale lavoro in questo senso è la Teoria analitica del calore (1822) di J.B. Fourier (1768-1830), nel quale si studiano i meccanismi di propagazione del calore attraverso i corpi solidi (13). Fourier aveva elaborato una teoria matematica del calore basandosi essenzialmente sul fenomeno della conduzione e non facendo ipotesi sulla natura del calore stesso (in particolare, non occupandosi dei fenomeni di dilatazione o simili, che producono effetti meccanici e che erano già stati abbondantemente studiati) (14). Era così arrivato a trovare una legge secondo la quale la quantità di calore che ogni secondo passa attraverso una sbarra della sezione di un centimetro quadrato è proporzionale alla caduta di temperatura per ogni centimetro di lunghezza del conduttore, misurata lungo la direzione nella quale fluisce il calore (si potrebbe dire che la quantità di calore di cui si diceva è proporzionale al gradiente termico). Ma, al di là di alcuni risultati certamente importanti, è utile sottolineare alcune affermazioni dello stesso Fourier sui rapporti della scienza del calore con i principi della dinamica. Così scriveva il fisico-matematico francese:

Qualunque possa essere la portata delle teorie meccaniche, esse non si possono applicare agli effetti del calore. Questi infatti costituiscono un ordine particolare di fenomeni, che non possono essere spiegati mediante i principi del moto e dell’equilibrio” (15). E più oltre, a proposito dei criteri che lo avevano guidato nell’elaborazione del suo lavoro, aggiungeva:

I principi della teoria derivano, così come quelli della meccanica razionale, da un ristrettissimo numero di fatti iniziali e … le equazioni differenziali della propagazione del calore esprimono le condizioni più generali, e riducono le questioni fisiche a problemi di pura analisi, e questo è il vero scopo della teoria. … Considerata da questo punto di vista l’analisi matematica si estende così come si estende la natura; essa definisce tutte le relazioni sensibili, misura tempi, spazi, forze e temperature…

non dimenticando nel contempo di riferirsi al metodo delle “analogie” che da qui prende le mosse. In definitiva Fourier, per trattare la speciale classe dei fenomeni del calore (“la cui teoria — come egli afferma — formerà una delle più importanti branche della fisica“(16), si serve essenzialmente della matematica cui assegna un ruolo insostituibile per superare le dispute sulle cause e arrivare invece alle equazioni che descrivono il fenomeno, uniche verità universali. Come osserva Bellone, “l’utilizzazione delle tecniche-matematiche trovava nel pensiero di Fourier non solo delle giustificazioni legate a una concezione generale della natura, ma anche un impulso per ulteriori progressi formali. È nella Teoria che vengono usate pienamente le nuove formulazioni di Fourier sugli sviluppi m serie: e non si può trascurare il fatto che gli sviluppi in serie non si riducono, nell’opera di Fourier, a semplici tecniche formali, ma implicano l’attribuzione di direzioni privilegiate di sviluppo dei fenomeni termici nel tempo. Il fatto che le serie di Fourier rappresentino lo svolgersi temporale delle perturbazioni termiche apportate sui sistemi fisici viene infatti interpretato, nella Teoria, come la più evidente prova dell’esistenza, nella natura stessa, di una marcia naturale verso situazioni di stazionarietà“(17).

        Due soli anni dopo l’uscita di questo lavoro di Fourier vide la luce un altro contributo fondamentale alla scienza del calore. Si trattava delle “Riflessioni sulla potenza motrice del fuoco” di Sadi Carnot (1796-1832). Certamente una grande influenza su Sadi, uomo dell’École, dovette averla suo padre Lazare (1753-1823) (18), che svolse un ruolo importante nello stesso ambiente dell’École a partire dalla sua fondazione; Lazare, nel suo “Essai sur les machines en général” del 1783, si era occupato di macchine e soprattutto di macchine idrauliche con il fine di fare della scienza di esse una branca della meccanica. In questo lavoro egli, fra l’altro, fece uso della formula della conservazione dell’energia meccanica così come oggi praticamente la conosciamo. I contributi di Lazare alla scienza delle macchine idrauliche saranno ben presenti nell’opera di Sadi se si tiene conto che quest’ultimo sviluppò la sua teoria delle macchine termiche in analogia con quelle idrauliche. Lo stesso Sadi scriveva:

Si può comparare con sufficiente esattezza la potenza motrice del calore con quella di una caduta d’acqua: ambedue hanno un massimo che non può essere superato, qualunque sia la macchina impiegata per ricevere l’azione del calore. La potenza motrice di una caduta d’acqua dipende dalla sua altezza e dalla quantità di liquido; la potenza motrice del calore dipende anche dalla quantità di calore impiegata e … dall’altezza della sua caduta, e cioè dalla differenza di temperatura dei corpi tra i quali si scambia calorico. Nella caduta dell’acqua la potenza motrice è rigorosamente proporzionale alla differenza di livello tra il deposito superiore e quello inferiore. Nella caduta di calorico la potenza motrice aumenta, senza dubbio, con la differenza di temperatura tra il corpo caldo e il corpo freddo“(19).

        Inoltre, come in una macchina idraulica per ottenere il massimo rendimento occorre che l’acqua esca dalla turbina a velocità pressocché nulla (in modo da garantire che tutta l’energia posseduta dall’acqua si trasferisca alla turbina) e che, dentro la macchina, l’acqua non dia colpi violenti alle parti mobili, cioè non vari apprezzabilmente la sua velocità (per evitare inutili sprechi di energia), allo stesso modo in una macchina termica è necessario che gli scambi di calore con l’esterno siano resi nulli (affinché tutto il calorico sia utilizzato per produrre potenza motrice(20)) e che, anche all’interno della macchina, gli scambi di calore avvengano tra parti che si trovino pressoché alla stessa temperatura (per evitare inutili sprechi di calorico nel riscaldare parti di macchine).

        Lo spingere oltre l’analogia, unitamente alla convinzione dell’esistenza materiale di un fluido calorico, portò Carnot a una conclusione che oggi riteniamo errata: così come non si ha perdita d’acqua nel funzionamento di una macchina idraulica: (l’acqua che entra nella macchina è la stessa che, dopo aver prodotto lavoro meccanico, ritroviamo all’uscita), allo stesso modo, secondo Carnot, non si ha perdita di calorico nel funzionamento di una macchina termica. Quindi il calorico si conserva, è indistruttibile; non è esso che è trasformato in lavoro-meccanico, è (e qui viene un’affermazione che oggi si può ritenere corretta) solo la sua caduta da una sorgente calda a una fredda che produce questo lavoro (21). E quest’ultimo è uno degli enunciati che oggi usiamo per il secondo principio della termodinamica (22).

        Una macchina termica produce quindi lavoro quando vi è trasferimento di calore da una sorgente, calda a una sorgente fredda. Diceva Carnot:

Ovunque esista una differenza di temperatura, ovunque si possa ristabilire l’equilibrio del calorico, può prodursi anche potenza motrice. [E aggiungeva :] Il vapor d’acqua è un mezzo per realizzare questa potenza, ma non è l’unico: tutti i corpi che la natura ci offre possono impiegarsi a questo scopo“.

E questo perché tutti i corpi, alternativamente scaldati e raffreddati, sono suscettibili di cambiamenti di volume e conseguentemente possono spingere altri corpi sistemati alle loro estremità. Certamente i fluidi sono i più adatti perché sono soggetti a maggiori escursioni volumetriche, ma tutti i corpi, ugualmente, potrebbero essere usati.

        La domanda che spontaneamente sorgeva da ciò è quella che lo stesso Carnot si poneva: “La potenza motrice del calore è immutabile in quantità o varia con l’agente che si usa per realizzarla?“. Carnot rispose affermando che il rendimento di un ciclo è indipendente dal mezzo usato; esso dipende solo dalla differenza di temperatura tra la sorgente calda e quella fredda e dalla quantità di calorico messa in gioco, inoltre “la potenza motrice aumenta con la differenza di temperatura” tra le due sorgenti. È la variazione di volume che produce lavoro, quindi solo gli scambi di calore responsabili di variazioni di volume sono utilizzabili. Se non si perdesse calore nella sua trasmissione tra le due sorgenti e se la quantità di calorico ceduta dalla sorgente calda fosse esattamente uguale a quella ricevuta dalla sorgente fredda (senza perdite nel riscaldamento delle parti componenti la macchina) allora si avrebbe un massimo di rendimento, e il ciclo che descrive il funzionamento della macchina sarebbe un ciclo reversibile (23). Solo le macchine ideali possono realizzare ciò: nelle macchine reali le perdite di calorico sono ineliminabili (24). Pertanto il ciclo di Carnot è un ciclo ideale che rappresenta il limite superiore di rendimento di una macchina reale (25).

I CONTRIBUTI DI CLAPEYRON, MAYER, JOULE ED HELMHOLTZ

        Questo lavoro di Carnot, che praticamente rappresenta la fondazione della termodinamica moderna, rimase senza seguito per ben dieci anni. Solo nel 1834 un altro ingegnere francese, B. Clapeyron (1799-1864), riprese l’opera di Carnot elaborandola e formalizzandola (26).

        Nel frattempo lo studio dei gas era avanzato di molto. A ciò avevano lavorato direttamente o indirettamente (mediante il perfezionamento della strumentazione): Dulong (1785-1838), Petit (1791-1820), Volta (1745-1827), Gay-Lussac (1778-1850), Charles (1746-1823). In particolare Volta e, indipendentemente, Gay-Lussac avevano stabilito un fatto di notevole importanza: tutti i gas hanno lo stesso coefficiente di dilatazione il cui valore è circa 1/273 . Clapeyron, sempre nel 1834, riuscì a mettere insieme la legge di Boyle (1627-1691) — a una fissata temperatura il prodotto della pressione per il volume di un dato gas è costante — e quella di Gay-Lussac — i volumi di due gas che si combinano stanno tra loro in rapporti semplici — ricavando l’importantissima equazione che descrive il comportamento dei gas perfetti (PV = nRT). Passò quindi allo studio dei rapporti esistenti tra lavoro e calore. Nel far ciò si riferì ampiamente all’opera di Carnot accettandone tutti i risultati ma attaccando con fermezza l’ipotesi dell’indistruttibilità del calorico, pur mantenendo comunque il concetto di calorico. Egli affermava che:

Una quantità di azione meccanica e una quantità di calore che può passare da un corpo caldo a un corpo freddo sono quantità della stessa natura ed è possibile sostituirle l’una con l’altra“(27).

        Riprendendo poi in esame il diagramma indicatore di Watt, Clapeyron scoprì che l’area del “ciclo di Watt” dava una misura di quanto lavoro si era fatto per percorrere un ciclo completo. Egli propose quindi di misurare il rendimento (r) di una macchina come il rapporto tra il lavoro fatto da una macchina (L) e la quantità di calore che la macchina ha assorbito dalla sorgente a temperatura più alta (Q2) durante un intero ciclo r = L/Q2. C’è comunque da osservare che il ciclo su cui Clapeyron lavorava era diverso da quello originario di Carnot (28), anzi, quello che noi oggi studiamo come ‘ciclo di Carnot’ è il ciclo di Clapeyron costituito, in un piano P, V, da due isoterme e due adiabatiche.

        Nonostante l’elevato livello di formalizzazione e gli importanti successi teorici che si stavano conseguendo, questo lavoro rimase abbastanza inosservato per circa quindici anni. Si trattava di capire meglio la natura del calore, i suoi meccanismi di scambio e i suoi rapporti con il lavoro meccanico; tutto questo anche da campi diversi da quello strettamente fisico e tecnologico, come ad esempio dalla chimica e dalla biologia.

        Nuovi importanti contributi iniziarono a venire dalla Germania. Dapprima il fisiologo Liebig (1803-1873) mise in relazione l’energia meccanica animale con il calore prodotto dalla combustione del cibo (29); quindi un suo discepolo, Mhor (1806-1879), nel 1837 sostenne, all’interno di una visione meccanicistica, che ogni forma di energia doveva necessariamente provenire da energia meccanica e cioè da agitazione molecolare; e infine, per ora, il medico R. Mayer (1814-1878) trovò (1842) una relazione quantitativa precisa tra lavoro e calore riuscendo a calcolarsi l’equivalente meccanico del calore (è, come diremmo oggi, il primo principio della termodinamica nell’ipotesi di variazione nulla dell’energia interna del sistema o, che è lo stesso, nell’ipotesi di percorrere un ciclo chiuso). Scriveva Mayer:

La connessione naturale che esiste tra la forza di caduta, il movimento e il calore può essere concepita nel modo seguente … La caduta di un peso … deve essere, senza dubbio alcuno, correlata alla quantità di calore che conseguentemente si sviluppa; questa quantità di calore deve essere proporzionale alla grandezza del peso e alla sua distanza rispetto al suolo. Da questo punto di vista siamo con molta facilità condotti alle equazioni tra la forza di caduta, il movimento e il calore“(30).

        E a questo punto Mayer si poneva l’ovvia domanda:

Quanto è grande la quantità di calore che corrisponde a una data quantità di movimento o di forza di caduta? Ad esempio, dobbiamo accertare a quale altezza debba essere innalzato un dato peso rispetto al suolo, affinché la sua forza di caduta possa essere equivalente all’aumento di temperatura di un ugual peso d’acqua da 0° a 1°C“(31).

        Mayer passava allora a farsi questo conto basandosi sulle “relazioni che esistono tra la temperatura ed il volume dei gas” e in particolare confrontando il calore specifico a pressione costante (Cp) e il calore specifico a volume costante (Cv) di un dato gas. Riscaldando (32) un grammo di gas di 1°C, mantenendo la pressione a un valore dato P, il suo volume v aumenta di a.v , dove a è il coefficiente di dilatazione dei gas che abbiamo visto valere 1/273. Il calore che bisogna fornire a questo gas è Cp e il lavoro che si ottiene da questo riscaldamento è p.v.a. Se ora si procede scaldando, sempre di 1°C, la stessa quantità di gas ma, questa volta, mantenendo il volume costante, il calore che bisognerà fornire sarà Cv (e, poiché il volume si mantiene costante, non si avrà nessun lavoro). In definitiva la differenza Cp – Cv deve uguagliare il lavoro p·v·a, cioè: Cp – Cv = p·v·a e proprio questa differenza ci fornirà l’equivalente meccanico della caloria:

J = Cp – Cv = p·v·a

che, secondo i conti di Mayer, valeva 365 kgm (chilogrammetri) per ogni grande caloria (33). Mayer poteva così concludere:

Se confrontiamo questo risultato con l’operare delle nostre migliori macchine a vapore vediamo quanto sia piccola quella parte del calore applicato alla caldaia che viene realmente trasformata in movimento o in sollevamento di pesi; e tutto ciò può servire come una giustificazione dei tentativi di produrre movimento in modo più redditizio“(34). 

        Lasciata la Francia con Clapeyron siamo passati alla Germania, ma, proprio negli anni della memoria di Mayer, una serie di lavori sperimentali sull’argomento si stavano realizzando in Gran Bretagna ad opera dello scienziato dilettante J.P. Joule (1818-1889). Questi, come il suo maestro J. Dalton (1766-1844) (35), era un sostenitore della teoria dinamica del calore. Egli iniziò i suoi lavori guidato dalla profonda convinzione (anche religiosa) della indistruttibilità dell’energia (36), prendendo le mosse dal calore sviluppato in un conduttore al passaggio di una corrente (1840). Il problema che Joule si poneva riguardava la provenienza del calore che si sviluppa nei conduttori al passaggio di corrente: si produce nei conduttori o proviene dalla pila? La provenienza dalla pila venne subito scartata poiché egli non rilevò nessun raffreddamento simultaneo della pila stessa (cosa che, nella data ipotesi, doveva necessariamente accadere). Quindi il calore si produceva nel filo e doveva essere in relazione e con la quantità di sostanza chimica che consuma la batteria e con il lavoro meccanico fatto dalla macchina collegata con la batteria. Sviluppando queste considerazioni con il sostegno di tutta una serie di esperienze, egli trovò la relazione, oggi nota come “legge di Joule”, secondo la quale la quantità di calore che si sviluppa all’interno di un circuito percorso da corrente in un dato tempo è proporzionale alla resistenza del circuito stesso e al quadrato dell’intensità di corrente che lo attraversa (37).

        In un lavoro successivo (1843), Joule andò a ricavarsi l’equivalente meccanico del calore, e pare accertato che non conoscesse ancora il lavoro di Mayer. Egli si servì di una gran quantità di esperienze, utilizzando quasi tutte le possibili trasformazioni energetiche all’epoca note, e in particolare usando il suo “frullino” per scaldare acqua in un calorimetro delle mescolanze. È questa l’esperienza notissima, argomento di studio in tutti i corsi di fisica: una ruota a palette, immersa nell’acqua di un calorimetro, gira sotto l’azione di due masse in caduta; il forte attrito che si genera tra palette in rotazione e acqua fa innalzare la temperatura di quest’ultima. A questo punto si calcola da una parte il lavoro meccanico prodotto dalle masse in caduta, e dall’altra il calore che si sviluppa nell’acqua (accertandosi alla fine dell’esperimento di aver lavorato su di un ciclo chiuso, di essere cioè tornati alle condizioni iniziali). Mediando su tutti gli esperimenti fatti Joule ricavò, per l’equivalente meccanico della caloria (38), il valore di 424 kgm per ogni grande caloria (39), (cioè 4159J/kcal) che, come si potrà controllare, è molto simile a quello che noi oggi accettiamo (4186 J/kcal) (40).

        Nel 1847, all’età di 28 anni, Joule ebbe modo di tenere una conferenza nel salone annesso alla chiesa di Sant’Anna in Manchester dal titolo “Sulla materia, la forza viva e il calore”; in essa egli enunciò quello che oggi conosciamo come il principio di conservazione dell’energia (o 1° principio della termodinamica) affermando:

Ogni volta che la forza viva è apparentemente distrutta, in realtà si produce una quantità di calore che la equivale con esattezza per via di percussioni, di frizioni, o altre simili cause. Viceversa: il calore non può diminuire o essere assorbito senza produzione di forza viva e di una equivalente forza di attrazione nello spazio… (41). Calore, forza viva, attrazione nello spazio – e potrei anche aggiungere luce, se ciò occorresse ai fini di questa conferenza -possono convertirsi mutuamente, e in tali conversioni nulla va mai perduto” (42).

        In quello stesso anno, e di nuovo in Germania, veniva pubblicato un lavoro di estrema importanza che affermava definitivamente la conservazione dell’energia. Il titolo del lavoro era “Sulla conservazione della forza”, l’anno, come già detto, il 1847, l’autore H. Helmholtz (1821-1894). E anche Helmholtz proveniva da quella scuola di fisiologisti tedeschi di cui abbiamo già visto far parte Liebig e Mohr. Fu proprio partendo da sollecitazioni di carattere biologico, e in particolare dal vecchio problema dell’origine del calore nei corpi animali, che Helmholtz passò ad affrontare la questione da un punto di vista fisico. Egli partiva dalla convinzione dell’impossibilità del moto perpetuo e contemporaneamente da quella, affermatasi nella sua scuola, che erano le reazioni chimiche del cibo a fornire calore ai corpi animali. Se ci fosse stata una entità esterna a questi corpi, che li avesse riforniti di energia, essi avrebbero avuto a disposizione un “surplus” di energia che li avrebbe resi macchine dotate di moto perpetuo. Il calore dei corpi animali e il moto di cui essi sono capaci deve discendere, secondo Helmholtz, soltanto dal cibo. Quindi c’è occasione di considerare insieme almeno tre forme di energia che mutuamente si trasformano: l’energia chimica del cibo che diventa calore e movimento. Ebbene, se a questo punto, si sommano due fatti, il principio di conservazione dell’energia meccanica già stabilito e la teoria che vuole il calore come originato dal moto di particelle, ci si rende conto che anche il calore è energia meccanica, che tutta l’energia è energia meccanica, che tutta l’energia si conserva.

        Questa è, per sommi capi, la linea di pensiero che portò Helmholtz alla sua famosa memoria del 1847 (43) nella quale è enunciata quella che oggi conosciamo come la conservazione dell’energia nella sua forma più completa e generale. In questa memoria Helmholtz passava in rassegna tutti i rami della fisica applicandovi la conservazione dell’energia come ipotesi ragionevole, che non solo avrebbe spiegato tutti i fenomeni noti ma sarebbe anche stata feconda di ulteriori sviluppi. Egli elaborò matematicamente le sue considerazioni arrivando a risultati che poi andava a confrontare con i dati sperimentali. Dapprima dimostrò che tutti i fenomeni meccanici obbediscono alla legge di conservazione procedendo a una riduzione di essi alle forze attrattive e repulsive tra particelle costituenti i corpi. Quindi passò a dimostrare la validità del principio per i fenomeni termici discutendo delle teorie del calore e in particolare dell’equivalente meccanico della caloria così come era stato misurato da Joule. In questa parte della memoria egli affermava che:

la quantità di calore può essere aumentata in senso assoluto mediante forze meccaniche, e che perciò le manifestazioni caloriche non possono essere dedotte da una sostanza materiale che le determini con la semplice e pura presenza; risulta, invece, che le manifestazioni caloriche devono essere ricavate da trasformazioni, da movimenti, o da una vera e propria sostanza materiale, o dei corpi, ponderabili e imponderabili, già altrimenti noti, per esempio delle elettricità o dell’etere luminoso… Quel che è stato chiamato finora quantità di calore potrebbe servire d’ora in poi come espressione in primo luogo della quantità di forza viva del movimento termico, e in secondo luogo della quantità di quelle forze elastiche degli atomi che, cambiando la loro disposizione, possono provocare un tale movimento…” (44).

        Helmholtz, che già qui aveva ben chiarito il suo principio, andava poi a studiare l’equivalente meccanico nei fenomeni dell’elettricità, del magnetismo e dell’elettromagnetismo. Soffermandosi infine a una discussione sui fenomeni biologici, poteva concludere:

Credo di aver dimostrato … che la legge di cui ci siamo occupati non contraddice alcuno dei fatti finora noti alle scienze della natura, ed è, invece, convalidata in modo sorprendente da un gran numero di tali fatti … Lo scopo di questa ricerca, il quale può anche ottenermi venia della parte ipotetica della ricerca stessa, fu quello di esporre ai fisici, con la maggiore completezza possibile, l’importanza teorica, pratica ed euristica della legge di conservazione dell’energia, la cui esauriente convalida deve, forse, essere considerata come uno dei principali compiti della fisica nel prossimo futuro” (45).

        In conclusione, con Helmholtz, per la prima volta (46) e anche con estrema chiarezza, viene enunciata la conservazione dell’energia (somma di energia cinetica più potenziale) nell’ipotesi riduzionista di azioni tra particelle che costituiscono i corpi e, in ultima istanza, nell’ipotesi più ampia di poter ridurre tutti i fenomeni fisici alla meccanica (47).

        Ben scarso fu l’impatto immediato di questo come degli altri lavori già discussi. Tutto ciò che avesse avuto l’aria di una speculazione veniva subito respinto e attaccato duramente dall’ambiente dei fisici. Ma questa volta doveva passare poco tempo perché l’energia e la sua conservazione entrassero definitivamente tra i concetti più importanti del mondo della fisica. I contributi che si susseguirono a partire da questo, soprattutto ad opera di Kelvin, Clausius, Maxwell e Boltzmann, andarono a costruire via via la moderna termodinamica e a fondare, in accordo con la teoria cinetica dei gas e del calore, la meccanica statistica.

LA STORIA PROSEGUE I CONTRIBUTI DI KELVIN E CLAUSIUS

        La scienza della termodinamica era fondata. Si era a un risultato fondamentale che travalicava addirittura l’intervento divino previsto da Newton: la conservazione dell’energia. Si trattava ora di mettere ordine e di tentare di capire meglio: di costruire, cioè, la termodinamica stessa.

        Nel 1848 un giovane fisico inglese, William Thomson (1824-1907), in seguito divenuto Lord Kelvin per meriti scientifici, si accorse che dai lavori di Carnot era possibile ricavare una scala assoluta di temperature. L’evento era di notevole importanza perché, fino ad allora, per la misura delle temperature ci si era basati soltanto sulla dilatazione, mediante riscaldamento, di determinate sostanze (mercurio, alcool, acqua, gas…), e dati due termometri che sfruttavano la dilatazione di due sostanze diverse, non c’era modo di raccordare le letture delle temperature dei due strumenti (a causa dei diversi coefficienti di dilatazione e della non linearità della dilatazione stessa in funzione del calore assorbito dalla sostanza e, conseguentemente, delle temperature lette). Il termometro che dava miglior affidamento era quello ad aria, anche grazie agli studi dì Regnault (1810-1878), ma, osservava Kelvin:

anche se in tal modo otteniamo un principio preciso per la costruzione di un sistema definito atto alla valutazione della temperatura, pure non possiamo ritenere di essere giunti a una scala assoluta, in quanto si fa essenzialmente riferimento a un corpo specifico, inteso come sostanza termometrica campione” (48).

        E a questo punto, alla domanda: “esiste un principio su cui possa fondarsi una scala termometrica assoluta?” Kelvin rispondeva di si, e di averlo individuato nella teoria di Carnot delle macchine termiche. Secondo la suddetta teoria il rendimento di una tale macchina è indipendente dal particolare fluido impiegato e dipende solo dalia quantità di calore in giuoco e dalla differenza di temperatura esistente tra le due sorgenti. Kelvin propose allora di utilizzare questo fenomeno definendo

gli incrementi di temperatura uguali su una scala assoluta come gli intervalli di temperatura entro i quali una macchina termica avrebbe funzionato con la stessa efficienza” (49).

        È un interessante e indiretto sostegno alla teoria di Carnot e in particolare al 2º principio della termodinamica in essa contenuto.

        Ancora nel 1849 Kelvin tornava sui lavori di Carnot discutendo e confrontando i rendimenti di varie macchine termiche e rilevando una fondamentale discordanza tra la teoria di Carnot e i lavori di Joule (50). Il problema era relativo alla conduzione del calore: da una parte, quando si mettono a contatto semplicemente due corpi a diversa temperatura, il calore passa spontaneamente da quello a temperatura maggiore a quello a temperatura minore in modo completamente irreversibile non producendo alcun lavoro meccanico, e dall’altra, in una macchina di Carnot, si ha sempre passaggio di calore da un corpo a una data temperatura a uno a temperatura più bassa, ma con produzione di lavoro meccanico e in modo totalmente reversibile. Così scriveva Kelvin:

Quando l’azione termica viene consumata nella conduzione di calore attraverso un solido, che succede dell’effetto meccanico che essa dovrebbe produrre? Nulla può essere perduto durante le operazioni della natura; nessuna energia può essere distrutta.” (5l).

        Kelvin notò però che, abbandonando l’idea del calorico che si conserva e accettando la teoria di Joule, secondo la quale nulla si perde nelle conversioni reciproche di lavoro in calore, sarebbe stato possibile superare la difficoltà ma, per il momento, rifiutò di addentrarsi su questa strada che lo avrebbe portato, come egli stesso diceva, a scontrarsi con altre insormontabili difficoltà (52).

        Chi risolse il problema, all’interno del quale ci sono distintamente in embrione i due principi della termodinamica, fu Rudolf Clausius (1822-1888) con un lavoro del 1850, “Sulla forza motrice del calore”. Il fisico tedesco, dopo aver affermato il suo schierarsi con la teoria dinamica de! calore, diceva che:

La nuova teoria [di Joule] non è in opposizione al principio fondamentale di Carnot ma contraddice soltanto l’asserzione ausilia-ria secondo cui non si perde calore [in un ciclo]: in effetti, nella produzione di lavoro, può benissimo accadere che, nello stesso tempo, una certa quantità di calore venga consumata e un’altra trasferita da un corpo caldo a uno freddo, e che entrambe le quantità di calore siano in relazione definita rispetto al lavoro che è stato fatto“. (53)

        E inoltre enunciava con chiarezza il 1° principio della termodinamica con le seguenti parole:

In tutti i casi in cui si produce lavoro per mezzo del calore, viene consumata una certa quantità di calore che è proporzionale al lavoro fatto; e, reciprocamente, con la spesa di una uguale quantità di lavoro si produce una uguale quantità di calore” (54).

        Fatte queste premesse, Clausius iniziò a ridiscutere il ciclo di Carnot, “rappresentato molto chiaramente in forma grafica da Clapeyron“, in termini di lavoro interno ed esterno, perché, come diceva Clausius, quando un corpo cambia di volume si produce e si consuma sempre del lavoro meccanico, ma quest’ultimo è difficile da determinarsi “a causa del fatto che insieme al lavoro esterno si produce anche un lavoro interno sconosciuto“.

        Tutto ciò equivale a sostenere quello che oggi è noto, appunto, come secondo principio della termodinamica nell’enunciazione di Ciausius:

È impossibile realizzare una trasformazione il cui unico risultato sia un trasferimento di calore da un corpo a una data temperatura a un altro a temperatura maggiore” (58).

        Le cose, anche se già a un buon livello di elaborazione, ancora non erano chiare nei dettagli e soprattutto nei problemi che si aprivano con la risoluzione data da Clausius della discordanza, trovata da Kelvin, tra le ipotesi di Carnot e i lavori di Joule.

        Fu ancora Kelvin che, tra il 1851 e il 1852, dopo essersi convertito definitivamente alla teoria dinamica del calore, ritornò sull’argomento con varie memorie (59) risolvendo gran parte dei residui dubbi. La prima cosa che Kelvin realizzò (1851) fu la netta e chiara distinzione tra i due principi a fondamento della “teoria della potenza motrice“, dovuti, secondo Kelvin, rispettivamente a Joule e a Carnot-Clausius:

Proposizione I (Joule) — Quando quantità uguali di effetto meccanico vengono prodotte, con qualsiasi mezzo, a partire da sorgenti puramente termiche, oppure vanno perdute in effetti puramente termici, vengono distrutte o generate quantità uguali di calore.

Proposizione 2 (Carnot e Clausius) — Se una macchina è tale che, quando viene fatta lavorare alla rovescia, le operazioni di tipofisico e meccanico in tutte le parti dei suoi movimenti sono rovesciate, allora essa produce tanto effetto meccanico quanto quello che può essere prodotto, da una data quantità di calore, con una macchina termodinamica qualsiasi che lavori tra le stesse temperature di sorgente e refrigeratore” (60).

        Quindi egli passò a fornire un nuovo enunciato del secondo principio che dimostrò essere equivalente a quello di Carnot e Clausius:

E’ impossibile, ricorrendo a operazioni materiali inanimate, derivare effetto meccanico da una qualsiasi porzione di materia raffreddandola al di sotto della temperatura del più freddo fra gli oggetti circostanti” (61).

        A questo punto (1852) Kelvin introdusse nella fisica il concetto di dissipazione (si badi bene: non di annichilazione) dell’energia nei processi irreversibili e nelle trasformazioni aperte:

Quando del calore viene creato mediante un processo irreversibile (quale ad esempio l’attrito), si ha una dissipazione di energia meccanica, ed è impossibile reintegrarla completamente nelle sue condizioni primitive. Quando del calore viene diffuso per conduzione si ha una dissipazione di energia meccanica, e una perfetta reintegrazione è impossibile…Esiste oggi nel mondo materiale una tendenza universale verso la dissipazione dell’energia meccanica” (62).

        Questo modo di argomentare da parte di Kelvin ci fornisce l’occasione per una considerazione. Mentre i lavori di Clausius risultano più eminentemente speculativi, a causa anche del clima politico e culturale della Germania, quelli di Kelvin risultano più direttamente legati a considerazioni tecnico-pratiche in stretta connessione con i rendimenti delle macchine termiche che in Gran Bretagna avevano raggiunto un notevolissimo standard di utilizzazione (63).

ULTERIORI CONTRIBUTI DI CLAUSIUS

        Gli sviluppi successivi della termodinamica sono dovuti a Clausius che continuerà ad indagare i fenomeni naturali con processi astrattivi sempre più spinti. In alcune memorie del 1854, del 1862 e del 1865 egli riuscì a formalizzare le enunciazioni termodinamiche fino ad allora costruite – e ancora eminentemente qualitative – con l’introduzione di alcune importanti funzioni termodinamiche come la ‘energia interna’ e la ‘entropia’. Il lavoro di Clausius portò alla fondazione della termodinamica dei processi reversibili (per i quali valgono delle uguaglianze) ma non riuscì ancora a dire nulla (oltre allo scrivere delle disuguaglianze) sui processi irreversibili. In particolare, nella memoria del 1865 compare la formulazione analitica del primo principio della termodinamica nella forma differenziale che oggi conosciamo. Per un cambiamento infinitesimo di stato, risulta:

dQ = dU + dW

dove dQ rappresenta la quantità infinitesima di calore comunicata ad un corpo, dW rappresenta il lavoro infinitesimo che il corpo fa sull’esterno (moltiplicato per l’equivalente termico del lavoro) (64) e dU rappresenta una quantità (infinitesima) precedentemente (1850) introdotta da Clausius (il lavoro interno di cui abbiamo parlato) alla quale si può dare il nome, suggerito da Kelvin, di energia del corpo (65). Formulato in questo modo il 1º principio, Clausius passò a formulare il 2º, introducendo la funzione e il concetto di entropia (66). Già nel 1854 Clausius aveva individuato questa grandezza fisica e l’aveva chiamata ‘valore equivalente di una trasformazione‘. Egli vi ritornò nel 1862 per completare quanto già iniziato. Dopo aver premesso che “il calore può essere trasformato in lavoro, oppure il lavoro in calore, mediante un processo circolare” (67) cioè mediante un ciclo, egli proseguiva:

I due tipi di trasformazione che sono stati citati sono correlati in modo tale che l’uno presuppone l’altro e che entrambi possono essere reciprocamente interscambiabili. Se chiamiamo equivalenti quelle trasformazioni che possono sostituirsi l’una all’altra… arriviamo alla seguente espressione: se la quantità di calore Q alla temperatura T è prodotta dal lavoro, allora il valore equivalente di questa trasformazione è:

Q/T ;

e se la quantità di calore Q passa da un corpo a temperatura T1 a un corpo a temperatura T2 allora il valore equivalente di questa trasformazione è:

Q/T2 – Q/T1 ” (68).

        A questo punto Clausius ipotizzò che tutte le trasformazioni che avvengono nel senso ‘suggerito’ dalla natura (passaggio di calore dai corpi caldi ai corpi freddi e trasformazioni di lavoro meccanico in calore) debbono avere un valore equivalente positivo (69), tutte le altre negativo. Facendo la somma algebrica di tutti i valori, equivalenti lungo una trasformazione ciclica, essa può essere nulla soltanto se il processo ciclico è reversibile (quando il valore equivalente delle trasformazioni positive deve essere complessivamente uguale a quello delle trasformazioni negative), mentre è sempre positiva se il processo ciclico è irreversibile (quando il valore equivalente delle trasformazioni positive è più grande di quello delle trasformazioni negative). E ciò vuol dire che un ciclo irreversibile (cioè reale, quello che la natura ci offre), prevalgono le trasformazioni positive, prevalgono cioè le trasformazioni di lavoro meccanico in calore e il passaggio di calore dai corpi caldi ai corpi freddi. Solo in un caso limite (ideale), quello del ciclo reversibile, sono uguali gli equivalenti delle trasformazioni positive e negative, di modo che la somma algebrica di essi è zero. Le trasformazioni negative, invece, non possono mai prevalere,in accordo con quanto ricavato fino al momento a partire dai lavori di Carnot. La prevalenza di trasformazioni negative equivarrebbe a dire che la natura preferisce trasferire calore dai corpi freddi ai corpi caldi e trasformare calore in lavoro meccanico.

        Clausius passò quindi a dare una espressione analitica di quanto precedentemente discusso, e cioè del 2º principio della termodinamica. Se indichiamo con dQ la quantità di calore scambiata in ogni trasformazione infinitesima che costituisce il ciclo, e con T la temperatura assoluta a cui avviene lo scambio di calore, per la somma, o integrale del quoziente tra le due quantità ora definite si ha:

Integrale di Q/T ³ 0

dove si ha sempre il segno > in tutti i processi reali (irreversibili) e il segno = solo per i processi ideali (reversibili) (70).

Nella memoria del 1865 Clausius indicò con il simbolo S il rapporto Q/T, affermando:

Possiamo dire che S indica il contenuto di trasformazione del corpo, così come diciamo che la quantità U è il contenuto di calore e lavoro del corpo stesso… Propongo di chiamare la grandezza S con il nome di entropia del corpo, partendo dalla parola greca … che significa trasformazione” (71).

E alla fine della memoria Clausius passò a trarre la conclusione di quanto aveva fino ad allora ricavato:

Se, fra tutte le modificazioni di stato che avvengono nell’universo, le trasformazioni che si sviluppano in una certa direzione superano in grandezza quelle che si sviluppano in direzione contraria, allora la condizione generale dell’universo si modificherà sempre più lungo la prima direzione, e l’universo stesso tenderà continuamente ad avvicinarsi verso uno stato finale… Possiamo allora esprimere in forma semplice le leggi fondamentali dell’universo che corrispondono alle due leggi fondamentali della teoria meccanica del calore:

1) L’energia dell’universo è costante.

2) L’entropia dell’universo tende a un massimo” (72).

        Questa conclusione di Clausius è in accordo con quella trovata da Kelvin sulla dissipazione dell’energia (73) e in particolare con il fatto che in nature si tende a uno stato di energia degradata (tutta alla stessa temperatura) e perciò stesso non utilizzabile dall’uomo (in quanto abbiamo visto che occorrono differenze di temperatura per far funzionare delle macchine) (74). L’entropia e il suo aumento rappresentano, in certo qual modo, un fattore di merito delle trasformazioni termodinamiche e possono raccontarci la storia dell’energia che si sta trasformando. L’energia tende a ‘invecchiare’ e questo invecchiamento dipende dall’abbassamento di temperatura e dalla conseguente comparsa di calore: più la temperatura, a cui avviene lo scambio di calore, è bassa, più l’energia è invecchiata e più è grande l’entropia che è, appunto, rappresentata da Q/T. Da un punto di vista più strettamente riguardante i corpi soggetti a trasformazioni, l’entropia è una grandezza che, secondo Clausius, è somma di due componenti: riscaldare un corpo significa aumentare la sua temperatura e farlo dilatare, la qual cosa si traduce in un aumento del calore interno; e, sempre secondo Clausius, è importante notare che all’effetto macroscopico del calore (la dilatazione che, dovendo vincere delle forze esterne, si traduce in lavoro) è associato un effetto microscopico che “tende sempre a indebolire la connessione tra le molecole e, in tal modo a far crescere le distanze medie da cui le molecole stesserono separate le une dalle altre” (75). Quest’ ultimo effetto è chiamato da Clausius “tendenza all’aumento della disgregazione” avendo definito con disgregazione “il grado di dispersione delle molecole di un corpo“. Orbene, “la misura di un aumento di disgregazione è il valore equivalente della trasformazione di lavoro in calore che deve realizzarsi al fine di compensare questo aumento di disgregazione” (76). Chiamando Y il primo effetto (aumento del calore interno) e Z il secondo (separazione molecolare), l’entropia S è definita da Clausius come:

S = Y + Z

e ciò vuol dire che quando un corpo si riscalda (aumenta Y) e si dilata (aumenta Z) oppure si riscalda e si dilata (aumentano Y e Z), l’entropia aumenta. Un corpo che si raffreddi e/o si contragga vedrà, invece, S diminuire. Nelle trasformazioni reversibili è possibile pensare a effetti equivalemti che vanno reciprocamente ad annullarsi, ma, nella realtà,

tutto ciò che si raffredda senza compiere un lavoro deve cedere energia termica a un corpo o ad altri corpi che così vengono a riscaldarsi. E poiché la temperatura funge da divisore e da denominatore nella misurazione del mutamento di entropia, ne deve conseguire che la riduzione di entropia nel primo corpo deve essere inferiore all’aumento di entropia nel secondo” (77), il che vuol dire che, in ogni trasformazione irreversibile, l’entropia aumenta.

        Arriviamo così a questa nuova grandezza fisica, l’entropia, che, allo stesso modo del tempo. ha una direzione fissata di svolgimento. Questa grandezza, nata in connessione con il 2° principio della termodinamica, aumenta sempre in ogni processo naturale e cioè in ogni processo irreversibile. Si tratta di una scoperta di enorme importanza, di un qualcosa assolutamente non comprensibile nell’ambito della fisica newtoniana e in particolare della meccanica. Tanto più che le variazioni di entropia sono strettamente connesse ad altre qualità fondamentali dei processi naturali che, anch’esse, per la prima volta compaiono nella descrizione e formulazione dei fenomeni e delle leggi fisiche: la reversibilità e l’irreversibilità. I fenomeni studiati dalla meccanica e le relazioni che li descrivono sono completamente reversibili e, paradossalmente, possono fare a meno della uniderizionalità del tempo; (78) ora, con il 2º principio della termodinamica, si scopre che tutti i fenomeni naturali sono irreversibili, si svolgono cioè in modo tale da non poter essere invertiti, e quindi si fissa una direzione privilegiata, non solo per il tempo, ma anche per l’entropia. L’irreversibilità è mera conseguenza del fatto che in ogni processo naturale si sviluppa calore e, poiché quest’ultimo ha una direzione privilegiata di marcia (dai corpi caldi ai corpi freddi), ne consegue l’irreversibilità di tutti i fenomeni.

        È certamente strana la situazione in cui si trovava la fisica a metà dell’ Ottocento. Da una parte il 1° principio della termodinamica postula una uguaglianza tra lavoro e calore che può essere letta in ambedue i sensi e non pone alcun limite alle reciproche trasformazioni; dall’altra il 2° principio postula una dissipazione dell’energia e, conseguentemente, un limite alla trasformabilità del calore in lavoro e un limite (la morte calda dell’universo) a tutte le trasformazioni. Da una parte il 1 ° principio si può intendere come descrivente una reversibilità analoga a quella meccanica; dall’altra il 2° principio afferma l’irreversibilità di tutti i fenomeni naturali. Da una parte il calore della teoria dinamica è descrivibile mediante le equazioni reversibili della meccanica; dall’altra i processi fisici che comportano sviluppo di calore (tutti) sono irreversibili. Il terreno è pronto per una serrata critica alla meccanica, soprattutto se si pensa a quanto contemporaneamente si sviluppava in altri campi della fisica e principalmente all’introduzione, fatta da Faraday (1791-1867), della teoria di campo (azioni circolari e richiedenti tempo e non rettilinee, istantanee, a distanza) e agli sviluppi dell’ottica dei corpi in movimento (teoria ondulatoria per la spiegazione dell’interferenza e trascinamento dell’etere, sostanza quest’ultima dalle prodigiose proprietà). Nel frattempo si era aperta una strada, nello studio dei gas, lungo la quale sarebbe stato possibile superare le difficoltà termodinamiche cui abbiamo accennato: la teoria cinetica dei gas e la meccanica statistica.TEORIA CINETICA DEI GAS E MECCANICA STATISTICA        Il primo a ipotizzare e parzialmente ad elaborare una teoria cinetica dei gas fu Daniel Bernouilli (1700-1782) nel 1738. Questo tentativo non ebbe seguito e per circa cento anni non si sentì più parlare della cosa. Nel 1820 J. Herapath (1790-1869) e nel 1845 JJ.Waterston (1811-1883) inviarono due memorie alla Royal Society nelle quali riprendevano le ipotesi di Bernouilli sviluppando l’idea di calore come movimento disordinato delle particelle costituenti la materia. In particolare il lavoro di Waterston era una vera e propria anticipazione di quella che più tardi sarà chiamata meccanica statistica. Ambedue i lavori furono rifiutati. Come osservano Baracca e Livi, “è questa una ulteriore conferma che l’evolversi della scienza non è descrivibile in termini di puro avvicinamento alla verità, a una presunta pura realtà naturale, ma è invece sempre intrinsecamente condizionato dalla situazione storica concreta” (79). Quella era infatti l’epoca del positivismo, nella quale erano respinte tutte le ipotesi che andassero al di là dei fatti.

        Anche Joule si occupò del problema e nel 1851 pubblicò un lavoro nel quale, partendo dall’ipotesi che la temperatura dipende dal moto molecolare, calcolò quale deve essere la velocità media delle molecole del gas idrogeno per produrre una pressione uguale a quella atmosferica (80). I lavori di Herapath e Waterston vennero ripresi nel 1856 in una memoria, sostanzialmente identica a quella degli ispiratori, del chimico tedesco A. Krönig (1822-1879). I tempi erano mutati e poi la Germania dell’epoca permetteva maggiori ‘voli di fantasia’. Al lavoro di Krönig ne seguì subito uno di Clausius nel quale si gettavano le basi della moderna teoria cinetica dei gas (1857) (81). Leggiamo direttamente da Clausius:

La pressione del gas contro una superficie fissa è causata dalle molecole che urtano in gran numero su di essa e rimbalzano. La forza che così ne nasce è, in primo luogo, a parità di velocità del moto, inversamente proporzionale al volume della quantità fissata del gas; e in secondo luogo, a parità di volume, proporzionale alla forza viva (82) del moto di traslazione…

Dalla legge di Gay-Lussac (83) sappiamo che, a volume costante, la pressione di un gas perfetto cresce nello stesso rapporto della temperatura…assoluta. Di qui … segue che la temperatura assoluta è proporzionale alla forza viva del moto di traslazione delle molecole … (84)

La quantità di calore che deve essere fornita al gas, a volume costante, per aumentare la sua temperatura, deve essere considerata come un aumento della forza viva nel gas (85), nella misura in cui, in tal caso, non si compie alcun lavoro che potrebbe consumare calore..

Per soddisfare strettamente le leggi di [Boyle-] Mariotte e [Volta-] Gay-Lussac, e altre ad esse connesse, il gas deve soddisfare le seguenti condizioni rispetto alla situazione delle molecole:

1) Lo spazio realmente riempito dalie molecole del gas deve essere infinitesimo in rapporto all’intero spazio occupato dal gas stesso.

2) La durata di un urto, cioè il tempo richiesto per produrre una variazione del moto di una molecola che avviene quando essa urta un’altra molecola o una superficie fissa, deve essere infinitesimo rispetto all’intervallo di tempo tra due collisioni successive.

3) L’influenza delle forze molecolari deve essere infinitesima” (86). Queste condizioni, aggiungeva poi Clausius, quando sono rispettate, ci forniscono quello che si può chiamare un gas ideale (o perfetto); man mano che ci si allontana da esse si hanno le deviazioni proprie che fanno discostare il comportamento dei gas reali da quelli ideali.

        Sviluppando queste ipotesi, con dei conti piuttosto semplici, (87) Clausius andava a ritrovare, da un punto di vista microscopico, le equazioni che descrivono il comportamento dei gas perfetti, e in particolare calcolava la velocità media delle molecole di alcuni gas sottoposti alla pressione di una atmosfera. Questi valori di velocità, calcolati sia da Clausius che da Joule, sembravano elevatissimi: dell’ordine di varie centinaia di metri al secondo. Sembrava impossibile e, conseguentemente, molte obiezioni vennero mosse contro i metodi che avevano portato a quei risultati. Si sosteneva che

se le molecole si muovono lungo tratti rettilinei (e a quelle elevate velocità), allora dei volumi di gas messi a contatto reciproco debbono necessariamente mescolarsi molto rapidamente — un risultato, questo, che non si verifica nella realtà. [E inoltre] come può accadere che il fumo del tabacco sospeso in una stanza rimane cosi a lungo disposto in strati fermi? ” (88). E così via.

A queste obiezioni Clausius rispondeva con un articolo del 1858 nel quale sosteneva che, dato l’elevatissimo numero delle molecole che costituiscono il gas contenuto, ad esempio, in una stanza, c’è una elevatissima probabilità che una molecola… nel suo moto traslatorio, urti successivamente molte molecole. In questo modo la sua traiettoria non deve essere più pensata come una retta ma come una spezzata costituita da tanti piccoli segmenti, di modo che il tempo necessario a percorrere un tratto relativamente breve e relativamente lungo. Quindi la teoria di Clausius portava

a concludere che solo un numero relativamente piccolo di atomi può giungere rapidamente a grande distanza, mentre le quantità maggiori del gas si mescolano gradualmente nelle zone relative alla superficie di contatto” (89).

L’INTERVENTO DI MAXWELL

        Nel 1860 iniziò ad occuparsi del problema J.C. Maxwell (1831-1879) con una memoria dal titolo “Illustrazioni della teoria dinamica dei gas”. Egli si servì del metodo delle analogie elaborando un modello meccanico del gas in cui le molecole sono pensate come “un numero indefinito di particelle piccole, dure, sferiche e perfettamente elastiche, agenti le une sulle altre solo durante le collisioni reciproche” (90).

Sviluppando il modello, Maxwell arrivò a porsi il seguente problema:

Trovare il numero medio di particelle la cui velocità è compresa entro certi limiti, dopo un gran numero di collisioni tra un gran numero di particelle uguali” (91), la soluzione del quale rappresenta uno dei risultati più brillanti e fecondi della fisica dell’Ottocento. Dopo alcuni passaggi, Maxwell trovò un risultato dal quale poté concludere che:

Le velocità sono distribuite tra le particelle secondo la stessa legge per cui gli errori sono distribuiti tra le osservazioni entro la teoria dei minimi quadrati. Le velocità vanno da zero ad infinito, ma il numero di quelle che hanno valori molto alti è relativamente piccolo. In aggiunta a tali velocità, che sono egualmente distribuite in tutte le direzioni, vi può anche essere un moto generale di traslazione dell’intero sistema di particelle che deve essere composto con il moto delle particelle stesse l’una rispetto alle altre. Chiameremo l’un moto come moto di traslazione, e l’altro come moto di agitazione“(92).

        Questo risultato è quello che va sotto il nome di legge di distribuzione delle velocità di Maxwell (legge, è bene osservare, che ha un carattere eminentemente statistico e probabilistico) secondo cui le molecole costituenti un gas hanno velocità differenti l’ una dall’altra e le cambiano continuamente, ma il numero delle molecole che mantengono una velocità fissata rimane globalmente costante. C’è una velocità più probabile delle altre originata dal fatto che i numerosi urti che si susseguono non permettono alle molecole di acquistare velocità molto distanti da quella più probabile. In definitiva quasi tutte le molecole hanno velocità che si discostano poco dal valore più probabile, e le cose possono essere trattate come se tutte le molecole avessero la stessa velocità. Nel corso della memoria che stiamo discutendo, Maxwell ebbe modo di precisare il concetto, già introdotto da Clausius, di cammino libero medio di una molecola (la lunghezza media di un percorso molecolare tra due urti successivi) e di fornirne un metodo di calcolo. Disponendo dei due concetti ora accennati fu possibile passare ad altre importantissime elaborazioni della teoria, che via via fornivano interpretazioni microscopiche di fatti fino ad allora conosciuti solo macroscopicamente e/o solo empiricamente e magari non ben compresi. Si riuscì a dare una spiegazione ai fenomeni di diffusione, di soluzione, di attrito e di propagazione del calore; si scoprirono delle interdipendenze fra questi fenomeni che precedentemente apparivano nettamente distinti; diventarono comprensibili alcune ‘irregolarità’ dei calori specifici dei gas e dei solidi e le deviazioni dalla legge di Dulong (1785-1838) e Petit (1791-1820) (93); si cominciarono a capire le ragioni delle deviazioni del comportamento dei gas reali da quello dei gas perfetti (94); si calcolò il numero di molecole contenute in un centimetro cubo di gas in condizioni normali; si calcolò il numero di molecole contenute in una grammomolecola; si calcolarono le dimensioni delle molecole (95); ci si avviò alla soluzione del problema della liquefazione di tutti i gas (96); si dettero le prime spiegazioni del moto browniano (97).

UN’INDAGINE PIÙ SOFISTICATA: BOLTZMANN

        Il lavoro di Maxwell del 1860 fu perfezionato e in alcuni punti chiarito dai lavori del fisico austriaco L. Boltzmann (1844-1906) del 1868 e 1872.

        Boltzmann era particolarmente interessato non tanto a risolvere problemi particolari, come in parte aveva fatto Maxwell, quanto a studiare a fondo l’intero 2º principio della termodinamica. Egli iniziò le sue ricerche con un lavoro dei 1866 nel quale tentò, senza far ricorso all’ipotesi cinetico-molecolare,  

di dare una dimostrazione generale, puramente analitica della seconda legge della termodinamica e di scoprire il teorema che le corrisponde in meccanica.” (98).

        Nei lavori del 1868 e del 1872, ai quali facevamo riferimento, Boltzmann si convertì completamente alla teoria cinetico-molecolare ricavando alcune importanti conseguenze dalla legge di distribuzione delle velocità stabilita da Maxwell. Egli riuscì a calcolare l’evoluzione di un sistema di particelle a cui competa inizialmente una qualsivoglia distribuzione di velocità, trovando che questo sistema tende ad assumere la distribuzione di velocità di Maxwell, a seguito degli urti successivi delle particelle tra loro. La distribuzione di Maxwell tende quindi ad assumere il significato di distribuzione più probabile (all’equilibrio) verso cui tendono tutte le altre possibili distribuzioni (lontane comunque dall’equilibrio). Questo fatto è di grande portata poiché comporta l’affermazione che in natura si tende in modo irreversibile verso l’equilibrio e, contemporaneamente, il ritrovare su questa strada, di nuovo, l’irreversibilità insita nel secondo principio.

        Leggiamo alcuni passi significativi della memoria di Boltzmann del 1872. Egli intanto affermava che:

gli eventi più casuali, quando essi avvengono nelle medesime proporzioni, danno gli stessi valori medi… [e] le molecole di un corpo sono realmente così numerose e il loro movimento è talmente rapido che noi non possiamo percepire altro che valori medi …

[Quindi] le proprietà di un gas rimangono immutate solo perché il numero di molecole che hanno, in media, un particolare stato di moto è costante. La determinazione dei valori medi è lo scopo della teoria della probabilità. Quindi i problemi della teoria meccanica del calore sono anche problemi di teoria della probabilità. Sarebbe tuttavia errato credere che la teoria meccanica del calore sia per questo soggetta a qualche incertezza per il fatto che vi sono usati i principi della teoria della probabilità. Non si deve confondere una legge nota in modo incompleto, la cui validità è pertanto dubbia, con una legge completamente nota del calcolo delle probabilità; quest’ultima, come i risultati di qualsiasi altro calcolo, è una conseguenza necessaria di premesse definite, ed è confermata, nella misura in cui queste sono, corrette dagli esperimenti, purché sia stato fatto un numero sufficiente di osservazioni, come è sempre il caso della teoria meccanica del calore, dato il numero enorme di molecole che sono coinvolte” (99).

Boltzmann passò poi a una considerazione molto importante: usando i valori medi non serve più calcolare le equazioni del moto per ogni particella, di modo che lo stato termodinamico risulta individuato da pochi parametri macroscopici che possono essere ricavati con i metodi cinetico-molecolari, come valori medi dei comportamenti microscopici delle molecole. (100)

Egli calcolò quindi l’evoluzione del sistema di particelle, dimostrando che:

“qualunque sia la distribuzione iniziale dell’energia cinetica, nel corso di un tempo molto lungo essa deve sempre, necessariamente, tendere verso quella trovata da Maxwell … [e che quindi esiste] una certa funzione E che può solo aumentare in conseguenza del moto molecolare, e in un caso limite può rimanere costante … e questa funzione coincide, a meno di un fattore costante, con il valore trovato per il ben noto integrale di dQ/T” (101) che, come abbiamo visto qualche pagina indietro, non rappresenta altro che la variazione di entropia del sistema termodinamico in oggetto. Boltzmann poteva cosi concludere:

“Abbiamo quindi aperto la via a una dimostrazione analitica della seconda legge in un modo completamente diverso da duelli indagati finora. Finora l’obiettivo era stato di mostrare che che l’integrale di dQ/T fosse uguale a zero per processi ciclici reversibili, ma non è mai stato mostrato analiticamente che questa quantità è sempre positiva per processi irreversibili, che sono i soli che avvengono in natura. Il processo ciclico reversibile è solo un ideale, che si può approssimare più o meno bene ma che non si può mai raggiungere” (102).

Ecco quindi che lo sfuggente concetto di entropia, nelle formulazioni di Clausius, comincia ad acquistare un significato direttamente connesso alla situazione microscopica del sistema termodinamico in oggetto. La ‘contropartita’ di ciò è l’ingresso nella microfisica (e, più in generale, nella fisica) della probabilità, ingresso che sempre più andrà a scalzare il determinismo classico. Ma le cose non erano ancora del tutto definite.

        Loschmidt (1821-1895), in una sua memoria del 1876, fece osservare all’amico Boltzmann una difficoltà alla quale abbiamo già fatto cenno: come è possibile che delle molecole, trattate analiticamente con gli strumenti reversibili della meccanica classica, possano dare un risultato di irreversibilità ? Come è possibile cioè che la meccanica di Newton, applicata a un sistema di particelle, origini il 2º principio della termodinamica?  (103). Ma queste obiezioni non dovevano essere solo di Loschmidt se già nel 1871, nella sua “Teoria del calore”, Ma.xwell sentiva la necessità di spendere delle parole in proposito, introducendo nei fenomeni microfisici il famoso ‘diavoletto’, insistendo cioè sul carattere statistico delle leggi della termodinamica. Maxwell iniziò con l’affermare che il 2° principio della termodinamica è certamente vero

finché abbiamo a che fare con i corpi nel loro insieme, senza la possibilità di osservare o toccare le singole molecole di cui essi sono composti“.

E quindi proseguì:

Ma se noi concepiamo un essere le cui facoltà siano così aguzze che egli può seguire ogni molecola nel suo cammino, tale essere, i cui attributi sono essenzialmente finiti come i nostri, sarebbe capace di fare ciò che per noi è attualmente impossibile. Noi abbiamo visto infatti che le molecole in un recipiente pieno d’aria a temperatura uniforme si muovono con velocità per nulla uniformi, anche se la velocità media di ogni insieme di esse sufficientemente numeroso, arbitrariamente scelto, è pressoché uniforme. Supponiamo adesso che tale recipiente sia diviso in due parti, A e B, da un setto in cui vi sia un piccolo foro, e che un essere che può vedere le singole molecole apra e chiuda questo foro in modo da permettere solo alle molecole più veloci di passare da A a B e solo alle più lente di passare da B ad A. In questo modo, senza compiere lavoro, egli innalzerà la temperatura in B e abbasserà quella di A, contraddicendo la seconda legge della termodinamica…

Dovendo noi trattare di corpi materiali nel loro insieme e non potendo osservare le singole molecole, siamo costretti ad adottare quello che io ho descritte, come il metodo statistico di calcolo e ad abbandonare il vero metodo esatto della dinamica, in cui seguiamo con il calcolo ogni movimento” (104).

        Quindi, secondo Maxwell, le leggi della termodinamica, dovendo trattare di un enorme numero di compenti microscopici, non possono essere che a carattere probabilistico. E proprio l’elevatissimo numero di componenti un sistema termodinamico gioca un ruolo fondamentale. Per illustrare ciò pensiamo a un recipiente (isolato dall’ambiente esterno) diviso da un setto in due zone A e B. Supponiamo che, inizialmente, nella zona A vi sia un gas, mentre la zona B sia vuota. È evidente, ed in accordo con il secondo principio, che, una volta tolto il setto, il gas contenuto in A diffonderà nell’intero recipiente andando ad occuparlo in modo pressocché uniforme. È altrettanto evidente, ed in accordo con il secondo principio, che è praticamente impossibile che il gas, spontaneamente, se ne torni ad occupare una sola metà del recipiente. Tutte queste evidenze, attenzione, sono legate a una ipotesi implicita: l’enorme numero di molecole costituenti un volume di gas (dell’ordine di grandezza del numero di Avogadro). Se infatti il nostro gas lo potessimo pensare costituito da due, tre, o comunque pochissime molecole, allora, seguendone l’evoluzione nel volume dell’intero recipiente, non sarebbe per nulla strano che, a determinati istanti, a seguito degli urti sulle pareti, tutte le pochissime molecole si ritrovassero in una metà del recipiente (105). In definitiva, un piccolo numero di costituenti un sistema termodinamico può originare evoluzioni in cui si verifichino certamente aumenti, ma anche diminuzioni, di entropia; al crescere del numero dei costituenti il sistema, le oscillazioni dei valori dell’entropia si riducono sempre più e, pur continuando a esistere istante per istante, nello svolgersi dell’intero processo l’entropia aumenta sempre.

        Ancora nel 1874 Kelvin intervenne sull’argomento insistendo sul carattere probabilistico del secondo principio. E finalmente, nel 1877, di nuovo Boltzmann pubblicò due importantissime memorie nelle quali rispondeva direttamente alle obiezioni di Loschmidt, andando a precisare e a discutere più a fondo i rapporti tra secondo principio, probabilità e leggi della meccanica, fino a trovare un’espressione per l’entropia direttamente legata alla probabilità di un determinato stato termodinamico. Boltzmann iniziava con il premettere che

se noi vogliamo fornire una prova puramente meccanica del fatto che tutti i processi naturali si svolgono in modo che si abbia un aumento di entropia, dobbiamo assumere che li corpo sia un aggregato di punti materiali” (106).

        Passava quindi a discutere dell’applicazione della teoria della probabilità a un sistema termodinamico. Ma questa volta c’era una grossa novità rispetto alle trattazioni precedenti. Ora non si faceva più il conto probabilistico esteso all’enorme numero di molecole costituenti un gas inteso come unico sistema termodinamico. Si considerava invece il singolo sistema termodinamico macroscopico (ad esempio un gas) come costituito, istante per istante, da un enorme numero di stati dinamici microscopici differenti tra loro per la diversa configurazione o distribuzione (di posizioni e velocità) delle singole molecole costituenti il sistema termodinamico in oggetto. In questo modo, uno stesso stato termodinamico macroscopico, caratterizzato all’equilibrio da determinati valori di pressione, volume e temperatura, può essere originato, microscopicamente, da una enorme quantità di stati dinamici delle singole molecole. Mano a mano che ci si discosta dall’equilibrio il numero di stati dinamici microscopici, che rappresenta lo stesso stato termodinamico macroscopico, tende a diminuire, tende cioè a zero pur senza raggiungere mai questo valore limite. Scriveva Boltzmann:

Ogni distribuzione di stati non uniforme, (107) non importa quanto improbabile possa essere, non è mai assolutamente impossibile. E chiaro che ogni singola distribuzione uniforme che può realizzarsi dopo un certo tempo da qualche particolare stato iniziale, è altrettanto improbabile di una singola distribuzione non uniforme… E solo per il fatto che le distribuzioni uniformi sono molto più numerose di quelle non uniformi che la distribuzione di stati diventerà uniforme con l’andare del tempo … [Quindi], dato che il numero di distribuzioni uniformi è infinitamente maggiore di quello delle distribuzioni non uniformi, il numero di stati che portano a distribuzioni uniformi dopo un certo tempo t, è molto più grande del numero di quelli che portano a distribuzioni non uniformi … [e] quest’ultimo caso è straordinariamente improbabile e può essere considerato impossibile ai fini pratici” (108).

        Come osserva Mondella. “mediante questa impostazione originale, invece di stabilire la frequenza degli atomi aventi una determinata velocità in un singolo sistema [termodinamico] costituito da un corpo, si cerca ora di calcolare il numero di stati microscopici … che corrispondono allo stato macroscopico che caratterizza il corpo considerato” (109). E Boltzmann concludeva affermando:

Lo stato iniziale di un sistema sarà, nella maggior parte dei casi, uno stato molto poco probabile e il sistema tenderà sempre verso degli stati più probabili, fin quando giungerà allo stato più probabile, cioè allo stato di equilibrio termodinamico. Se applichiamo questo al secondo principio dellea termodinamica, potremo identificare la grandezza che si chiama di solito entropia con la probabilità dello stato corrispondente” (110).

E poiché un sistema isolato tende all’equilibrio termodinamico, cioè allo stato microscopico cui compete il maggior numero di stati microscopici che lo realizzano, cioè allo stato macroscopico cui compete la massima probabilità, è chiaro che, come la probabilità tende a diventare massima, anche l’entropia tende ad aumentare, e il sistema non può che passare da uno stato a un altro più probabile.

        Il passaggio quindi dalla statistica dei singoli atomi costituenti un sistema termodinamico a quella degli stati dinamici dello stesso sistema, permette a Boltzmann di superare le obiezioni di Loschmidt e di fare del secondo principio, trattato col metodo cinetico-molecolare, un teorema della teoria della probabilità. Con questo passaggio si continua ancora ad affermare la reversibilità delle leggi meccaniche che governano le interazioni tra le molecole ma, nel contempo, si afferma che questa reversibilità è estremamente improbabile nei fenomeni naturali.

        Consideriamo, ad esempio, il solito recipiente isolato dall’esterno e diviso da un setto, in cui è praticato un piccolo foro, in due zone A e B delle quali la A contenga inizialmente un gas mentre la B sia vuota. In accordo con il 2° principio e con la teoria della probabilità degli stati dinamici microscopici, il sistema evolverà verso l’equilibrio costituito dal gas che, dopo un processo di diffusione attraverso il foro, occuperà uniformemente le due zone A e B. Nessuno vieta di pensare che a questo punto tutti gli atomi costituenti il gas possano ritornare, attraverso il foro, nella zona A, in completo accordo con la reversibilità delle leggi della meccanica. C’è solo da notare, e non è poco, che esiste una sola distribuzione microscopica di velocità tale che a un dato istante inverta il moto di tutti gli atomi per ricondurli nella zona A. Questa distribuzione microscopica certamente esiste ma è, nel comportamento medio del gas, praticamente l’unica, rispetto alle migliaia e migliaia e migliaia di miliardi di distribuzioni microscopiche che vedono le velocità degli atomi dirette in modo da originare la fuoriuscita del gas dal forellino e la sua distribuzione uniforme nell’intero volume del recipiente. Si possono dare dei numeri che rendano conto di quanto sto dicendo a partire dall’ipotesi che il nostro gas sia costituito da un numero estremamente piccolo di molecole. Nella tabella che segue (111) è riportato: nella prima colonna il numero di molecole costituenti il gas; nella seconda colonna la probabilità dello stato con tutte le molecole in A; nella terza colonna, la probabilità dello stato di distribuzione uniforme delle molecole in A e B. Come si vede, al crescere del numero delle molecole costituenti il nostro sistema termodinamico,

n° molecoleprobabilità di tutte le molecole in A (la cosa si ottiene in un solo modo)probabilità di diffusione uniforme in A e B (la cosa si ottiene nel numero di modi indicato)
   416
  101152
  121924
  201184 756
10011029

cresce enormemente la probabilità di distribuzione uniforme (mentre quella non uniforme rimane costante). Se si pensa che le molecole costituenti un gas non sono 100 ma dell’ordine di grandezza del numero di Avogadro (e cioè 1023) ci si può, almeno lontanamente, rendere conto di quale numero dovrebbe comparire nella terza colonna. In definitiva, pur esistendo la distribuzione microscopica che porterebbe alla reversibilità del fenomeno essa “è estremamente improbabile e può essere considerata impossibile ai fini pratici” ma non impossibile dal punto di vista della teoria della probabilità. Visto in questo modo il secondo principio esprime una probabilità, non una certezza.

        Ritornando a Boltzmann, egli, alla fine della sua seconda memoria (1877), riuscì a calcolare la relazione esistente tra entropia S e probabilità termodinamica P (di un dato stato macroscopico di un sistema termodinamico) trovando (112):

S = K · logP

dove K è appunto la costante di Boltzmann che vale 1,39.10-23 J/ºK (questa costante fu individuata come tale da Planck, si veda in proposito l’articolo sui “quanti”).

        Negli anni seguenti vi furono importanti aggiustamenti e perfezionamenti ad opera ancora di Maxwell, di Boltzmann e di vari altri. Va ricordato in particolare il contributo di Helmholtz (1821 -1894) che, nel 1882, introdusse nella termodinamica i concetti di ordine e disordine, iniziando a considerare l’entropia come una misura del disordine. In questo modo i processi più probabili sono quelli che fanno passare il sistema termodinamico a stati sempre più disordinati, mentre è solo il moto molecolare ordinato quello che è in grado di essere convertito in altre forme di lavoro meccanico. Altro contributo fondamentale venne dal fisico W. Nerst (1864 – 1941) che nel 1906 enunciò il terzo principio della termodinamica secondo il quale “in una trasformazione qualunque, che avvenga allo zero assoluto, la variazione di entropia è nulla“. Questo principio può anche essere enunciato nel modo seguente: “è impossibile raggiungere lo zero assoluto mediante un numero finito di trasformazioni“. Occorre osservare che il terzo principio, nella prima formulazione che ne abbiamo dato, assolve un compito fondamentale, quello di eliminare l’indeterminazione nel calcolo del valore assoluto dell’entropia, indeterminazione che nasceva dal fatto che l’equazione di Clausius permetteva solo di calcolare differenze di entropia, e quindi forniva il valore assoluto dell’entropia di uno stato termodinamico a meno di una costante arbitraria (si trattava di un integrale indefinito). Altra osservazione è relativa al fatto che la completa comprensione del terzo principio avverrà a seguito della scoperta dei “quanti” fatta da Planck (si deda l’articolo citato).

    Vanno infine ricordati i contributi del chimico-fisico statunitense J. W. Gibbs (1839-1903) che nei suoi “Principi elementari di meccanica statistica” (1901), con l’introduzione dello ‘spazio delle fasi’, sviluppò in modo decisivo i metodi della meccanica statistica arrivando a delle condizioni generali che permettevano una trattazione molto completa dei sistemi termodinamici. Occorre però ricordare che il nocciolo della meccanica statistica era stato costruito al 1877 con i lavori di Boltzmann. Tutto ciò farà discutere molto negli anni seguenti, soprattutto ad opera della scuola degli energetisti e degli empiriocriticisti. Per ora basti osservare che la grandezza fisica ‘tempo’ da questo momento acquisterà un significato fisico ben preciso indicando, insieme alla grandezza ‘entropia’, l’unidirezionalirà di svolgimento dei fenomeni fisici.

        Altro campo di ricerche aperto dalla polemica onde o corpuscoli era quello relativo alla velocità della luce. Non dimentichiamo quanto abbiamo scritto qualche pagina indietro: la spiegazione della rifrazione mediante la teoria corpuscolare prevede che la velocità della luce sia più grande nei  mezzi più densi,  esattamente il contrario di quanto previsto dalla teoria ondulatoria. C’è l’opportunità di un esperimento cruciale  che possa decidere quale teoria descrive meglio i fatti sperimentali osservati. (295)  Fino a circa la metà dell”800 però le uniche misure della velocità della luce (che da ora indicherò  direttamente con c)  erano  state eseguite su fenomeni astronomici.

        Nel 1676 Roëmer, confrontando le immersioni ed emersioni dall’ombra di Giove del  suo  satellite Io,  notò  che  l’intervallo tra due  eclissi  successive era con regolarità minore quando la Terra si avvicinava a Giove e maggiore quando  la Terra si allontanava da questo pianeta.  Roëmer spiegò questo fatto ammettendo che la luce avesse una velocità  finita di propagazione e dopo una serie di accurate osservazioni riuscì a darne il valore.

        Nel 1728. Bradley, osservando un gran numero di stelle, si accorse che esse erano dotate di un moto apparente sulla volta celeste: nel corso di un anno esse descrivevano sulla volta celeste una piccola ellissi  (a questo fenomeno si dà il nome di aberrazione). Partendo da questo fenomeno e dopo accurati calcoli, Bradley riuscì a fornire una nuova determinazione di c.

       Ma nonostante queste importantissime misure effettuate sfruttando fenomeni astronomici, non si era ancora trovato il modo di misurare c sulla Terra: il suo elevato valore fa si che la luce percorre tragitti lunghissimi in tempi brevissimi e tragitti di tale lunghezza non esistono in natura sulla Terra  (296)  a meno di realizzarli con particolari artifici.

        Il primo strumento in grado ai permettere misure di c sulla Terra, che appunto  si  serviva  degli  artifici  suddetti,  fu ideato dal fisico francese H.  Fizeau  (1819-1896)  nel 1849.  L’esperienza di Fizeau permise la misura di c nell’aria ma fu impossibile realizzarla in un altro mezzo perché  la distanza su cui Fizeau aveva operato in questa sua  prima esperienza,  era di circa 9.000 metri.  (297)     

        Chi riuscì ad effettuare la misura di c,  non solo sulla Terra, ma nei limiti  ristretti  di  una  stanza di  laboratorio,  fu l’altro  fisico  francese, L. Foucault  (1819-1868),  nel 1850.(298)  L’essere riusciti  a portare  questa misura in laboratorio  apriva la strada,  immediatamente percorsa, alla misura di c in diversi mezzi ed. in particolare nell’acqua.

       L’esperienza fu eseguita prima in aria, poi in acqua, sia da Foucault  che da Fizeau,  ed  il  risultato comparativo della velocità c dava ragione alla teoria ondulatoria: la luce viaggiava, con una velocità minore nei mezzi più densi ed in particolare nel!’acqua risultava essere circa i 3/4 di quanto non fosse nell’aria.

       Questo argomento sembrò decisivo: la teoria corpuscolare (od emissiva) non sembrava più conciliabile con la realtà dei fatti sperimentali.

       L’ammissione della nuova teoria comportava però nuove difficoltà. Già abbiamo visto le strane proprietà  di cui doveva essere dotato questo etere, contemporaneamente estremamente rigido e sottile, e già abbiamo detto che sulla strada del tentar di  risolvere questi problemi  si  erano mossi una gran quantità di fisici-matematici,  elaborando la cosiddetta teoria, elastica dell’ottica. L’altro problema che si apriva fu individuato dallo stesso Fresnel in collaborazione con Arago,  in una corrispondenza che  si  scambiarono nel l8l8. Avverto, subito che è una questione di estrema importanza per gli sviluppi futuri di questo lavoro e quindi merita di essere seguita con particolare  attenzione  anche  perché  l’argomento  è  delicato.  

L’origine di quanto ora proverò a raccontare (299) è ancora da. ricercarsi in quell’etere,  indispensabile  supporto per la teoria ondulatoria di Fresnel:  per permettere  la propagazione  delle  onde  luminose  esso  deve  riempire tutto lo spazio e permeare tutti i corpi. (300) La meccanica può  fare a meno di  questa sostanza ed il principio di relatività di Galileo (301) è  stato ricavato completamente nell’ambito della meccanica:  quel principio non aveva relazione con nessun etere ma solo con lo spazio ed il tempo assoluti di Newton. Ora i fenomeni ottici propongono alla teoria di riempire tutto lo spazio di etere e le onde luminose si propagano in questo spazio e quindi in questo etere. Che relazione ci può essere tra etere, presente dappertutto, e spazio assoluto ?  I due concetti  non possono essere due modi diversi di  indicare la stessa cosa ?  Il  riferimento  assoluto,  tanto  sospirato,  potremmo  averlo individuato  nell’etere  ?  Certo  è che  le  onde  luminose  si  muovono  nell’etere. Che tipo di relazione c’è tra etere e moto delle onde luminose ? L’etere può essere considerato immobile e le onde in moto rispetto ad esso ? O semplicemente dobbiamo considerare un moto relativo tra etere ed onde ? In definitiva:  l’etere  è  immobile  o  in moto  ?  Se  è  immobile  che  tipo  di modificazioni comportano gli spostamenti dei corpi celesti – e, più in generale, della materia – in esso?

       Cercando di mettere ordine fra le domande fatte, cominciamo con il dare alcune possibili conseguenze di alcune possibili risposte.

         La prima cosa che va osservata, con Born, è che “secondo il principio di relatività  della meccanica newtoniana,  lo  spazio  assoluto  esiste  solo in un senso molto  ristretto,  in quanto tutti  i  sistemi  inerziali  in moto  rettilineo ed uniforme  rispetto ad un altro sistema possono  essere considerati fermi nello  spazio.  [Di conseguenza  si  può]  immediatamente  fare  l’ipotesi  che: l’etere astronomico, molto distante dai corpi materiali,  è,  in ogni sistema inerziale, in uno stato di quiete. Se cosi non fosse, alcune parti dell’etere sarebbero accelerate, e dovremmo pensare all’esistenza di forze centrifughe tali da produrre variazioni di densità  ed elasticità;  le nostre  osservazioni sulla luce  proveniente  dalle  stelle  non ci  danno  però  alcuna  indicazione in questo  senso.” (302)  Quindi,  scartate  le accelerazioni dell’etere,  sia che esso giaccia in quiete sia che esso stia in moto con velocità costante,  le cose si possono trattare allo stesso modo,  in base al principio di relatività. (303)  Ed allora il tutto può  essere considerato come se l’etere sia immobile ed i corpi materiali si muovano  in esso con determinate velocità relative a questo riferimento. (304) Così qualsiasi oggetto materiale, in fin dei conti, o si troverà in quiete o in moto relativi rispetto a quest’etere supposto immobile.

        Era evidente l’opportunità che si presentava: riuscire a stabilire un moto traslatorio assoluto della Terra rispetto a questo riferimento che sembrava coincidere con il famoso spazio assoluto definito da Newton.

         Questo etere, che sembrava essere una sostanza materiale, non si riusciva però ad individuarlo e quindi sembrava impensabile una misura diretta dello stato di moto o di quiete della Terra rispetto ad esso.

         Ci si può servire di misure indirette passando attraverso lo studio di fenomeni in condizioni che sfruttino il diverso moto della Terra rispetto all’etere. E l’ottica fornisce tutta una serie di fenomeni studiabili in queste circostanze e basati, in definitiva, su misure di velocità della luce. Ma agli inizi dell”800 le cose non si presentavano così semplici e lineari. I problemi non erano di questa natura, anche se probabilmente molti sarebbero stati felici  di  individuare  il  sospirato  spazio  assoluto  di  Newton;  il  principale problema  che  allora  si  poneva  riguardava  la  natura  della  luce,  come  del resto abbiamo  già  visto  nelle  pagine  precedenti.

        Quando nel 1802 Young scoprì il fenomeno dell’interferenza, la teoria corpuscolare subì un duro colpo ed i fisici di formazione meccanicista si misero subito  al  lavoro  nel  tentativo,  almeno,  di  dirimere  la  questione  sperimentalmente. In questo contesto, tra il 1809 ed il l8l0,  il già menzionato Arago ideò e realizzò  un’esperienza (305)  i  risultati della quale  avrebbero dovuto, almeno nelle intenzioni,  dare una risposta definitiva sulla natura corpuscolare od ondulatoria della luce.

       Era noto che la luce ha velocità diverse in mezzi diversi e questo fatto doveva essere ammesso dalle due teorie per rendere conto del fenomeno della rifrazione. Ma,  come abbiamo visto, mentre la teoria corpuscolare assegnava alla luce una maggiore velocità  quando essa passava da un mezzo meno  ad uno più  denso,  la teoria ondulatoria doveva prevedere un rallentamento della luce nel passaggio a mezzi più densi. Arago pensò quindi di utilizzare il fenomeno della, rifrazione per tentare di dirimere la controversia. La sua idea era di far esperienze di rifrazione  “al contrario”  e cioè,  anziché cambiare i vari mezzi per studiare,  a parità di velocità della luce incidente, le diverse rifrazioni in esse, si poteva mantenere sempre lo stesso mezzo e sfruttare la variazione ai velocità della luce, proveniente da una stella, che sulla Terra deve risultare, in diversi periodi dell’anno, a seguito del principio classico di relatività. Infatti, ammesso il principio di relatività ed il moto della Terra intorno al Sole, a sei mesi di distanza, quando la Terra ha percorso metà della sua orbita, la luce proveniente da una fissata  stella  comporrà   diversamente   la   sua  velocità   con  quella   orbitale   della Terra (figura 18).  In un dato periodo dell’anno  (punto A di figura)  la luce proveniente dalla stella cadrà sulla Terra che si

Figura 18 –  Si noti che, data l’enorme distanza della stella dalla Terra, il diametro dell’orbita terrestre intorno al Sole risulta del tutto trascurabile e quindi le due linee costituite dalle frecce tratteggiate possono essere considerate parallele

muove, ad esempio, nella stessa, direzione e verso;  sei mesi dopo  (punto B di figura) la luce proveniente dalla stella cadrà  sulla Terra che  si muove nella stessa direzione ed in verso opposto rispetto ad essa. Detta allora v la velocità orbitale della  Terra e c quella della luce proveniente dalla stella, secondo il principio di relatività  (e rispetto all’etere fino ad ora supposto immobile;

– in A:  la velocità risultante della luce dovrà essere c-v (tutto va come se la Terra fosse immobile e la sorgente di luce si allontanasse da essa con velocità v);

– in B: la velocità risultante della luce dovrà essere c+v (tutto va come se la Terra, fosse immobile e la sorgente di luce si avvicinasse ad essa con velocità v).

Ecco quindi come Arago pensò di modificare le esperienze di rifrazione!: egli puntava il cannocchiale su una stella opportunamente situata nel cielo; l’immagine della stella , prodotta dal cannocchiale, era inviata su un sottile prisma nel quale avveniva il fenomeno della rifrazione; l’effetto del prisma, era quello  di  spostare  leggermente  fuori  dall’asse  questa immagine;  a  sei mesi di distanza si andava di nuovo ad osservare l’immagine nella previsione, appunto, che, essendo variato l’angolo di rifrazione a seguito della variazione della velocità della luce, essa si sarebbe trovata spostata. Ebbene, nel caso fosse valsa la teoria corpuscolare,  lo spostamento dell’immagine dall’asse sarebbe dovuto diminuire; nel caso fosse valsa la teoria ondulatoria, lo spostamento dell’ immagine dall’asse sarebbe dovuto aumentare. (306) Infatti, nel passare dalla posizione A alla posizione B di figura 18,  la velocità risultante della luce aumenta e:

– per la teoria corpuscolare,  il passare ad una velocità  più  grande corrisponde ad avere un mezzo più denso con la conseguenza che l’angolo di rifrazione deve diminuire;

– per la teoria ondulatoria,  il passare ad una velocità  più  grande corrisponde ad avere un mezzo meno denso con la conseguenza che l’angolo di rifrazione deve aumentare.

        Fatta l’esperienza, Arago trovò che non c’era stato spostamento alcuno della immagine della stella. Come si usa dire, il risultato dell’esperienza fu negativo; esso dimostrò che il moto orbitale della Terra non influisce sulla rifrazione della luce proveniente dalle stelle.

        Che conclusioni trarne ?

        Arago, ottimo conoscitore della teoria corpuscolare, ne dedusse che per spiegare il fenomeno alla luce di questa teoria occorreva ammettere dei fatti che a lui sembravano non credibili e cioè che:

–  i corpi luminosi emettono corpuscoli di tutte le velocità;

– solo i corpuscoli che hanno determinate velocità sono da noi visibili;

– solo questi ultimi producono negli occhi la sensazione di luce.

           Tutto ciò non sembrò credibile ad Arago. E neanche fu in grado di sviluppare una approfondita indagine nell’ipotesi ondulatoria che, come abbiamo visto, nel 1810 era ancora tutta da costruire.

        Negli anni immediatamente successivi Arago sviluppò dei rapporti sempre più  stretti con Fresnel  il  quale,  nel frattempo,  aveva fornito la teoria ondulatoria di un corpo teorico molto solido. E nel l8l8 Arago scrisse a Fresnel ponendogli  il vecchio problema del  risultato della sua esperienza.  In questa lettera egli descriveva i risultati della sua, esperienza osservando che non potevano essere spiegati con la teoria emissionistica (corpuscolare). Forse che con la teoria ondulatoria, mediante qualche strano meccanismo di propagazione delle onde o mediante qualche proprietà dell’etere sarebbe possibile spiegare il fenomeno ?

           Era questa in sostanza la domanda che Arago rivolgeva a Fresnel. La posta in gioco era alta:  la rimessa in discussione della teoria ondulatoria che spiegava bene tutti i fatti sperimentali fino ad allora noti. (308) La spiegazione di tutto poteva ritrovarsi nell’etere ? Potrebbe trattarsi di una qualche particolare interazione tra etere e corpi in movimento ? E su quest’ultima strada si mosse Fresnel nella sua risposta ad Arago quello stesso anno. Egli  scriveva:

  “Mi avete stimolato ad esaminare se il risultato di tali osservazioni possa essere riconciliato più facilmente con la teoria nella quale la luce è considerata in termini di vibrazioni di un fluido universale. E’ del tutto necessario trovare una, spiegazione all’interno di questa teoria …

Qualora si dovesse ammettere che la nostra Terra trasferisce il proprio movimento all’etere che lo circonda, (309) sarebbe allora facile vedere il motivo per cui un medesimo prisma dovrebbe sempre rifrangere la luce nello stesso modo, quale che sia la direzione di provenienza della luce stessa. Ma sembra impossibile spiegare l’aberrazione delle stelle mediante questa ipotesi: io sono stato incapace, almeno sino ad ora, di capire con chiarezza questo fenomeno, se non supponendo che l’etere passi liberamente attraverso il globo terrestre, e che la velocità comunicata a questo fluido sottile sia solo una piccola parte della velocità della Terra, non maggiore, ad esempio, di una centesima parte.” (310)

        Per risolvere il problema,  quindi,  Fresnel aggiunge una ipotesi  (che poi  svilupperà analiticamente),  quella del trascinamento parziale dell’etere. (311) Fino ad ora, nel discutere l’esperimento di Arago,  avevamo supposto che il moto della Terra avvenisse  in un immobile  oceano  di  etere con la conseguenza che la Terra si trascinava dietro  irrisorie  quantità  d’etere  “esattamente  come una rete appesa ad un’imbarcazione trascina l’acqua.” (312) E’ questa allora l’ipotesi che va cambiata ed in modo opportuno, così  da rendere conto dei risultati sperimentali. A causa del moto della Terra nell’etere deve sorgere un qualche effetto che elimini le discordanze tra teoria ed esperimento.

        Fresnel suppose allora che l’etere fosse trascinato dal moto della Terra quel tanto che bastasse a compensare l’effetto di composizione delle velocità della luce e della Terra.  L’etere,  che impregna tutti i corpi,  è  contenuto nella materia costituente la Terra (come una. spugna contiene l’acqua al suo interno); secondo Fresnel,  nel suo moto la Terra trascina solo una parte dell’etere in essa contenuto: (313) una parte di esso se ne va dalla parte posteriore della Terra in moto ed una pari quantità  entra dalla parte anteriore  (cosicché all’interno della Terra c’è  sempre  la stessa quantità di etere).  Ciascun corpo, quindi,  che si trova sulla Terra,  trascina una parte dell’etere in esso contenuto ed in particolare la lente del cannocchiale ed il prisma (dell’esperienza di Arago) trascinano una parte dell’etere in essi contenuto. E “la velocità della luce nell’etere in riposo dovrebbe essere differente da quella dell’etere trascinato … precisamente come la velocità di un’onda sonora  differisce secondo che l’aria e’ calma o che tira. vento.” (314) Il problema era di stabilire quanto etere fosse trascinato.  Fresnel,  con considerazioni di carattere  teorico,  riuscì a stabilire che  la quantità  di  etere  trascinato dipendeva dall’indice di  rifrazione n della sostanza in cui  si propaga la luce. (315) Egli riuscì anche a ricavare una formula che forniva la velocità della luce in un dato mezzo in funzione del trascinamento parziale dell’etere contenuto in esso.  Nella formula  questo trascinamento  e’  espresso mediante  un coefficiente a (coefficiente di trascinamento) che e’, come già detto, funzione dell’indice di rifrazione n del mezzo in cui si propaga la luce:  

  α = 1 – 1/n2

 La formula per la velocità  della luce  in un dato mezzo  (w)  era poi data da (316):       

             w = c/n  ±  v (1 – 1/n2 ),

dove v rappresenta la velocità di spostamento del mezzo rispetto all’etere immobile. Una considerazione che si può immediatamente fare è relativa alla formula ora data: il trascinamento è tanto maggiore quanto più  n risulta maggiore di 1, valore che ha nel vuoto; ciò vuol dire che nell’aria, dove n è circa 1,  il coefficiente di trascinamento  è  praticamente  nullo  e  quindi w = 0.  Questo ultimo valore è proprio quello che la luce dovrebbe avere nel vuoto dove n  è esattamente uguale ad 1.

       La formula di Fresnel ora vista si può interpretare  pensando che le cose vanno come se la velocità della luce si sommi solo con una porzione della velocità del prisma e della lente o di qualunque oggetto in moto nell’etere ed,  in definitiva,  della Terra; questo perché  il coefficiente  a  risulta sempre compreso tra 0 ed 1.

       Con l’ipotesi del trascinamento parziale Fresnel riuscì a spiegare tutti i fenomeni che si originavano dal moto di un corpo rifrangente attraverso l’etere ed in particolare l’esperienza di Arago ed il fenomeno dell’aberrazione.  (317) Rimanevano sull’intera teoria due fondamentali assunzioni che presto o tardi avrebbero richiesto una qualche conferma sperimentale: le onde luminose sono trasversali; l’etere è trascinato parzialmente dal moto dei corpi in esso.  


NOTE

(269) Per ampliare quanto diremo e per uno studio più approfondito dei problemi si può vedere l’importante lavoro di V.  Ronchi (bibl. 86). Per studiare da un punto di vista analitico completo i vari fenomeni discussi ci si può rifare a bibl. 88.

(270) Si veda la nota (°) al cap. 1° e bibl. 3, pagg. 99-102. Alcune delle cose che aggiungerò qui, a proposito di Descartes, Newton ed Huygens, ed in particolare quanto riportato tra virgolette senza indicazione bibliografica, sono ispirate o tratte da bibl. 15, cap, 4.

(271) Le teorie ottiche di Descartes sono esposte nella Diottrica del 1637.

(272) Anche qui, come per le altre vicende riguardanti Newton (e non solo), bisogna distinguere tra Newton ed i newtoniani. Molto spesso si tende a confondere la posizione di Newton con quella che i suoi pretesi sostenitori volevano accreditare. Si capisce certamente la maggiore facilità che ha un preteso storico ad andare avanti per etichette: io non intendo sottoscrivere questo modo di procedere che, per amore di aneddotica, racconta cose non vere o quantomeno discutibili (si veda, ad esempio, E. Persico che in bibl. 88, a pagina 79, fa apparire Descartes come padre putativo della teoria corpuscolare). Questo modo di procedere è tipico di coloro che intendono il progresso scientifico procedente per accumulazione successiva di conoscenze e, naturalmente, con una sua precisa linearità di sviluppo.

(273) Bibl.  87,  pag.  493.

(274) Questo fenomeno, noto già da tempo,  era stato scoperto ed ampiamente studiato da padre Grimaldi (l6l8-l663) e proprio a costui Newton fa riferimento nell’ Ottica. Si osservi che la parola diffrazione fu introdotta dallo stesso padre Grimaldi, mentre Newton non la usò mai preferendo in sua vece il termine inflessione.

(274 bis) Bibl. 90, pag. 195.

(275) Bibl.87, Quest.28, pagg.525-529. Si osservi che Newton respinge qui la teoria ondulatoria affermando che se essa fosse ammessa un raggio di luce che attraversasse un ostacolo, ad esempio un forellino, dovrebbe sparpagliarsi al di là di esso. Non ammette quindi la teoria che gli avrebbe permesso di spiegare le inflessioni della diffrazione senza ricorrere all’interazione luce-materia.

(276) “E, dice Newton, non si è mai vista la luce seguire vie tortuose o penetrare nell’ombra.

(276 bis) Ibidem, Quest. 29, pag. 529.

(277) Si osservi che già Hooke, a partire dal 1672, era diventato un sostenitore di una concezione ondulatoria della luce (pare che per far ciò si sia ispirato ad alcuni passi di padre Grimaldi nei quali quest’ultimo parlava di ” vibrazione della direzione dei raggi “).

(278) E’ importante dare qui alcuni riferimenti.  Il primo che dimostrò  che il suono non si propaga nel vuoto fu un discepolo ed amico di Galileo, Gianfrancesco Sagredo (l571-1620). Egli si serviva di una specie di campanello che era situato all’interno di una campana di vetro dalla quale l’aria veniva quasi completamente tirata via per mezzo di un forte riscaldamento. Si osservi che le prime macchine pneumatiche sono del 1650 (Otto von Guericke). Torricelli fece invece notare che un raggio di luce passa attraverso il vuoto. Altro fatto che merita di essere annotato è la scoperta della doppia rifrazione, fatta nel 1669, dal medico danese E. Bartholin (1625-1698) mediante un cristallo detto «spato di Islanda». Da ultimo osserviamo che un allievo di Bartholin, Olaf Roëmer (1664-1710), nel 1676 riuscì a misurare, per la prima volta, la velocità della luce (calcolando i tempi di immersione ed emersione di uno dei satelliti di Giove, Io, nella zona d’ombra del pianeta. Tutto questo per dire che sia Huygens che Newton lavoravano su questioni sulle quali già si avevano dati sperimentali da sottoporre a trattamento teorico e che interessavano diffusamente gli scienziati dell’epoca. E’ da notare infine che un accostamento,come quello fatto da Huygens, della luce con il suono, se da una parte rende ragione di un mezzo che deve sostenere la luce, così cose l’aria sostiene il suono, dall’altra differenzia completamente i due fenomeni. Insomma, visti i lavori di Sagredo, la luce ed il suono si possono supporre della stessa natura solo se si ammette un etere con particolari proprietà.  

(279) Bibl. 87, pagg. 560-561.

(280) Ibidem,  pag. 562.

(281) La propagazione rettilinea la si può  ancora ricavare dalla figura 15 quando si osserva che il raggio luminoso proveniente da A segue una delle traiettorie rettilinee che si irradiano da A (come quella ABC, segnata) e che risultano perpendicolari al fronte d’onda sferico (ed anche Hooke si era mosso su questa strada). Si osservi che proprio sulla propagazione rettilinea Huygens attaccava i corpuscolaristi, anche se non era soddisfatto neppure della sua teoria; secondo il suo modo di vedere la luce, costituita da corpuscoli, che colpisse un oggetto si sparpaglierebbe dappertutto. Si noti poi che, stranamente, Huygens non si sofferma a spiegare la diffrazione: la spiegazione di questo fenomeno poteva diventare di valido sostegno alla sua teoria.

(282) Oggi sappiamo che quando uno dei due raggi  (o tutti e due),  prodotto dalla doppia rifrazione, viene fatto passare attraverso un altro cristallo di spato d’Islanda, per particolari orientazioni del cristallo, questo raggio non si sdoppia ulteriormente perché è polarizzato. Questa spiegazione non può prescindere dall’ammissione di luce propagantesi per onde trasversali e quindi dalla teoria di Maxwell (un’onda longitudinale non può infatti essere polarizzata !

(282 bis) Ibidem, pag. 561.

(283) Born in bibl.91, pagg.117-118. Le sottolineature sono mie.

(284) Ora, come nel seguito, non mi soffermerò a spiegare fenomeni che compaiono in tutti i testi di fisica per i licei.

(285) Mi piace notare che Young, come Faraday e, come vedremo, Einstein era un outsider. Sarà violentemente attaccato da tutti i fisici ufficiali e ci vorranno degli anni prima che la sua scoperta venga presa in considerazione. La sua posizione di  antinewtoniano era una sorta di reazione allo stato di abbandono (del quale abbiamo già detto) in cui, all’epoca, si trovava la scienza britannica. Egli riteneva che non ci si dovesse cullare con Newton, ma avere fantasia ed imboccare strade nuove. Si noti che anche Young non conosceva la matematica ai livelli richiesti dalla fisica ufficiale  

(286) Oggi diremmo:  monocromatica.

(287) Bibl. 89, pag. 374. Altri brani originali di Young, che illustrano tra l’altro la sua adesione al dinamismo fisico, si possono trovare in bibl. 56, pagg. 184-195.

(287 bis) Citato in bibl. 19, Vol. 3, pag. 164.

(288) Young fu il primo a tentare questa impresa trovando valori dell’ordine del milionesimo di metro. Questi valori così piccoli per le lunghezze d’onda dei vari colori – rispetto, naturalmente, alle dimensioni degli oggetti macroscopici – lo convinsero del fatto che la luce dovesse propagarsi in linea retta originando ombre nette. Altro fatto notevole, osservato da Young, fu che la velocità della luce emessa da una sorgente intensa è la stessa di quella emessa da una sorgente debole e questo fatto risultava più facilmente spiegabile con la teoria ondulatoria.           

(288 bis) Si ricordi che Euler,  nonostante fosse sostenitore delle idee di Newton in vari campi, in ottica fu sostenitore della teoria ondulatoria (sono le vibrazioni dell’etere che trasmettono la luce). Per leggere un brano originale di Euler sull’argomento, si veda. bibl. 12, pagg, 63-64.

(289) Arago  si convertirà ben presto alla teoria ondulatoria,  anche se ad un certo punto non avrà il coraggio di condividerne tutte le conseguenze. Allo stesso modo Laplace, pur non aderendo mai alla teoria ondulatoria, mostrerà grande ammirazione per i lavori di Fresnel. Si noti infine che il britannico David Brewster (l78l-l868) fu un convinto corpuscolarista.  

(289 bis) S1  ed S2  sono due immagini virtuali e simmetriche di S. Lo strumento descritto è un particolare tipo di interferometro: più avanti ne incontreremo altri tipi.                     

(290) A questo punto però Arago si dissocerà da Fresnel perché, per sua stessa ammissione, non ebbe il coraggio di sostenere l’idea di onde trasversali.

(291) Poisson nel 1828 dimostrò che se l’etere fosse stato un quasi-solido, a lato delle vibrazioni trasversali se ne sarebbero originate altre longitudinali e, alla lunga, queste ultime avrebbero sottratto tanta energia da non rendere più visibile la sorgente.

(292) Per approfondire questi aspetti si può vedere bibl.15, fasc.VII (a) e bibl. 91, pagg. 139-150.

(293) Per leggere un brano originale di Stokes sulla natura della luce, si può vedere bibl. 56, pagg. 243-253.

(294) Agli sviluppi della teoria dell’elasticità, ed in particolare alla teoria elastica dell’ottica, contribuirono, oltre al citato Stokes, eminenti personalità del livello di Poisson, Cauchy (1789-1857), Green, Mac Cullagh (1809-1847), fino al già più volte incontrato W. Thomson.  

(295) La crucialità di questa eventuale esperienza era stata sostenuta da Arago nel 1838. Si tenga conto che, come vedremo più avanti, anche Arago nel l8l0 aveva tentato un’esperienza che dirimesse la polemica tra teoria corpuscolare ed ondulatoria.

(296) Nel 1607 ci aveva provato Galileo utilizzando un paio di lanterne e la distanza esistente tra due colline vicine. Naturalmente non riuscì.

(297) Tra le località parigine di Montmatre e Suresne (8.633 metri).

(298) Mentre Fizeau si servì della rotazione di una ruota dentata, Foucault si servì di uno specchio ruotante (mosso da vapore!). Come già accennato nelle pagine precedenti, lo stesso metodo di specchio ruotante era stato per la prima volta utilizzato da Wheatstone nel 1834 per la determinazione della durata di una scintilla elettrica. Fu quest’ultimo che suggerì che lo stesso metodo poteva usarsi per la misura di c e fu Arago che ne trasse spunto ma, data l’età avanzata, lasciò il compito ad altri. Si noti che Foucault ripeté l’esperienza nel 1862 per dare il valore assoluto di c e trovando un valore molto vicino a quelli oggi accettati (298.000 km/sec). Gli anni che vanno dal 1850 al 1862 furono per Foucault densi di altri lavori:  in particolare, nel 1851 ideò il famoso pendolo (che porta il suo nome) con il quale dimostrò la rotazione della Terra sul proprio asse (dai tempi di Copernico, la prima prova terrestre di ciò). Altro merito importante che va ascritto a Foucault è la scoperta delle correnti parassite.

(299) Allo scopo mi servirò diffusamente di bibl. 81, pagg. 183-192 e di bibl. 91, pagg. 150-180.

(300) E’ il fatto che la luce passa anche attraverso i corpi  (si pensi a quelli trasparenti) che fa ipotizzare l’etere anche dentro i corpi. Si noti che per Huygens risultò una grossa difficoltà lo spiegare la differenza tra corpi trasparenti e corpi opachi (allo scopo si veda bibl.l5, Cap.4, pag.l5 e bibl.86, pagg. 199-200).

(301) Ricordo una delle possibili formulazioni di tale principio: “Le leggi della meccanica hanno la stessa forma in tutti i sistemi inerziali “. Per capire meglio quanto qui sostenuto si può leggere l’altro mio lavoro sull’ argomento (La relatività da Aristotele a Newton – Bibl.3, pagg. 129-144).

(302) Bibl. 91, pagg. 150-151.

(303) Lo stabilire poi se l’etere è un riferimento assoluto sarà un’altra questione che interessa più la speculazione filosofica che non l’indagine sperimentale.

(304) Le accelerazioni rimangono, comunque, assolute (si veda bibl. 3, pagg, 140-142).  

(305) I risultati sono pubblicati in F. Arago: Mémoire sur la vitesse de la lumière, Comptes Rendus; 36; pagg. 38-49, 1810. Si noti che una esperienza di questo tipo era stata proposta da Boscovich nel 1766. Boscovich proponeva di utilizzare il metodo di Bradley per la determinazione della velocità della luce semplicemente con il cannocchiale pieno d’acqua al fine di fare un qualcosa di analogo a quanto fatto poi da Fizeau (vedi più oltre): determinare come il mezzo influisce su c. Ma proprio a seguito di questa, esperienza di Arago (come vedremo) si arrivò a stabilire che il moto della Terra non ha alcuna influenza sul fenomeno della rifrazione della luce proveniente dalle stelle. A seguito di ciò Fresnel ne concluse l’impossibilità dell’esperienza proposta da Boscovich. L’esperienza fu poi tentata da Airy tra il 1871 ed il 1872 confermando le previsioni di Fresnel (si veda più avanti).  

(306) Gli spostamenti dell’immagine dall’asse dovevano essere proporzionali a 2v/c, dove 2v è la differenza tra la velocità della luce nelle due situazioni A e B, e c è la velocità della luce considerata rispetto all’etere supposto in quiete. Una dipendenza di questo tipo (proporzionale a v/c) è detta del primo ordine. Dall ‘esperienza di Arago doveva scaturire un effetto del primo ordine nel rapporto v/c (gli unici effetti che, all’epoca, potevano essere osservati come del resto notò anche Maxwell in una sua lettera pubblicata postuma nel 1880 – allo scopo si veda l’inizio del paragrafo 4 del Cap. IV).

(307) Tengo a sottolineare un fatto forse inutile, ma un risultato negativo di una esperienza è altrettanto importante di un risultato positivo. Vorrei poi ribadire quel che dicevo qualche pagina indietro: l’esperienza di Arago non era progettata per individuare un moto assoluto della Terra rispetto all’etere; solo una lettura a posteriori, non in accordo con la storia, può permettere una tale interpretazione. D’altra parte e’ certamente vero che negli anni immediatamente successivi, fin verso la fine del secolo, questa esperienza fu portata a sostegno della tesi dell’impossibilità di individuare un moto assoluto della Terra rispetto all’etere, al primo ordine di v/c.

(308) Ed inoltre la teoria ondulatoria si stava mirabilmente formalizzando.

(309) Fresnel si sta qui riferendo all’ipotesi di trascinamento totale dell’etere da parte della Terra, ipotesi con la quale, come dice subito dopo, risulta inspiegabile il fenomeno dell’aberrazione.

(310) A. J.  Fresnel, Sur l’influence du mouvement terrestre dans quelques phénomènes d’optique, Annales de chimie et de physique; 9; pag. 57; 1818. Si veda bibl. 123, pagg. 51-52. La sottolineatura è mia.

(311) L’ipotesi in oggetto prevede che l’etere sia in riposo assoluto nel vuoto; in riposo quasi assoluto nell’aria, qualunque sia la velocità di cui quest’aria è dotata; parzialmente trascinato dai corpi rifrangenti. 

(312) L’immagine  è  sia di  Born che di Einstein.

(313) E precisamente quello che si condensa intorno alle sue molecole e che costituisce la quantità in più di etere contenuto nella Terra rispetto a quella che si avrebbe in una uguale pozione di spazio vuoto. Cioè, secondo Fresnel, si ha una maggiore densità di etere nella materia di quanta se ne abbia nello spazio vuoto; nel moto di un corpo nell’etere esso tende a perdere la massa di etere che ha in più (rispetto a quella che si avrebbe in un uguale spazio vuoto) rimpiazzandola via via con dell’altra presa dallo spazio circostante. In questo modo si origina un parziale vento d’etere, all’interno del corpo, che ha verso contrario al moto del corpo stesso. Fu G. G. Stokes che nella sua memoria On the Aberration of Light (Phil. Mag. , 27; 1845) sviluppò una teoria basata su due assunzioni fondamentali:  a) il moto dell’etere è dotato di una velocità potenziale (l’etere è incompressibile ed in esso non si originano vortici); b)  L’etere che sta all’interno dei corpi materiali partecipa totalmente al loro moto; così la Terra si trascina tutto l’etere che ha al suo interno e quello che ha nelle immediate vicinanze; questo moto dell’etere va via via decrescendo finché, nelle zone più lontane dello spazio, esso è totalmente in quiete (teoria del trascinamento totale dell’etere). Poste le cose cosi, in modo abbastanza semplice, si riesce a spiegare, ad esempio, il risultato negativo dell’esperienza di Arago (e di tutte le altre dello stesso tipo), infatti le cose vanno sulla Terra come se essa fosse immobile nello spazio. Una difficoltà molto grossa di questa teoria stava nella sua incapacità di  “spiegare come mai la luce proveniente dalla stella non subisca variazioni di direzione e di velocità nell’attraversare lo strato che separa l’etere dello spazio dall’etere trascinato dalla Terra. Stokes fece un’ipotesi che tenesse conto di tutte le condizioni imposte dalle leggi dell’ottica; ma, come si vide in seguito, essa si dimostrò  in contrasto con le leggi della meccanica” (bibl.91, pag.l67). In definitiva  l’ipotesi del trascinamento totale incontrava gravi difficoltà nella spiegazione del fenomeno dell’aberrazione; ovviamente non riuscì a rendere conto dell’esperienza di Fizeau che invece ben si raccordava con l’ipotesi del trascinamento parziale di Fresnel;  infine, per l’aver introdotto ipotesi in contrasto con le leggi della meccanica (come dimostrerà H.A. Lorentz nel 1886), fu presto abbandonata.

(314) Bibl. 92, pag. 179.

(315) Si ricordi che l’indice di rifrazione  n  è definito come il rapporto della velocità c della luce nel vuoto (nell’etere) con quella c1  della luce nel mezzo materiale:      c/c  =  n     =>     c1    =   c/n.  E’ importante notare che, da considerazioni relative all’aberrazione stellare, Fresnel fece l’ipotesi che il risultato negativo dell’esperienza di Arago non dipendesse dal prisma in sé, che esso fosse cioè indipendente dalla natura del .mezzo rifrangente.

(316) Per approfondire questa parte si può vedere bibl. 91, pagg. 167-173.

(317) Questo almeno al 1° ordine del rapporto v/c. In ogni caso la strumentazione dell’epoca non avrebbe mai permesso di apprezzare effetti al 2° ordine ( v/ c) ed in questo senso si era espresso anche Maxwell, come vedremo nel paragrafo 4 del capitolo IV. Occorre notare che il fenomeno dell’aberrazione, come già detto, trovava una soddisfacente spiegazione anche nell’ipotesi di etere immobile, mentre era spiegato con difficoltà dall’ipotesi di trascinamento totale. L’esperienza di Arago invece era spiegata solo dall’ipotesi di trascinamento parziale dell’etere.  

(318) La memoria di Doppler in cui si descrive l’effetto è Sulla luce colorata delle stelle doppie e di qualche altro astro celeste (Memorie dell’ Accademia delle Scienze di Praga, 1842). Anche qui occorre notare che Doppler, per il suo lavoro, prendeva le mosse da una critica alla teoria ondulatoria di Fresnel ed in particolare alle supposte vibrazioni trasversali. La critica fu poi portata avanti in modo più compiuto in un altro lavoro del 1843.

(319) E già la cosa risultava molto difficile tanto che Maxwell nel 1867 dovette rinunciare ad una tale osservazione. Soltanto nel 1869, dopo l’introduzione in queste ricerche di uno strumento a doppio prisma ed a visione diretta, costruito nel 1860 dal fisico italiano G.B. Amici (1785-1863), fu possibile l’osservazione dell’effetto Doppler sulla luce proveniente dalle stelle.

(320) Sia Wollaston che Fraunhofer osservarono le righe scure che attraversavano lo spettro solare (di ciò parleremo più diffusamente nel paragrafo 2 del cap. IV). Si osservi che la prima verifica sperimentale dell’effetto Doppler acustico fu realizzata dal meteorologo olandese C.H. Buys-Ballot (1817-1890) nel 1845. La prima verifica sperimentale dell’effetto Doppler realizzata in laboratorio si deve invece al fisico russo A.A. Bielopolskij (1854-1934) che la effettuò nel 1900.

(321) Fizeau indicava anche la possibilità di misurare la velocità relativa degli astri mediante gli spostamenti delle loro righe spettrali. Si noti che Doppler applicò, a torto, la teoria del fenomeno alla spiegazione della luce colorata delle stelle.

(322) Per separare l’effetto del moto proprio delle stelle da quello della Terra che si avvicina o si allontana si può procedere per confronto mediante l’analisi degli spettri degli elementi costituenti la stella, fatta sulla Terra e lo spettro della stella (confronto ripetuto a sei mesi di distanza). Gli spostamenti di colore che si osservano alternativamente in un senso e nell’altro sono dovuti al moto della. Terra, gli spostamenti costanti sono dovuti al moto proprio della stella (bibl.91, pag.l54). Si deve notare che la prima prova sperimentale degli spostamenti delle righe spettrali degli astri in avvicinamento od allontanamento fu data da E. Mach nel 1860.

(323) Chi fosse interessato all’argomento può vedere bibl. 91, pagg. 155-161.

(324) Ricordo che il rapporto v/c si dice quantità del primo ordine, mentre il rapporto v2/c2  si dice quantità del secondo ordine. Detto questo vediamo il senso della frase cui si riferisce la nota. Supposto che v sia la velocità della Terra e c quella delle luce, poiché v = 30 km/sec e c = 300.000 km/sec, il rapporto v/c vale 1/10.000  mentre il rapporto v2/c2  varrà 1/100.000.000. Ciò rende conto della estrema piccolezza di questa quantità e dell’enorme difficoltà a rilevarla sperimentalmente. Arrivare comunque a queste misure di altissima precisione sarà un problema che si porrà molto presto (alla fine dell’Ottocento).

(325) Bibl. 91,  pag. 160.  

(326) L’esperienza, nei suoi dettagli costruttivi completi, è descritta in bibl. 93, Vol.4, pagg. 40 7-409. I risultati di Fizeau sono pubblicati su: A.H.L. Fizeau, Sur les hypothèses relatives à l’éther lumineux, et sur une expérience qui    paraît dé montrer que le mouvement des corps change la vitesse avec laquelle la lumière se propage dans leur intérieur, Comptes Rendus, 33, pagg. 349-355, 1851.

(327) Si osservi che se il trascinamento fosse stato completo, il coefficiente di trascinamento  a   = 1 – 1/n2   sarebbe stato semplicemente uguale ad 1, di modo che sarebbe risultato: W = c/n ± v. Questo fatto certamente si accordava con il principio classico di composizione delle velocità, ma altrettanto certamente non tornava, ad esempio, per la spiegazione del fenomeno dell’aberrazione (come si può vedere in bibl.91, pagg. l74-177). Se invece non vi fosse stato trascinamento di alcun genere sarebbe stato W = c/n in ogni caso poiché, rispetto al mezzo (l’etere) in cui si muove, la luce manteneva la sua velocità non dovendo comporsi con nessun’altra.  

(327 bis) Bibl. 124, pagg. 15-16.

(327 ter) Si veda la nota 305.  

(327 quater) Bibl. 19, Vol. 3, pag. 177. La sottolineatura è mia.

(327 quinquies) Bibl. 124, pag. 22.

____________________________________________

1) Chi volesse seguire una ricostruzione molto stimolante delle vicende dell’energia, proprio a partire da Aristotele, può vedere bibl. [1]. Un libro molto utile per gli svariati brani antologici è quello di bibl. [4], anche se non ne condivido l’impostazione introduttiva. Un lavoro molto stimolante e anche didatticamente molto utile è quello di bibl. [2]. Un altro lavoro che certamente merita di essere letto è quello di bibl. [3].

(2) Per una ricostruzione molto agile di questi primi lavori si può vedere bibl. [5]. Il testo di bibl. [6] è un classico che tratta anche di queste questioni (da un punto di vista molto stimolante ma altrettanto discutibile).

(3) Su questi aspetti si vedano gli importanti scritti di bibl. [7 e 8].

(4) Stevin si era occupato dell’equilibrio di una catena sospesa su di un prisma a sezione triangolare, mentre Huygens, nello studio del pendolo composto, scoprì che il principio della massima risalita non era dell’intera massa ma del suo baricentro. J. Bernouilli aveva invece sviluppato il ‘principio dei lavori virtuali’ (1717).

(5) Si veda bibl. [1], pag. 51. Tra l’altro l’Accademia aggiungeva che sulla strada di queste ricerche più d’uno s’era economicamente rovinato.

(6) Per approfondire il senso di quest’ultima affermazione si veda bibl. [5], pagg. 30/39.

(7) Per approfondire questi aspetti si veda bibl.[7 e8].

(8) Detto in linguaggio moderno ciò vuol dire: come mai alcune trasformazioni energetiche forniscono energia utilizzabile (bruciare un combustibile per ottenere vapore) mentre altre, non solo non ne forniscono, ma ne assorbono (utilizzare del vapore per far muovere una macchina o un telaio)?

(9) Altra enorme difficoltà consisteva nel capire la distinzione tra i concetti di temperatura e calore. Il primo che probabilmente li distinse, dando nel contempo la prima definizione di ‘caloria’, fu uno tra gli ingegneri inglesi che lavoravano sulle macchine a vapore, J. Black (1728-1799). Un chiarimento definitivo si ebbe solo con R. Mayer.

(10) Bibl. [9], pag.,.520.

(11) Bibl. [3], pag. 192. Riguardo alle radiazioni oscure citate da Young, c’è da osservare che i primi a considerarne l’esistenza furono Mariotte (1620-1684) e Lambert (1728-1777). Solo nel 1800 Herschel (1738-1822) riuscì a provarne l’esistenza esplorando con un termometro lo spettro solare anche al di là del rosso: l’aumento di temperatura registrato provava l’esistenza di radiazioni oscure e invisibili (radiazioni infrarosse). Si osservi che allo stesso Young si deve il primo uso moderno della parola energia (troppe cose, secondo lui, si chiamavano con lo stesso nome: era necessario fare chiarezza).

(12) Per vedere un disegno del dispositivo indicatore P,V di Watt si veda bibl. [10], pag. 613.

(13) Fourier si occupò anche di altri fenomeni di propagazione e, in particolare, della propagazione di una corrente in un conduttore; pare accertato che Ohm, per ricavare la sua legge, prendesse le mosse proprio dai lavori di Fourier.

(14) Ad esempio da Dalton e Gay-Lussac per i gas; da Hope (1766-1844) per l’acqua; da Lavoisier (1734-1794), Laplace (1749-1827), Dulong e Petit per i solidi e il mercurio.

(15) Questa come le altre citazioni di Fourier che seguono sono tratte da bibl. [14], pagg. 169-176 (si tratta del “Discorso preliminare” alla Teoria).

(16) Come Fourier dice esplicitamente più oltre, l’importanza della scienza del calore è per il “progresso dell’industria e delle scienze naturali” (Ibidem, Introduzione, pag. 177).

(17) Bibl. [12], pag. 159,

(18) Lazare Carnot ebbe un ruolo di primo piano nella Rivoluzione Francese: fu uno di coloro che votò per ghigliottinare Luigi XVI. Fu generale di Napoleone e ministro durante i “cento giorni”. Alla caduta di Napoleone, con la Restaurazione, fu esiliato in Sassonia dove morì.

(19) Bibl. [21], pagg. 393-395. Dallo stesso testo sono stati ripresi gli altri brani di Carnot citati nel seguito.

(20) Questa condizione era già stata, individuata da Watt.

(21) Questo “errore” non permise a Carnot di ricavare la conservazione dell’energia e cioè il primo principio della termodinamica. Egli se ne avvide nel 1830 quando si convertì alla teoria dinamica del calore, ma la memoria in cui riportava ciò fu ritrovata tra le sue carte. solo nel 1876, quando tutto era già stato fatto. Osservo a margine che l’espressione “lavoro”, definita da Smeaton nel 1759 fu introdotta nella fisica da Poncelet (1788-1867) nel 1826.

(22) Quindi il 2° principio fu ricavato con un anticipo di circa 20 anni rispetto al 1° principio.

(23) Anche lo studio della “reversibilità” era stato affrontato dagli ingegneri a proposito delle macchine idrauliche (ad esempio da Poncelet). Si osservi che affermare quanto riportato nel testo equivale a dire che “solo se riponiamo la sostanza su cui lavora la macchina alle condizioni iniziali possiamo essere sicuri che tutto il calorico che è passato nella macchina è stato utilizzato per produrre lavoro” (Bibl. 8, pag. 229).

(24) Devo ricordare che anche una macchina ideale di Carnot ha sempre un rendimento inferiore a uno.

(25) Dal fatto che tutte le macchine termiche hanno lo stesso rendimento quando funzionano tra le stesse temperature, Carnot ricavò l’impossibilità del moto perpetuo di 2ª specie. Si noti che servono sempre due sorgenti di calore a temperature diverse: questo fatto implica l’impossibilità di utilizzare una sola sorgente per produrre lavoro. Se quest’ultimo fatto fosse stato possibile, come Kelvin (1824-1907) fece osservare, abbassando di un solo centesimo di grado la temperatura del mare, da esso si sarebbe potuta estrarre tutta l’energia occorrente per molti secoli all’intera umanità.

(26) Nello scritto “Memoria sulla potenza motrice dei calore” del 1834.

(27) Bibl. [4], pag. 129.

(28) Costituito da due sole isoterme distanziate di un grado centigrado

(29) Anche nell’ambito della biologia le cose non erano tranquille: fare un’affermazione del genere significava scontrarsi con altre correnti di pensiero che erano dominanti. Per cogliere alcuni interessanti aspetti della polemica e alcuni elementi di pensiero della scuola dei fisiologisti tedeschi, si può leggere un interessante scritto di un rappresentante di questa scuola, Du Boys-Reymond riportato in bibl. [11]. Si può anche leggere la stimolante discussione che fa Elkanà in bibl. [1], pagg. 132-151.

(30) Bibl. [4], pagg, 134-135.

(31) Ibidem.

(32) II ragionamento che segue l’ho fatto parafrasando quello di bibl. [15], 3, pag. 252.

(33) Ricordo che vale l’identità: 1 kgm = 9,81 joule. Si osservi che il ragionamento di Joule non è rigoroso perché presuppone nulla la variazione di energia interna.

(34) Bibl. [4], pagg. 135-136. Si osservi che l’articolo di Mayer, come del resto quello di Mohr, fu rifiutato dalla rivista di Poggendorf (gli Annalen) con la motivazione di mancanza di una ricerca sperimentale. Esso fu pubblicato, con scarsa risonanza, sugli Annali di Chimica e di Farmacia per interessamento di uno dei pochissimi che lo apprezzò, Liebig.

(35) Si tratta del celebre chimico britannico fondatore della teoria atomistica (1803). Joule per soli tre anni prese lezioni private elementari da Dalton e quest’ ultimo, a quasi 70 anni, era costretto a fare quel lavoro nonostante i grandi meriti scientifici. Joule quindi non ebbe nessuna istruzione regolare: anch’egli fa parte dell’ imponente schiera degli “outsider”.

(36) Si osservi che Joule usava la parola “forza” in luogo di “energia”, e questo fatto era comune all’epoca. Con i lavori di Rankine (1820-1872), intorno al 1860 si codificò l’uso della parola “energia”. Riguardo poi all’influsso delle conczioni religiose su Joule, che tra l’altro era un convinto conservatore in politica, egli più volte fa trasparire l’idea che “i grandi agenti della natura non possono andare distrutti se non dall’intervento diretto di Colui che li aveva creati” (bibl. [2], pag. 131).

(37) Nel lavoro del 1840 Joule misurò anche il calore che si sviluppa in un processo elettrolitico. Si deve notare che questo lavoro (come quello di Mayer) non fu accettalo dalla rivista Proceedings of the Royal Society perché i revisori non credettero che una legge di tale importanza potesse essere stata ricavata con esperienze descritte in sole 5 pagine (tra i revisori vi era anche Wheatstone, quello del “ponte”). Una riedizione del lavoro in forma più estesa fu accettata dal Philosophical Magazine nel 1841.

(38) Il lavoro occorrente per innalzare di 1°C la massa di un chilogrammo di acqua (e cioè per produrre una chilocaloria).

(39) Questo valore fu riportato da Joule in una memoria del 1850; in quella del 1843 dava un valore di 460 kgm/kcal.

(40) Joule fece anche importanti esperienze sulla produzione di calore mediante compressione adiabatica.

(41) Qui Joule si riferisce alle attrazioni che avvengono tra le molecole per formare i composti e in particolare alle reazioni esoenergetiche.

(42) Abbiamo già accennato all’iter di un lavoro di Joule, ma anche gli altri ebbero sorte poco felice. I primi lavori furono inizialmente rifiutati da svariate riviste. Gli ultimi furono pubblicati dopo molte insistenze. Questa stessa conferenza popolare riuscì a farla tra molte difficoltà: gli organizzatori avevano assegnato a Joule un tempo brevissimo e non era stato previsto il dibattito. Ma un giovane partecipante alla riunione si interessò molto a quanto Joule diceva ed alla fine aprì lui il dibattito. Parlò molto con Joule e rimase in contatto con lui fino alla morte di quest’ultimo. Si trattava del giovane Kelvin che nel suo intervento, individuò un contrasto tra le cose dette da Joule e quelle elaborate dagli ingegneri francesi. Secondo Joule era possibile la trasformazione di lavoro in calore e viceversa, secondo gli ingegneri francesi non c’era viceversa. Stimolato da ciò, Kelvin iniziò a lavorare in questo campo conseguendo risultati di enorme importanza.

(43) Anche questa memoria non venne accettata da Poggendorf per la pubblicazione. Essa vide la luce sotto forma di opuscolo con l’aiuto e l’incitamento dati a Helmholtz dal suo discepolo Du Boys-Reymond e dal matematico Jacobi. Si osservi che anche Helmholtz usa la parola forza (kraft) come sinonimo di energia.

(44) Bibl. [1], pag. 167. Per leggere l’intera memoria e per conoscere meglio Helmholtz si può vedere bibl. [17].

(45) Ibidem, pag. 170.

(46) Non c’è priorità tra Mayer, Joule e Helmholtz: la conservazione dell’energia è un esempio di scoperta simultanea. Sembra certo che né Joule, né Helmholtz conoscessero i lavori di Mayer, almeno fino al 1847. È comunque da notare che Helmholtz, dopo essere venuto a conoscenza del lavoro di Mayer riconobbe subito la priorità temporale di Mayer (il quale ultimo, nel frattempo era finito in manicomio a seguito dell’enorme incomprensione dalla quale era circondato).

(47) Nel 1887, sette anni prima di morire, Helmholtz, influenzato soprattutto dagli sviluppi della termodinamica, manifestò in un suo lavoro la sua insoddisfazione per il carattere di incompletezza che presentava la meccanica classica.

(48) Bibl. [16], pag. 116.

(49) Bibl. [22], Vol 2°, pag. 517. Si osservi che nel 1855 Kelvin “propose un’altra scala assoluta sulla quale gli incrementi dì temperatura uguali erano misurati come gli intervalli entro i quali una macchina termica perfetta produceva la stessa quantità di lavoro, e mostrò che tale scala presentava una stretta corrispondenza con la scala del termometro a gas” (ibidem, pagg. 517 – 518). Questa è la scala assoluta da noi oggi usata. Si osservi anche che nel lavoro del 1848 Kelvin ancora credeva impossibile la trasformazione di calore in lavoro (a quell’ epoca e fino al 1851 egli era ancora sostenitore della teoria del calorico).

(50) Il disaccordo in oggetto è discusso da Kelvin in una sua nota alle pagg. 136 – 137 di bibl. [16].

(51) Bibl. [16], nota di pag. 136. Il problema oggi è risolto così: quando non si hanno trasformazioni termodinamiche (caso di conduzione di calore lungo una sbarra) il calore si conserva; solo quando si ha a che fare con trasformazioni, alla ‘scomparsa’ di lavoro corrisponde la ‘comparsa’ di calore e viceversa (con tutte le limitazioni imposte dal 2º principio).

(52) La nota in cui Kelvin tratta di questo contrasto conclude così: “In realtà ci si deve provare nella ricerca della verifica dell’assioma di Carnot e di una spiegazione della difficoltà che abbiamo preso in considerazione, oppure nella ricerca di una base completamente nuova per la Teoria del Calore” (ibidem. pag. 137). Si noti quanto il problema fosse ritenuto cruciale.

(53) Bibl. [2], pag. 151. Tutte le citazioni di Clausius che seguiranno, senza riferimento bibliografico, sono tratte da bibl. [21].

(54) Bibl. [4], pagg. 162-163.

(55) Bibl. [21], pag. 405.

(56) La prima parte dell’ipotesi di Carnot era che “alla produzione di lavoro corrisponde un semplice passaggio di calore da un corpo caldo a un corpo freddo“; e questa prima parte veniva completata da Carnot con la seguente seconda parte (che Clausius respinge): “finché la quantità di calore non venga meno in tale passaggio“.

(57) Bibl. [21], pag. 407.

(58) II che vuol dire che per far funzionare una macchina frigorifera occorre fornire del lavoro dall’esterno.

(59) Tra cui: “La teoria dinamica del calore…” (1851) e “Una tendenza universale della natura verso la dissipazione dell’energia meccanica” (1852).

(60) Bibl. [16], pag. 191.

(61) Ibidem, pagg. 192-193. Si osservi che oggi questo enunciato di Kelvin si usa recitarlo cosi: è impossibile realizzare una trasformazione il cui unico risultato sia quello di assorbire una data quantità di calore da un’unica sorgente e trasformarla completamente in energia meccanica. Lo stesso Kelvin osserva in una nota che se ciò fosse possibile avremmo a disposizione un’energia infinita raffreddando di un poco, ad esempio, il mare o la Terra.

(62) Ibidem, pagg. 331-333.

(63) A proposito del clima politico della Germania occorre ricordare che esso è un Paese (fino al 1870) diviso in una miriade di piccoli Stati. La Prussia, il più industrializzato tra questi Stati, farà da polo d’ aggregazione. Della complicata storia della nascita dello Stato tedesco, elemento importante fu la fondazione dell’Università di Berlino (1810). Questa Università, insieme all’attività dei filosofi della natura fu alla base della rinascita culturale della Germania e della successiva acquisizione da parte di questo Paese del primato scientifico su tutto il mondo. L’ eredità speculativa di Leibniz insieme a quanto di empirico e sperimentale introdussero i filosofi della natura (tra cui Oken) fu uno stimolo alla creazione di scuole politecniche a imitazione di quelle francesi. Ma qui, contrariamente a quanto accadeva in Gran Bretagna, non erano i privati a gestire l’educazione e quindi l’industrializzazione, ma lo Stato. In questa dialettica tra Stato, imprenditori privati, popolo, sviluppo industriale ed istruzione, via via si realizzò una maggiore partecipazione della borghesia industriale alle scelte politiche del Paese e, conseguentemente, si conquistarono importanti riforme costituzionali. Si diffonde nel Paese un generale riconoscimento dell’utilità del progresso tecnico che, si ammette, non può più essere affidato ad artigiani, che lavorano su basi esclusivamente empiriche, ma ha bisogno di essere sottoposto a trattamento teorico per ricavare da esso il massimo possibile in un contesto più ampio ed organico. Ritornando a Kelvin, osserva Maffioli, che le considerazioni del fisico britannico sulla dissipazione dell’energia rispecchiano sia il dinamismo sia le segrete ansie ed inquietudini dell’epoca vittoriana e la stessa ideologia ottimistica dell’industrialismo e del progresso. L’uso poi del termine dissipazione è significativo: si “attribuisce una connotazione morale negativa ad un processo naturale!” (bibl. [2]).

(64) Che è l’inverso dell’equivalente meccanico della caloria.

(65) Oggi la chiamiamo energia interna.

(66) Si era osservato che “mentre la quantità di calore decresce durante il ciclo di operazioni della macchina termica di Carnot, una quantità restava costante durante l’intero ciclo. La quantità di calore prodotta era più piccola di quella assorbita dalla macchina, ma la quantità di calore assorbita, divisa per la temperatura della fonte di calore, aveva quantitativamente lo stesso valore della quantità di calore prodotta, divisa per la temperatura della caldaia“. (bibl. [22], Vol. 2°, pag. 518). Nelle macchine reali invece il quoziente ora visto cresce sempre.

(67) Bibl. [4]. pag. 230.

(68) Ibidem, pagg. 230-231.

(69) Nel caso di passaggio di calore da un corpo caldo a uno freddo T1 è la temperatura del corpo caldo e T2 quella del corpo freddo, quindi T1 > T2. E se T1 > T2 segue che 1/T2 > 1/T1 da cui 1/T2 – 1/T1 > 0.

(70) Nella memoria del 1865 Clausius modificò la convenzione sui segni scrivendo che l’integrale di dQ/T doveva essere minore o uguale a zero.

(71) Ibidem, pag. 243

(72) Ibidem, pagg. 244-245.

(73) C’è solo una differenza di ‘gusto’ nelle definizioni. Si veda la nota 63.

(74) Secondo questo modo di vedere si tende a uno stato in cui l’enorme quantità di energia dell’universo rimane sempre la stessa, ma essa diventa una energia ad un solo valore determinato di temperatura (anche elevatissimo, ma unico) e quindi non più utilizzabile per produrre lavoro meccanico (morte calda dell’universo). Si osservi che le stesse considerazioni erano state sviluppate da Helmholtz in una conferenza del 1854.

(75) Ibidem, pag. 235.

(76) Ibidem, pag. 234.

(77) Bibl. [19], pag. 234

(78) Ostwald (1853-1932) in un suo lavoro del 1927 scrive: “in tutte le equazioni della meccanica il tempo t compare solo al quadrato e perciò esse restano corrette sia che il tempo sia introdotto come positivo che come negativo, …. Perciò qualunque processo descritto da queste equazioni può procedere tanto in una direzione quanto in quella inversa“. (Bibl. [13], pag. 188).

(79) Bibl. [20], pag. 40.

(80) In bibl. [4], pagg. 163-164, è riportato il conto fatto da Joule.

(81) Si osservi che il lavoro di Clausius del 1865, che abbiamo visto qualche pagina indietro e nel quale si accennava a un’interpretazione microscopica dell’entropia, era certamente influenzato da questo suo precedente lavoro.

(82) Leggi: Energia cinetica.

(83) Questa legge la conosciamo comunemente come 2ª legge di Volta e Gay-Lussac.

(84) Il ragionamento fatto da Clausius può essere riassunto a partire dall’equazione dei gas perfetti, nel modo seguente. Indicando con P la pressione, con V il volume, con T la temperatura assoluta, con E l’energia cinetica delle molecole, con K, K1, K2 tre costanti, il primo capoverso di Clausius si può scrivere:

P = K1 · (E/V)

mentre il secondo capoverso, a partire dalla legge dei gas perfetti, diventa:

P = K2 . (T/V).

Confrontando le due relazioni scritte si vede subito che:

T = K · E

e cioè che la temperatura assoluta è proporzionale all’energia cinetica delle molecole.

(85) È il concetto di calore specifico a volume costante (Cv), cioè la variazione dell’energia interna del gas che è ora la somma delle energie cinetiche delle molecole. Si osservi che si va facendo strada il concetto di calore come energia cinetica delle molecole che via via andrà a formalizzarsi.

(86) Bibl. [20], pagg. 134-135. Il punto 1 può anche essere letto così: le molecole non sono soggette ad altre forze che quelle che si scambiano durante gli urti. Il punto 2 invece si può leggere: gli urti sono completamente elastici.

(87) II procedimento originale lo si può ritrovare in bibl. [4], pagg. 171-177.

(88) Bibl. [4], pag. 176. (Dalla ‘Introduzione all’articolo di Clausius del quale ora parleremo).

(89) Ibidem, pagg. 188-189.

(90) Ibidem, pag. 121.

(91) Ibidem. pag. 225.

(92) Ibidem, pag. 227.

(93) La legge di Dulong e Petit, enunciata nel 1819, afferma che i prodotti dei calori specifici per i pesi atomici sono uguali per tutti gli elementi chimici, il che vuol dire che i calori specifici dovrebbero diminuire all’aumentare del peso atomico, ma alcune sostanze non rispettano questa legge.

(94) L’equazione di stato per i gas perfetti (Clapeyron. 1834) fu corretta per i gas reali dal fisico olandese J.D. Van der Waals (1837-1923) nel 1873 sulla base delle ipotesi cinetico-molecolari (i gas reali hanno un volume proprio e le molecole di questi gas esercitano delle forze le une sulle altre).

(95) II fisico austriaco J. Loschmidt nel 1865 calcolò in 9.10-8 cm il diametro di una molecola d’aria (valore oggi accettato 2,5.10-8 cm); per il numero di molecole in un centimetro cubo di gas in condizioni normali egli trovò 10.1019 (valore oggi accettalo 2.7.1019), per il numero di molecole in una grammomoiecoìa (numero di Avogadro) egli trovò il valore, in buon accordo con quello oggi accettato, di 6,06.1023.

(96) Si ricordi che il primo a liquefare un gas (il cloro) agendo contemporaneamente su pressione e volume, fu Faraday nel 1823. Altri gas furono successivamente liquefatti, ma alcuni resistevano anche alle basse temperature allora raggiungibili ( – 110 ºC) e alle pressioni che via via venivano aumentate. Fu l’introduzione del concetto di temperatura critica (temperatura al di sopra della quale il gas non può essere liquefatto comunque si aumenti la pressione) ad opera di Andrews (1813-1885) nel 1867 che permise di proseguire nell’impresa, che si concluse con la liquefazione dell’elio nel 1908, lavorando sulla sola temperatura. Anche la temperatura critica può essere considerata un fecondo sviluppo della teoria cinetica.

(97) Il moto browniano fu scoperto nel 1827 dal botanico britannico R. Brown (1773-1858). Esso consiste nella (percettibile macroscopicamente) agitazione delle particelle in sospensione in un liquido. Esse si vedono al microscopio tremolare in continuazione ed in modo disordinato; il fenomeno si mantiene variando comunque le condizioni ambientali. Le prime spiegazioni di questo fenomeno, in base alla teoria cinetica, furono date dal matematico tedesco C. Wiener (1826-1896) nel 1863 e dal chimico britannico W. Ramsay (1852-1916) nel 1866. Secondo i due il moto browniano si origina attraverso i continui e numerosi urti che le molecole in moto del liquido comunicano alle particelle in sospensione. Quando queste ultime sono grandi il fenomeno non si osserva perché vi è una compensazione tra gli urti delle molecole che in gran numero colpiscono una grande particella; quando le particelle sono sufficientemente piccole non c’è più la compensazione e quindi compare il fenomeno. La spiegazione esauriente del moto browniano sarà data nel 1905 da A. Einstein (1879-1955).

(98) Bibl. [13], pag. 29.

(99) Ibidem, pagg. 43-44. Si noti quale ruolo importante assegna Boltzmann al calcolo delle probabilità e come via via vada scomparendo una visione deterministica del mondo.

(100) Com’è noto, le variabili macroscopiche che caratterizzano un gas sono la pressione P, il volume V e la temperatura T.

(101) Ibidem, pag. 45. Si osservi che, in accordo con le convenzioni da me adottate a partire dal segno del 2° principio della termodinamica (nell’enunciazione di Clausius), nel brano di Boltzmann riportato ho mutato la parola originale ‘diminuire’ in ‘aumentare’.

(102) Ibidem. Vale l’osservazione fatta nella nota precedente.

(103) Si osservi che, sulla base di obiezioni analoghe, molti fisici concludevano che la teoria cinetica doveva essere falsa. Si noti poi che il problema della reversibilità nella ‘dinamica astratta’ e nella ‘dinamica fisica’ viene posto da Kelvin nel 1874 in un articolo su ‘Nature‘, “La teoria cinetica della dissipazione dell’energia”. Si veda in proposito il brano riportato in bibl. [4], pagg. 261-263.

(104) Ibidem, pag. 172. Si osservi che qualche obiezione può essere fatta al ‘diavoletto’; infatti il suo agire altera le condizioni di probabilità. Si noti ancora che la posizione di Maxwell sull’affidabilità del calcolo delle probabilità è diversa da quella di Boltzmann, già accennata in nota 99. Si osservi infine che il ‘diavoletto’ trae senz’altro ispirazione dalla ‘intelligenza’ di cui parlava Laplace.

(105) Per la prima volta nella storia della fisica si intravede una diversità di comportamento tra processi macroscopici e microscopici. Qualcuno ha osservato che, nel campo della storia civile, vi sono leggi che regolano i rapporti tra gli uomini, ma nessuno si sognerebbe di utilizzare tali leggi per regolare i rapporti familiari.

(106) Ibidem, pag. 173. Si noti che una obiezione analoga a quella di Loschmidt fu avanzata successivamente dal matematico tedesco E. Zermelo (1871-1953), amico di Planck (1858-1947).

(107) Gli stati di cui parla Boltzmann sono quelli precedentemente chiamati stati dinamici microscopici. Uno stato dinamico microscopico è non uniforme quando rappresenta uno stato termodinamico macroscopico lontano dall’equilibrio, è invece uniforme quando rappresenta uno stato termodinamico macroscopico all’equilibrio.

(108) Ibidem, pagg. 175-176.

(109) Bibl. [23], Vol. 5º, pag. 219.

(110) Bibl. [13], pag. 177.

(111) Ripresa da bibl. [18], Vol. 2º, pag. 53.  Riporto lo scritto che, in tale testo, accompagna e spiega la tabella:

Entropia e disordine molecolare

Non abbiamo finora fatto alcun riferimento alla struttura molecolare dei corpi nello stabilire il secondo principio della termodinamica e nel dedurre le conseguenze. È tuttavia da aspettarsi che l’evoluzione di un sistema isolato verso lo stato di equilibrio, evoluzione che abbiamo visto essere determinata dalla differenza di entropia fra lo stato iniziale e quello finale, dipenda in modo essenziale dalla distribuzione delle molecole nei due stati. È appunto questa connessione che vogliamo brevemente discutere.

Pensiamo ad un miscuglio di due gas in un recipiente; ci stupiremmo molto se, ad un dato istante, trovassimo tutte le molecole del gas 1 da una parte e quelle del gas 2 dall’altra. E se invece disponessimo di un solo gas in un recipiente diviso da un forellino in due zone A e B, ci parrebbe strano che questo gas si andasse a sistema re tutto in una zona (ad esempio la A). Si possono dare dei numeri relativi a quest’ultimo esempio.

 Nella tabella  è riportato: nella prima colonna, il numero di molecole costituenti il gas; nella seconda colonna, la probabilità dello stato con  tutte le molecole in A, nella terza colonna, la probabilità che le molecole siano distribuite uniformemente in A e B. Come si vede, al crescere delle molecole costituenti il nostro sistema, cresce enormemente la probabilità di distribuzione uniforme (mentre quella non uniforme rimane costante). Se si pensa che le molecole costituenti un gas non sono 100, ma dell’ordine di 1023 (numero di Avogadro), ci si può, almeno lontanamente, rendere conto di quale numero, in questo caso, dovrebbe comparire nella terza colonna.

(112) Si osservi che questa relazione è di estrema importanza perché , tra l’altro, permette di calcolare il valore assoluto dell’entropia di uno stato. L’espressione integrale introdotta da Clausius ci permetteva invece di ricavare solo differenze di entropia. Nella relazione in oggetto, P deve essere inteso come il numero degli stati dinamici microscopici che fornisce lo stesso stato termodinamico macroscopico; infatti maggiore è il numero degli stati dinamici microscopici che realizzano uno stesso stato termodinamico macroscopico, maggiore è la probabilità di quest’ultimo. Per sua definizione la probabilità termodinamica prende in considerazione solo i casi favorevoli, al contrario della probabilità matematica che considera i casi favorevoli rapportati a quelli possibili.

——————————————————————–

BIBLIOGRAFIA PER LA PARTE RELATIVA ALLA STORIA DELLA TERMODINAMICA

[1] Y. ELKANÀ – La scoperta della conservazione dell’energia – Feltrinelli, (1971).

[2] C. MAFFIOLI – Una strana scienza – Feltrinelli, (1979).

[3] BARACCA, ROSSI – Materia ed energia – Feltrinelli, (1978).

[4] E BELLONE – Le leggi della termodinamica da Boyle a Boltzmann – Loescher, (1978).

[5] F. BEVILACQUA – Storia del concetto di energia – AIF, Pavia, (1978).

[6] E. MACH – La meccanica nel suo sviluppo storico-critico – Boringhieri (1978)

[7] BARACCA, RIGATTI – Aspetti dell’interazione tra scienza e tecnica durante la Rivoluzione industriale del XVIII secolo in Inghilterra: 1) La nascita dei concetti di lavoro ed energia – “Il Giornale di Fisica”, 15, 2; (1974).

[8] BARACCA, RIGATTI – Idem: 2) Sviluppi della macchina a vapore – “Il Giornale di Fisica”, 15, 3; (1974).

[9] NEWTON – Mathematical Principles of Natural Philosophy – Optics;  HUYGENS – Treatise on Light – “Enciclopedia Britannica”, (1952).

[10] G. CASTELFRANCHI – Fisica sperimentale ed applicata (Vol. 1°) – Hoepli, 1943.

[11] E. DU BOIS-REYMOND – I limiti della conoscenza della natura – Feltrinelli, 1973.

[12] AA. VV. – Sul marxismo e le scienze – “Critica marxista”, quaderno 6 (1972).

[13] BARACCA, RUFFO, RUSSO – Scienza ed industria 1848/1915 – Laterza, 1979.

[14] LAVOISIER – Elements of Chemistry; FOURIER – Analitical Theory of Heat; FARADAY – Experimental Researches in Electicity – “Enciclopedia Britannica”, (1952).

[15] AA. V.V. – Storia generale delle scienze – Casini, (1964).

[16] KELVIN – Opere – Utet, (1971).

[17] HELMHOLTZ – Opere – Utet, (1967).

[18] CINI, DE MARIA, GAMBA – Corso di fisica per i licei scientifici – Sansoni, 1975.

[19] D.S.L. CARDWELL – Tecnologia, scienza e storia – Il Mulino, (1976).

[20] BARACCA, LIVI – Natura e storia: fisica e sviluppo del capitalismo nell’Ottocento – D’Anna, (1976).

[21] D. PAPP – Historia de la Fisica – Espasa Calpe, (1961).

[22] S.F. MASON – Storia delle scienze della natura – Feltrinelli, (1971).

[23] L. GEYMONAT – Storia del pensiero filosofico e scientifico – Garzanti, (1971).


BIBLIOGRAFIA

1) P.CASINI – Filosofia e fisica da Newton a Kant – LOESCHER, 1978.

2) J.LOCKE  – Saggio sull’intelligenza umana – LE MONNIER, 1969.

3) R.RENZETTI – Relatività, da Aristotele a Newton – AIF-1980.

4) I.NEWTON – Opere – UTET, 1965.

5) A.KOYRE’ – Dal mondo chiuso all’universo infinito – FELTRINELLI, 1970.

6) M.JAMMER – Storia del concetto di forza – FELTRINELLI, 1971.

7) U.FORTI – Storia della scienza – DALL’OGLIO, 1969.

8) Y.ELKANA – La scoperta della conservazione dell’energia – FELTRINELLI, 1977.

9) M.B.HESSE – Forze e campi – FELTRINELLI  1974.

10) M.JAMMER – Storia del concetto di spazio – FELTRINELLI, 1966.

11) P.ROSSI – La rivoluzione scientifica, da Copernico a Newton – LOESCHER, 1973.

12) E.BELLONE – Le leggi del movimento da Hume a Laplace – LOESCHER, 1979.

13) R.RENZETTI – Concezioni particellari nel XVII e XVIII secolo . La crisi  dell’azione a distanza -. LA FISICA NELLA SCUOLA, Anno XIII, n°2 e n°3, 1980.

14)  K.R.POPPER – Congetture e Confutazioni – IL MULINO,  1972.

15)  S.D’AGOSTINO – Dispense di  Storia della Fisica – IFUR,  1974.

16)  S.F.MASON – Storia delle  scienze della natura – FELTRINELLI,  1971.

17)  L.GEYMONAT  –  Storia del  pensiero  filosofico  e  scientifico  –  GARZANTI,  1971.

18)  N.ABBAGNANO  –  Storia  delle  scienze  – UTET,  1965.

19) AA.VV. – Storia generale delle scienze – CASINI, 1964.

20) J.BERNAL – Storia della scienza – EDITORI RIUNITI, 1956.

21) T.S.ASHTON – La rivoluzione industriale 1760/1830 – LATERZA, 1972.

22) F.KLEMM – Storia della tecnica – FELTRINELLI, 1966.

23) D.S.L.CARDWELL – Tecnologia, scienza e storia – IL MULINO, 1976.

24) A.BARACCA, R. LIVI – Natura e storia: fisica e sviluppo del capitalismo nell’0ttocento – D’ANNA, 1976.

25) A.MARCHESE – La battaglia degli illuministi – SEI, 1974.

26) E.CASSIRER – La filosofia dell’illuminismo – LA NUOVA ITALIA, 1973.

27) VOLTAIRE – La filosofia di Newton – LATERZA, 1978.

28) J.O.DE LAMETTRIE – L’uomo macchina ed altri scritti – FELTRINELLI, 1955.

29) A.ROSSI – Illuminismo e sperimentalismo nella fisica del ‘700 –  SAPERE 741, Ottobre 1971.

30) A.KOYRE’ – Dal mondo del pressappoco all’universo della. precisione – EINAUDI, 1967.

31) P.BAIROCH – Scienza, tecnica ed economia nella rivoluzione industriale – SAPERE n° 695, Novembre 1967.

32) D’ALEMBERT, DIDEROT – La filosofia dell’Encyclopedie – LATERZA, 1966 .

33) AA.VV. – Scienziati e tecnologi (dalle origini al 1875) – MONDADORI, 1975.

34) AA.VV. – Scienziati e tecnologi (contemporanei) – MONDADORI, 1974.                

35) T.S.KUHN – La struttura delle rivoluzioni scientifiche – EINAUDI, 1969 .

36) K.R.POPPER – Scienza e filosofia – EINAUDI, 1969.

37) K.R.POPPER – La logica della scoperta scientifica – EINAUDI, 1970 .

38) R.RENZETTI – Concezioni particellari e di campo nella, prima metà del XIX secolo. L’opera di M. Faraday – IFUR, Nota interna del 19/XII/1975.

39) R.RENZETTI – La storia della fisica nella scuola secondaria – LA FISICA NELLA SCUOLA, Anno VII, n° 4, 1974 .

40) R.RENZETTI ed altri – L’insegnamento delle scienze nel biennio della scuola secondaria – IFUR, Nota interna del 23/X/1975.

41) Y.ELKANA – Science, Philosophy of Science and Science Teaching – Su EDUC. PHIL. AND THEORY, Vol. 2, pagg. 15–35; 1970.

42) A.BARACCA, R.RIGATTI – Aspetti dell’ interazione tra scienza e tecnica durante la rivoluzione industriale del XVIII secolo in Inghilterra 1-La nascita dei concetti di lavoro ed energia – IL GIORNALE DI FISICA, Vol. XV, n° 2; 1974 .

43) A.BARACCA, R.RIGATTI – Idem . 2- Sviluppi della macchina a vapore – IL GIORNALE DI FISICA, Vol. XV, n° 3; 1974.

44) AA.VV. – Enciclopedia monografica AZ Panorama – ZANICHELLI, 1959.

45) C. MAFFIOLI – Una strana scienza – FELTRINELLI, 1979.

46) L.GALVANI – Opere – UTET, 1967.

47) A.VOLTA   – Opere – UTET, 1967 .

48) P.S.LAPLACE – Opere – UTET, 1967.

49) A.M.AMPÈRE  – Opere – UTET, 1967.

50) G.TRUESDELL – Essays in the History of Mechanics – SPRINGER, 1968 .

51) Y.ELKANA – The Historical Roots of Modern Physics – SCUOLA INTERNAZIONALE DI FISICA ‘E.FERMI’, Varenna, LVII Corso.

52) J.AHRWEILLER – Franklin – ACCADEMIA, 1973.                                          

53) AA.VV. – Sul marxismo e le scienze – CRITICA MARXISTA, .Quaderno n° 6; 1972.

54) BARACCA, RUFFO, RUSSO – Scienza e industria 1848-1915 – LATERZA, 1979.

54 bis) LAVOISIER – Elements of Chemistry

            FOURIER – Analytical Theory of Heat

            FARADAY – Experimental Researches in Electricity – ENC. BRITANNICA, 1952.

55) S.C.BROWN – Il conte Rumford – ZANICHELLI, 1968.

56) BARACCA, ROSSI – Materia ed energia – FELTRINELLI, 1978.

57) J. ANDRADE e SILVA, C.LOCHAK – I quanti – IL SAGGIATORE, 1969.

58) AA.VV. – La scienza nella società capitalistica – DE DONATO, 1971.

59) E.BELLONE – I modelli e la concezione del mondo – FELTRINELLI, 1973.

60) S.D’AGOSTINO – L’elettromagnetismo classico – SANSONI, 1975.                      

61 ) A.SCHOPENHAUER – Filosofia e scienza della natura – ATHENA, 1928.

62) J.FALLOT – Marx e la questione delle macchine – NUOVA ITALIA, 1971..

63) G.MONETI – Lezioni di storia della fisica – IFUR, A.A. 1965/1966.

64) L. PEARCE WILLIAMS – The origins of field theory – RANDOM HOUSE, New York; 1966.

65) L.ROSENFELD – The Velocity of Light and the Evolution of Electrodynamics – SUPPLEMENTO AL NUOVO CIMENTO, Vol. IV, X, 1956.

66) R.RENZETTI – Fisici italiani e vicende politiche nella prima metà dell’800: Macedonio Melloni e la corrispondenza con Faraday – IL GIORNALE DI FISICA, Vol. XVII, n° 2; 1976.

67) L.PEARCE WILLIAMS – Michael Faraday, a Biography – CHAPMAN and HALL, London, 1965.

68) J. AGASSI – Faraday as Natural Philosopher – UNIVERSITY OF CHICAQGO PRESS, 1971.

69) M.FARADAY – Experimental Researches in Electricity (Vol.I) – B.QUARITCH, 1839.

70) M FARADAY –  Experimental Researches in Electricity (Vol.II) – B.QUARITCH, 1844 .

71) M.FARADAY – Experimental Researches in Electricity (Vol.III) – R.TAYLOR, W.FRANCIS, 1855.

72) L.PEARCE WILLIAMS – The Selected Correspondence of Michael Faraday – CAMBRIDGE UNIVERSITY PRESS, 1971.

73) M.FARADAY – A speculation touching Electric Condution and the Nature of Matter – PHILOSOPHICAL MAGAZINE, S. 3, Vol. 24, n° 157; pagg. 136-44, 1844.

74) M.FARADAY – Thoughts on Ray-vibrations – PHIL, MAG., S.3,Vol.28, n° l58, pagg.345 – 350; 1846.

75) C.DE MARZO – Maxwell e la fisica classica – LATERZA, 1978.

76) J.C.MAXWELL – Opere – UTET, 1973 .

77) A.BARACCA, S.BERGIA – La spirale delle alte energie – BOMPIANI, 1975.

78) A.BARACCA, A.ROSSI – Marxismo e scienze naturali – DE DONATO, 1976.

79) AA.VV. – L’ape e l’architetto – FELTRINELLI, 1976.

80) F.CAJORI – Storia della fisica elementare – R.SANDRON, 1930.

81) P.STRANEO – Le teorie della fisica nel loro sviluppo storico – MORCELLIANA,1950

82) S.D’AGOSTINO – I vortici dell’etere nella teoria del campo elettromagnetico di Maxwell – PHYSIS, X, 3, 1968.

83) S.D’AGOSTINO – Maxwell e la scoperta della teoria elettromagnetica della luce – ARGHIMEDE, 4/5, 1967.

84) AA.VV. – La storia della scienza, ed il rinnovamento dell’istruzione secondaria – DOMUS GALILEIANA, 1976.

85) U.GIACOMINI – Scienza, e filosofia nel XIX e XX secolo – RADAR, 1968 .

86) V.RONCHI – Storia della luce – ZANICHELLI, 1952.

87) NEWTON – Mathematical principles of natural philosophy

                          – Optics

      HUYGENS – Treatise on light – ENC. BRITANNICA, 1952.

88) E.PERSICO – Ottica – ZANICHELLI, 1979.

89) D.PAPP – Historia de la Fisica – ESPASA CALPE, 1961.

90) S.D’AGOSTINO – Il contributo di Newton allo sviluppo dell’ottica – IL GIORNALE DI FISICA, Vol.VI, n° 3, 1965.

91) M.BORN – La sintesi einsteniana – BORINGHIERI, 1965 (L’opera è del 1920).

92) EINSTEIN, INFELD – L’evoluzione della fisica – BORINGHIERI, 1965 (L’opera è del 1938).

93) P.A.DAGUIN – Traité élémentaire de physique – PRIVAT, LAGRAVE, 1868.

94) R.RESNICK – Introduzione alla Relatività ristretta – AMBROSIANA, 1969.

95) E.BELLONE – Le leggi della termodinamica da Boyle a Boltzmann – LOESCHER, 1978.

96) F.BEVILACQUA – Storia del concetto di energia – AIF-PAVIA, 1978.

97) E.MACH – La meccanica nel suo sviluppo storico-critico – BORINGHIERI, 1968.

98) G. CASTELFRANCHI – Fisica sperimentale ed applicata  – HOEPLI, 1943.

99) E.DU BOIS-REYMOND – I confini della conoscenza della natura – FELTRINELLI,1973.

100) KELVIN – Opere – UTET, 1971.

101) HELMHOLTZ – Opere – UTET, 1967.

102) CINI, DE MARIA, GAMBA – Corso di fisica per i licei scientifici -SANSONI, 1975.

103) P.ENGELS – Dialettica della natura – EDITORI RIUNITI, 1971.

104) EINSTEIN e BORN – Scienza e vita – EINAUDI, 1973.

105) M.P.DUHEM – Les Théories Électriques de J.C. Maxwell – HERMANN, Parigi, 1902.

106) S. D’AGOSTINO – Heinrich Hertz e la verifica della teoria elettromagnetica di Maxwell – IL GIORNALE DI FISICA, Vol.XV, n°3, 1974.

107) S. D’AGOSTINO – Hertz e Helmholtz sulle onde elettromagnetiche – SCIENTIA, 106, n°7/8, 1971.

108) S. D’AGOSTINO – Hertz’s Researches on Electromagnetic Waves –  HISTORICAL STUDIES IN THE PHYSICAL SCIENCES, R.Mc Cormmack Editor, 1975.

109) O.J.LODGE – The Work of Hertz – NATURE, Vol. 50, pagg. 133,139, l60, l6l ; 1894.

110) E.POINCARÉ – On Maxwell and Hertz – NATURE, Vol. 50, pagg. 8,11; 1854.

111) W.BERKSON – Fields of Force. The Development of  World View from Faraday to Einstein – edizione in spagnolo, ALIANZA EDITORIAL, 1981.

112) E.WHITTAKER – A History of the Theories of Aether and Electricity – NELSON and SONS, London; 1951/1953.         .

113) S.D’AGOSTINO – La posizione dell’elettrodinamica di Lorentz nei riguardi delle teorie particellari e di campo nella seconda, metà dell’ottocento – IFUR,  Nota interna n° 453, 1973.

114) T.HIROSIGE – Origins of Lorentz’s Theory of Electrons and the Concept of the Electrornagnetic Field – HISTORICAL STUDIES IN THE PHYSICAL SCIENCES, R.Mc Cormack Editor, 1969.

115) E.HERTZ – Electric Waves – DOVER, New York, 1962.

116) G.TABARRONI – L’elettromagnetismo e le sue più importanti tappe sperimentali –  CULTURA E SCUOLA, Anno XV, n° 57, 1976.

117) M.PLANCK – Scienza, Filosofia. e Religione – Fratelli FABBRI ED.  1965.

118) L.KERWIN – Atomic Physics – HOLT, RINEHART, WINSTON, 1963 .

119) A.A.MICHELSON, E.W. MORLEY – On the Relative Motion of the Earth and the Luminiferous Aether – PHIL. MAG., S. 5, Vol. 24; 1887.

120) R.S.SHANKLAND – Michelson-Morley Experiment – AM. JOURNAL OF PHYSICS, 32, 16, 1964 .

121) R.S.SHANKLAND – Michelson-Morley Experinient – SCIENTIFIC AMERICAN, 211, 5, 1964.

122) O.J.LODGE – On the present state of our Knowledge of the connection betwen ether and matter – NATURE, 46, 1181, 1892.

123) E.BELLONE – La relatività da Faraday ad Einstein – LOESCHER, 1981.

124) T.HIROSIGE – The Ether Problem, the Mechanistic Worldview, and the Origin of the Theory of Relativity – HISTORICAL STUDIES IN THE PHYSICAL SCIENCES, R.Mc Cormmack Editor,Vol.7, 1976.

125) R.MARCOLONGO – La relatività ristretta – SCIENTIA, Vol. 35, pagg. 249-258 e Pagg.321-330; 1924.

126) G.CASTELNUOVO – Il principio di relatività ed i fenomeni ottici – SCIENTIA, Vol. 9, pagg. 65-86; 1911.        

127) G.HOLTON – Ensayos sobre el pensamiento cientifico en la epoca de Einstein – ALIANZA EDITORIAL, 1982.

128) D.BOHM – The Special Theory of Relativity – BENJAMIN, New York; 1965.

129) R.Mc CORMACK – Einstein, Lorentz and the Electron Theory – HISTORICAL STUDIES IN THE PHYSICAL SCIENCES, R.Mc Cormack Editor,Vol.2, 1970.

130) S. D’AGOSTINO – Aspetti storici della Relatività. Speciale – Nota interna n° 577; 1974.

131) AA.VV. – The Principle of Relativity  – DOVER PUBBL. 1923.                     

132) G .BATTIMELLI – Teoria dell’elettrone e teoria della relatività. Uno studio sulle cause della scomparsa dalla prassi scientifica del concetto di etere elettromagnetico – TESI di LAUREA, IFUR,1972/3.

133) S.PETRUCCIOLI, C.TARSITANI – L’approfondimento della conoscenza fisica dall’affermazione delle concezioni maxwelliane alla relatività speciale (1890-1905) – Quaderni di Storia e Critica della Scienza 4, DOMUS GALILEIANA, Pisa.; 1974.

134) H.A.LORENTZ – Collected Papers  – THE HAGUE, MARTINUS NIJHOFF,1936.

135) H.RITZ – Du Role de l’Ether en Physique –  SCIENTIA, Vol. 3, 1908.

136) A.PALATINI – La teoria della relatività nel suo sviluppo storico –  SCIENTIA, Vol. 26, 1919.

137) L. De BROGLIE – Sui sentieri della scienza – BORINGHIERI, 1962 .

138) H.POINCARÉ – L’espace et le temps – SCIENTIA, Vol.13, 1912.

139) H.POINCARÉ – Sur la dynamique de l’electron – RENDICONTI DEL CIRCOLO MATEMATICO DI PALERMO, 21, 1906.

140) H.POINCARÉ – La scienza e l’ipotesi – LA NUOVA ITALIA, 1950.

141) H.POINCARÉ – Ciencia y metodo – ESPASA CALPE, 1944.

142) H.POINCARÉ – El valor de la ciencia – ESPASA CALPE, 1946.

143) H.POINCARÉ – Ultimos pensamientos – ESPASA CALPE, 1946.

144) C.SCRIBNER – H. Poincaré and the Principle of Relativity – AMERICAN JOURNAL OP PHYSICS, 32, pagg.672-678, 1964.

145) S.GOLDBERG – H.Poincaré and Einstein’s Theory of Relativity – AMERICAN JOURNAL OP PHYSICS, 35; pagg.934-944; 1967.   

146) F.KOTTEL – Considérations de critique historique sur la théorie de la relativité – SCIENTIA, Vol. 36, pagg.231-242; 301-3l6, 1924.

147) T.S.KUHN – Black Body Theory and the Quantum Discontinuity – OXFORD UNIVERSlTY PRESS, 1978. Edizione in spagnolo ALIANZA EDITORIAL, 1980 .

148) S. BERGlA – La storia della relatività –  LA FISICA NELLA SCUOLA, Anno VIII, n°1, 1975.

149) R.DUGAS – Histoire de la mécanique – DUNOD, Paris, 1950.                       

150) E.B.HILLER.- Espacio, tiempo, materia, infinito – GREDOS, Madrid, 1968 .

151) R.MUSIL – Sulle teorie di Mach – ADELPHI, 1973.

152) AA.VV. – La concezione scientifica del mondo – LATERZA, 1979 .

153) M.PLANCK – La conoscenza del mondo fisico – EINAUDI, 1943.

154) R.AVENARIUS – Critica dell’esperienza pura – LATERZA, 1972 .

155) W.OSTWALD – L’Énergie – ALCAN, 1910.

156) V.I.LENIN – Materialismo ed empiriocriticismo – EDITORI RIUNITI, 1973         

157) G.LENZI – E. Mach fisico e filosofo critico della scienza – SPERIMENTATE CON NOI, rivista della Leybold, Anno 3, n° 3, settembre 1979.

158) E.BELLONE – Il mondo di carta – MONDADORI, 1976.                                                                          

159) W. HEISENBERG – Natura e fisica moderna – GARZANTI, 1957.                       

160) M.JAMMBR – Storia del concetto di massa – FELTRINELLI, 1974.

161) A. EINSTEIN – Pensieri degli anni difficili -BORINGHIERI, 1965.

162) B.HOFFMANN – Albert Einstein creatore e ribelle – BOMPIANI, 1977.

163) S.BERGIA – Einstein e la relatività – LATERZA, 1978 .

164) A.BERTIN – Einstein – ACCADEMIA, 1971.

165) H. CUNY – Albert Einstein e la fisica moderna – EDITORI RIUNITI, 1963.

166) E.E.LEVINGER – Albert Einstein – MONDADORI, 1951.

167) P. MICHELMORE – Einstein – DELLA VOLPE, 1967.

168) P.A.SCHILPP (a cura di) – Albert Einstein, scienziato e filosofo – EINAUDI, 1958.

169) G. BATTIMELLI – I caratteri salienti di una svolta – SAPERE n° 823, ott/nov. 1979.

170) AA.VV – Scienza e storia – CRITICA MARXISTA, EDITORI RIUNITI, 1980.

171) A.EINSTEIN – La teoria dei quanti di luce – NEWTON COMPTON IT., 1973.

172) D. ter HAAR – The old quantum theory – PERGAMONN PRESS, 1967.

173) AA.VV. – La teoria quantistica del calore specifico – NEWTON COMPTON IT., 1974.

174) AA. VV. – Cinquant’anni di relatività – EDITRICE UNIVERSITARIA, Firenze, 1955 .

175) J.S.SCHWARTZ, M.Mc GUINNES – Einstein – IL SAGGIATORE, 1980.

176) A.A.VV. – La fisica di Berkeley – ZANICHELLI, 1971.

177) J.G.TAYLOR – The new Physics – BASIC BOOKS,1971. Edizione in spagnolo ALIANZA EDITORIAL, 1981.

178) A.EINSTEIN – Relatività – BORINGHIERI, 1967.

179) W.PAULI – Teoria della relatività – BORINGHIERI, 1958.

180) P.COUDERC – Relativité – PRESSES UNIVERSITAIRES DE FRANCE, 1981.

181 ) P.PLEURY, J.P. MATHIEU – Fisica generale e sperimentale  – ZANICHELLI, 1970.

182) M.A.TONNELAT – Einstein, mito e realtà –  SCIENTIA, Vol. 114, 1979.

183) P.JORDAN   –  La  fisica  nel   secolo   XX  –  SANSONI,   1940.

184) L.PEARCE WILLIAMS (a cura di) – Relativity Theory: Its Origins and Impact on modern Thought – WILEY and   SONS, New York, 1968. Edizione in spagnolo ALIANZA EDITORIAL, 1973 .

185) M.PLANCK – Autobiografia scientifica – EINAUDI, 1956.

186) M.LA ROSA – Le concept de temps dans la théorie d’Einstein – SCIENTIA, Vol. 34, 1923.            

187) U. FORTI – Einstein, il pensiero – NUOVA ACCADEMIA, 1961.                        

188) A. BANDINI BUTI – La relatività -EDITORIALE DELFINO, 1971.

189) V.SILVESTRINI – Guida alla teoria della relatività – EDITORI RIUNITI, 1982.

190) AA.VV. – Modern Physics – PENGUIN BOOKS, 1971. Edizione in spagnolo ALIANZA EDITORIAL, 1975.

191) A.S. EDDINGTON – Spazio, tempo e gravitazione – BORINGHIERI, 1971.

192) C.V.DURRELL – La relatività con le quattro operazioni – BORINGHIERI, 1967.

193) R.SEXL, H.K. SCHMIDT – Spaziotempo – BORINGHIERI, I980.

194) L.D.LANDAU, G.B.RUMER – Che cosa à la relatività ? – EDITORI RIUNITI, 1961.

195) L.BARNETT – L’universo ed Einstein – BOMPIANI, 1966.

196) H.BONDI – La relatività ed il senso comune – ZANICHELLI, 1970.

197) J.MARKS – La relatività – NEWTON COMPTON IT., 1976.

198) G. GAMOW – Mister Tompkins, l’atomo e l’universo – MONDADORI, 1962.

199) L.INFELD – Albert Einstein – ElNAUDI, 1952.

200) J.A.COLEMAN – La relatività è facile – FELTRINELLI, 1967.

201) G.LANCZOS – Einstein – UBALDINI, 1967 .

202) S.CIURLEO – La teoria della relatività – D’ANNA, 1973 .

203) M.GARDNER – Che cos’è la relatività -SANSONI, 1977.

204) B.RUSSEL – L’ ABC della relatività – LONGANESI, 1974 .

205) V.TONINI – Einstein e la relatività – LA SCUOLA, 1981.

206) D.PAPP – Einstein, historia de un espiritu – ESPASA CALPE, 1979.

207) P.G.W.DAVIES – Spazio e tempo nell’universo moderno – LATERZA, 1980.

208) H. SOMMER – Relatividad sin enigmas – HERDER, 1979.

209) G. CASTELNUOVO – Spazio e tempo – ZANICHELLI, 1981.

210) W.R. FUCHS – El libro de la fisica moderna – OMEGA, 1975.

211) A.PALATINI – Teoria della relatività – HOEPLI, 1947.

212) J. RECVELD – Relativité – ENSEIGNEMENT ACTUEL DE LA PHYSIQUE, OCDE, 1965.

213) R.E.PEIERLS – Le leggi della natura – BORINGHIERI, I960.

214) P.A.TIPLER – Fisica – ZANICHELLI, 1980.

215) E.M. ROGERS – Matematica e relatività – Riprodotto su THE PROJECT PHYSICS COURSE, Unità 4/5                   pagg.114-139, ZANICHELLI, 1977.

216) C. G. DARWIN –  II paradosso degli orologi – Riprodotto in Ibidem, pagg. 140-141.

217) J.B.MARION – La fisica e l’universo fisico – ZANICHELLI, 1976 . 218) J.OREAR – Fisica generale – ZANICHELLI, 1970.                                     

219) J.OREAR – Fisica generale secondo il metodo dell’istruzione programmata – ZANICHELLI, 1971.

220) B. TOUSCHEK – Corso di relatività ristretta – IFUR, 1973.

221) J.BRONOWSKI – The clock paradox – SCIENTIFIC AMERICAN, febbraio 1963.

222) ALONSO, FINN – Elementi di fisica per l’università – ADDISON WESLEY; 1969.

223) G.GAMOW – Biografia della fisica – MONDADORI, 1972 .

224) G. BERNARDINI – Appunti per alcune lezioni di meccanica relativistica – IFUR, 1964.

225) FEYNMAN, LEIGHTON, SANDS – Lectures on physics – ADDISON WESLEY; 1963.

226) L.FABRE – Les théories d’Einstein – PAYOT, 1922.

227) E.FABRI – Dialogo sulla massa relativistica – LA FISICA NELLA SCUOLA, Anno XIV, n° 1, 1981.

228) W.RINDLER – La relatività ristretta – CREMONESE, 1971 .

229) A.P.FRENCH – Special Relativity – NORTON and CO; New York, 1968.

230) T.REGGE – Spazio, tempo, relatività – LOESCHER, 1981.

231) J.H.SMITH – Introduction to Special Relativity – BENJAMIN, New York, 1965.

232) T.LEVI CIVITA – Fondamenti di meccanica relativistica – ZANICHELLI, 1928.

233) J.D.JACKSON – Classical electrodynamics – WILEY and SONS, 1975.

234) P.CALDIROLA – Lezioni di fisica teorica  – VISCONTEA.

235) G.CORTINI – La relatività ristretta – LOESCHER, 1978.

236) G. CORTINI – Vedute recenti sull’insegnamento della relatività ristretta ad un livello elementare –            QUADERNI DEL GIORNALE DI FISICA 4, Vol. 2°, 1977.

237) L.I.SCHIFF – Experimental tests of theories of relativity – PHYSICS TODAY, novembre, 1968 .

238) N. CALDER – L’universo di Einstein -ZANICHELLI., 1981.

239) H.REICHENBACH – Filosofia dello spazio e del tempo – FELTRINELLI, 1977.

240) E.CASSIRER – La teoria della relatività di Einstein – NEWTON COMPTON IT., 1981.

241 ) H.BONDI – Miti ed ipotesi nella teoria fisica – ZANICHELLI, 1971.

242) M.AGENO – La costruzione operativa della fisica – BORINGHIERI, 1970.

243) D.FAGGIANI – La fisica relativistica e la questione della  ‘verifica’ sperimentale delle teorie                       (Ciclostilato senza altra indicazione).

244) S.RECAMI – Esistono i tachioni ? – IFU, Milano.

245) E. BITSAKIS – Le teorie relativistiche ed il mondo microfisico – SCIENTIA Vol.111, pagg.383-399; 1976.

246) H.LYONS – Gli orologi atomici – In ‘La fisica e l’atomo‘, ZANICHELLI, 1969 .

247) H.BONDI – The teaching of special relativity – PHYSICS EDUCATION, 1, 4, pagg.223-227, 1966.

248) G.CASTELNUOVO – L’espace-temps des relativistes a-t-il contenu réel ? – SCIENTIA, Vol.55, pagg.169-180;     1923.

249) J.TERREL – Invisibility of the Lorentz Contraction – PHYSICAL REVIEW, 116, 4, 1959.

250) G.GIORGI – L’evoluzione della nozione di tempo – SCIENTIA, Vol.55, pagg. 89-102; 1934 .

251) LICEO SCIENTIFICO A. RIGHI (CESENA) – Guida Bibliografica ad Albert Einstein – A. BETTINI, Cesena;     1979

252) A.ROSSI DELL’ACQUA – Lezioni … sulle geometrie non euclidee – ARCHIMEDE, Anno XVI, n° 3, 1964.

253) J.A.COLEMAN – Origine e divenire del cosmo – FELTRINELLI, 1964.

254) H.BONOLA – La geometria non-euclidea – ZANICHELLI, 1975.

255) L.LANDAU, A.KITAIGORODSKIJ – La fisica per tutti – EDITORI RIUNITI, 1969. ù

256) C.M. WILL – Einstein aveva ragione? – BOLLATI BORINGHIERI, 1989.

257) R. FIESCHI – Albert Einstein – Ed. Cultura della Pace, 1987.

258) G. STEPHENSON, C.W. KILMISTER – Special Relativity for Phycicists – DOVER, 1987.

259) C. BERNARDINI – Relatività speciale – LA NUOVA ITALIA SCIENTIFICA, 1991.

260) EINSTEIN – BESSO – Correspondance (1903-1955) – HERMANN, 1979.

261) AA.VV. – Einstein and the philosophical problems of 20th century physics – PROGRESS PUBLISHERS MOSCOW, 1979.

262) B. KOUZNETSOV – Einstein – EDITIONS DU PROGRÈS MOSCOU, 1989.

263) R. HIGHFIELD, P. CARTER – The private lives of Albert Einstein –  FABER & FABER, London 1993.

264) A. PAIS – “Sottile è il Signore…” – BORINGHIERI, 1986.

265) A. PAIS – Einstein è vissuto qui – BORINGHIERI, 1995.

266) L. PYENSON – The Young Einstein: The Advent of Relativity – A. HILGER, TECHNO HOUSE BRISTOL, 1985.



Categorie:Senza categoria

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

%d blogger hanno fatto clic su Mi Piace per questo: