Fisicamente

di Roberto Renzetti

CAPITOLO III

1 – UNO SGUARDO SULL’ 800: RAPPORTI FRA SCIENZA, TECNICA, VITA CULTURALE E CIVILE NELLA PRIMA META’ DEL SECOLO

         La complessità degli avvenimenti, sia politico-economici sia tecnico-scientifici, che si susseguono nel corso dell’800 è tale da sconsigliare, nell’ambito degli scopi di questo lavoro, un’indagine che abbia una qualchE pretesa di completezza. Cercherò, per quanto possibile, di cogliere gli elementi che ritengo più significativi, rimandando alla vasta bibliografia esistente per tutti gli aspetti e gli sviluppi particolari. Su alcuni punti comunque ritengo sia necessario soffermarsi, soprattutto per cercare di capire più a fondo le problematiche che alla fine del secolo porteranno all’affermazione della Relatività einsteniana. In questo senso mi occuperò con qualche dettaglio della nascita e degli sviluppi dell’elettromagnetismo e di alcune questioni di ottica e di termodinamica.

        Anche se non l’ ho teorizzato, credo si sia capito, da quanto precedentemente scritto, che non ritengo si possa cogliere nella sua interezza il processo di crescita delle conoscenze e di articolazione dei dibattiti, dispute o controversie, senza avere come riferimento costante l’evolversi ed  il dialettico intrecciarsi tra progresso delle scienze e delle tecniche con storia sociale e civile dei popoli. Nessuna pretesa di originalità quindi nel ricercare anche ora alcuni aspetti dell’interazione suddetta; solo convinzione di fornire elementi utili ad un proficuo approfondimento.

        I primi anni  del secolo XIX sono segnati, dal punto di vista politico-militare, dalle armate napoleoniche che dilagano in tutta Europa con continue guerre, mai nella storia precedente così sanguinose. Se da una parte la breve vicenda napoleonica scosse la vecchia Europa, retrograda e quasi sempre governata dall’assolutismo (illuminato o meno), diffondendo ideali di libertà, insieme ad una concezione di stato moderno con leggi ispirate ai diritti ed ai doveri del cittadino, d’altro canto essa urtò contro gli spiriti nazionali e, anziché contribuire al diffondersi degli ideali universali dell’illuminismo, generò una massiccia rivolta contro di essi sia da un punto di vista ideale che politico. In ogni caso la politica di Napoleone, fino al suo crollo definitivo (Waterloo, 1815), riuscì ad esportare alcune radicali trasformazioni negli apparati amministrativi degli stati che, già realizzate in Francia, ben presto divennero patrimonio di gran parte dell’ Europa.

         In questa epoca la scienza francese, sorretta da massicci finanziamenti al fine di servire le armate napoleonicbe, fece notevoli balzi in avanti. Le scuole tecniche nate durante la Rivoluzione ebbero un notevole impulso. Una generazione di scienziati si formò in esse ( Malus, Arago, Poncelet, Cauchy, Sadi Carnot, Gay-Lussac, Thenard, Dulong e Petit). Inoltre nacquero  altre scuole e questo fiorire di iniziative, cui partecipavano come insegnanti i massimi scienziati dell’epoca (Monge, Laplace, Lagrange, Berthollet, …), portò sempre di più ad affermare l’attività scientifica come professione. Fare lo scienziato assunse il significato di lavorare per lo sviluppo tecnico-economico-militare del Paese. Per questo si era pagati. Come conseguenza di ciò e proprio perché dallo studioso, a questo punto, si richiedevano prodotti di sempre più immediata utilizzazione, nacque la specializzazione scientifica. Il filosofo naturale, che si occupava con maggiore o minore successo di troppe questioni abbracciando con le sue ricerche e speculazioni campi molto distanti tra loro, andava via via scomparendo. Certamente rimanevano i Laplace ed i Gauss, ma erano gli ultimi residui della formazione in epoca precedente. Da questo momento e fino a quando le difficoltà che nasceranno all’interno delle singole discipline non imporranno una revisione generale trascendente la disciplina medesima, ognuno coltiverà le sue ricerche particolari sempre più specializzate e sempre più chiuse alla comunicazione reciproca. (128)      La separazione tra scienza e filosofia, fatto del quale ancora oggi discutiamo, si realizzò in questo periodo. Gli ideali illuministici che postulavano l’unità del sapere cozzavano ora contro le esigenze militari e produttive. La scienza va sempre più legandosi con il mondo della produzione ed in questo secolo assistiamo al ribaltamento di quanto avvenuto nel secolo precedente; è ora la scienza che razionalmente studia a tavolino i prodotti tecnologici necessari all’aumento della produzione, all’accrescimento dei potenziali aggressivi e qualche volta difensivi degli stati.

” La scienza deve ora attestarsi su canoni metodologici che ne legittimino la ricerca di nuovi standards di esattezza e di rigore, sia manuali che teorici, giustificando lo studio delle leggi naturali e delle loro applicazioni non più in base all’illusione illuministica di essere direttamente uno stimolo per la produzione, ma piuttosto asserendo l’autonomia e la necessità di tale ricerca in quanto valida in sé e destinata prima o poi ad avere applicazioni utili.” (129)

         La filosofia che comprenderà e teorizzerà questi Ideali sarà quella del Positivismo che, prima dell’ enunciazione di Comte (1798-1857), (130)  “si instaura di fatto come atteggiamento generale e come metodo di lavoro nell’ambito dell’Ecole.”  Il Positivismo postula la separazione completa della scienza dalla teologia (laicità dell’uomo e del mondo) ed il netto primato della scienza su altre forme di conoscenza umana. (131) La scienza offre una vasta gamma di risultati ‘positivi’ ma sono soprattutto i suoi metodi che permetteranno il superamento delle argomentazioni ipotetiche, infondate, inverificabili e perciò irrealizzabili. L’adozione di un metodo rigoroso, controllato e comune, il raggiungimento di un’ideale scienza unificata che, nel rispetto delle singole discipline, superi tutti i difetti dell’eccessiva specializzazione e della mancanza di interdisciplinarietà. La scienza è lo strumento indispensabile al progresso dell’umanità. La sua evoluzione permetterà all’uomo di risolvere tutti i suoi problemi di lotta per l’esistenza in una natura sempre meno ostile proprio perché la scienza sempre più è riuscita a sottometterla ai suoi voleri. In questo contesto la filosofia assolve, per Comte, un ruolo importante di ordinatrice e correttrice degli eccessi di specializzazione fino ad arrivare ad un ruolo di promotrice dell’integrazione dei vari risultati che scaturiscono dai vari campi di ricerca.

          E tutto ciò proprio nel momento in cui molti scienziati, come dicevamo, sempre più si disinteressavano di filosofia,  ritenendo le discussioni sull’argomento troppo generali, quindi generiche e perciò sterili. Questo atteggiamento, spesso definito come ‘ positivistico’, fu osteggiato dagli stessi positivisti ed al suo diffondersi contribuirono molto di più le correnti di pensiero che più decisamente si professavano antipositivistiche. (132)  Il disinteresse sempre maggiore da parte dello scienziato per i problemi dell’uomo, con l’ autogiustificazione di far scienza e di stare comunque lavorando per il bene dell’umanità al di sopra di ogni bega contingente, al di sopra delle parti, fu uno degli aspetti più rilevanti ed una delle ‘tentazioni’ più forti dell’800. Basti pensare che ancora oggi ci troviamo a discutere, soprattutto dopo il 1968, della questione della “neutralità” della scienza e della “responsabilità sociale dello scienziato”. (133)

         Ma ritorniamo a quanto tralasciato qualche riga più su. Abbiamo parlato del grande impulso che napoleone dette  alla ricerca scientifica. In concomitanza con ciò, proprio agli inizi del secolo, in Francia si ebbe una grande ripresa dell’attività pratica (tralasciata, come abbiamo visto, per tutto  il ‘700),  gli scienziati francesi volsero i loro interessi alla scienza sperimentale ed empirica proprio per soddisfare le impellenti richieste degli eserciti di Napoleone. La caduta di quest’ultimo, il Congresso di Vienna  (1815), la Santa Alleanza iniziarono quel periodo che va sotto il nome di Restaurazione. Le forze più conservatrici, legate soprattutto alla nobiltà  terriera dell’ “ancien régime”, tentarono di ‘restaurare’ l’ordine sociale ed il potere politico precedente l’esplosione rivoluzionaria. Almeno fino al 1848  il tentativo riuscì e si ripercosse molto gravemente sulla vita scientifica e culturale che venne sottoposta a rigidi controlli. Ma un puro e semplice  ritorno al passato era anacronistico. Le coscienze erano maturate e cresciute, era possibile  reprimere ma non convincere.  In questa fase  la borghesia riprese coscienza del suo ruolo motore per lo sviluppo della società. I primi moti contro i nuovi oppressori si ebbero nel 1820-21  (forze liberali); e quindi nel ’48 (liberali + democratici), dopo un’importante parentesi rivoluzionaria (la Comune di Parigi), proprio la borghesia riprenderà quasi ovunque il potere. (134)  Durante questa prima metà del secolo le vicende legate allo sviluppo della scienza, della tecnica, della cultura in generale e delle forze produttive si differenzia abbastanza da paese a paese.

           In Francia, abbiamo già visto che, a partire dalla Rivoluzione c’è una grande ripresa dell’ attività pratica che comporta una trasformazione notevole della scienza. Uno dei primi compiti, di enorme impegno, che gli scienziati francesi (Monge, Borda, Lagrange, Laplace, Delambre, Coulomb, Berthollet, Lavoisier) si trovarono ad affrontare fu l’unificazione dei pesi e delle misure con l’introduzione del sistema metrico decimale. I lavori iniziarono nel 1793 e si conclusero nel 1799. Questo nuovo sistema fu rapidamente accettato da molti Stati e comportò notevolissime facilitazioni ai commerci. Altri compiti immediati che gli scienziati dovettero affrontare, e che non avevano nulla a che fare con la fisica-matematica settecentesca, erano immediatamente suggeriti dalle esigenze belliche. Monge studiò le questioni riguardanti la fusione e la perforazione dei cannoni. Fourcroy si occupò, come già aveva fatto Lavoisier (nel frattempo caduto sotto la ghigliottina), di sviluppare tecniche atte ad estrarre il salnitro per gli esplosivi dal letame. Allo stesso fine lavorava Berthollet ma con il clorato di sodio e Morveau mediante ossidazione dell’ammoniaca.

        Certamente i problemi che si ponevano erano diversi da quelli teorici affrontati durante il ‘700. Questa tendenza ebbe un maggior impulso durante il periodo napoleonico ed in concomitanza con ciò anche l’evoluzione tecnica delle industrie francesi fece notevoli balzi in avanti.

        Il periodo della Restaurazione vide in Francia un certo successo delle filosofie idealistiche e romantiche che si diffondevano dalla Germania. Personaggi come Chateaubriand, Lamartine, Madame de Staël potranno dar sfogo ad anacronistiche posizioni metafisiche con decisi caratteri antiscientifici. Per la verità la scienza fu poco toccata da tutto ciò la tradizione dell’ École era troppo forte ed ancora per anni riuscirà a produrre importantissimi risultati. (135) Ora però viene a mancare lo stimolo diretto alla produzione che gli imprenditori borghesi avevano fornito negli anni precedenti. Dopo un poco il filone si inaridì e per vari anni non produsse altro che la solita sistemazione dei risultati precedentemente raggiunti (e questo fatto trovava inoltre una teorizzazione nella filosofia del Positivismo che non accettava nessuna elaborazione ipotetica che andasse al di là dei fatti noti).

         In Gran Bretagna, parallelamente a quanto avveniva in Francia nel periodo rivoluzionario e napoleonico, l’attività empirica degli scienziati passava un periodo di crisi. Lo scienziato del Regno Unito, al contrario di quello Francese, spesso langue in miseria non godendo della protezione dello Stato. Non si dispone di finanziamenti per formare scienziati professionisti in scuole pubbliche. L’attività scientifica, anche qui, cambia segno e gradualmente inizia ad interessarsi di questioni di carattere teorico. L’avvertita necessità di cambiamento trovò in Rumford un fecondo interprete, ma i suoi tentativi di rinnovamento, nell’ambito dell’organizzazione e dei metodi delle società scientifiche, non riuscirono a farsi strada in un ambiente restio a mettere in comune le innovazioni tecniche e scientifiche per la paura di concorrenze o plagi sul piano dei brevetti industriali. Riuscirà in parte Davy nel compito che si era prefisso Rumford. Egli otterrà finanziamenti ma presentando la scienza come un qualcosa che oltre ad utile può essere anche divertente.

        In questo paese la Restaurazione non avrà che effetti marginali. Si tratta di contrasti tra la borghesia latifondista ed industriale sulla rappresentanza parlamentare spettante a ciascuna. Fino al 1831, anno in cui gli industriali ottengono una riforma elettorale che dà loro maggiore potere, è la borghesia latifondista che guida il paese, su livelli arretrati rispetto alle spinte innovatrici,  “agitando lo spauracchio della Rivoluzione Francese”.

        Abbiamo già detto della antiquata organizzazione della scienza nelle istituzioni di questo periodo (alla quale aveva in parte contribuito l’isolamento in cui si era chiusa la Gran Bretagna nel secolo precedente). Anche le scuole pativano gli stessi mali. Se si eccettuano le relativamente più giovani università scozzesi, le più prestigiose università inglesi (Oxford e Cambridge) impartivano insegnamenti vecchi e tradizionalisti sotto il controllo culturale di autorità clericali. Ed il dominio dello Stato e delle autorità religiose si cominciò a far sentire in tutti i campi. La scienza veniva sempre più considerata come un qualcosa di eminentemente teorico, visto che tutti i più prestigiosi strumenti della Rivoluzione Industriale provenivano da modesti tecnici senza una preparazione elevata. Si iniziarono comunque a fondare nuove scuole (gli Istituti di Meccanica) per fornire preparazioni diverse; si iniziò ad insegnare la matematica col più semplice simbolismo leibniziano; ma soprattutto si colse la necessità dello scienziato professionista (le ricerche che si dovevano sviluppare erano così complesse che soltanto lavorandovi a tempo pieno c’era la speranza di ricavarne qualcosa e per far ciò occorreva un finanziamento dello Stato o di una grande industria); si fondarono società scientifiche (ad es. l’Associazione Britannica per il Progresso della Scienza – 1831) diverse da quelle tradizionali e pure un tempo prestigiose; fatto però molto importante è che tutto ciò iniziò e si realizzò dall’iniziativa e dai finanziamenti di privati. Solo intorno alla metà del secolo l’intera situazione cominciò decisamente  a migliorare portando la situazione strutturale ed organizzativa britannica  ai livelli di Francia e Germania che, come vedremo tra poco,  era nel frattempo emersa prepotentemente) e facendo di nuovo assumere alla Gran Bretagna una posizione di primato. (136)

        Dal punto di vista tecnologico ed in concomitanza con la relativa stasi dell’industria non si conseguirono i risultati clamorosi della seconda metà del ‘700 ma si lavorò al perfezionamento ed alla migliore ed articolata utilizzazione di quanto già noto. Nell’ industria tessile alcuni miglioramenti tecnologici portarono, tra il 1800 ed il 1830, ad una espansione enorme della domanda a seguito di ribassi clamorosi nei costi di produzione. La generale sostituzione della forza motrice idraulica con quella a vapore comportò la realizzazione di centinaia di opifici non più in zone servite da corsi d’acqua ma in città che, conseguentemente, vissero imponenti fenomeni di inurbamento. (137)  L’impiego poi del vapore nei trasporti ed in particolare nelle ferrovie, (138)   oltre agli ovvi ed incredibili benefici pratici, produsse anche notevoli effetti psicologici sulle nozioni di tempo e distanza.

        In Germania, infine, tra la fine del ‘700 e la prima metà dell’ ‘800, si ha m notevolissimo risveglio della vita culturale in netto contrasto con  l’arretratezza di fondo delle strutture economiche, politiche e sociali. Abbiamo già detto di Kant, dello Sturm und Drang e della nascita del Romanticismo. Non è certo questa la sede per indagare la complessità, e l’eterogeneità del pensiero tedesco, (139) delle posizioni assunte, dei temi affrontati e degli sviluppi che, in sede speculativa, ne conseguirono. Basti solo dire che i principali indirizzi di pensiero assunsero caratteristiche sempre più antilluministiche e nazionalistiche. E se da una parte Fichte, facendo confluire il suo idealismo nei temi più. spiccatamente romantici, si rivolgerà. alla nazione tedesca perché insorgesse contro le truppe napoleoniche che invadevano la Germania, dall’ altra Hegel (l770-l83l) pretenderà, di determinare le leggi della natura a priori, ricavandole semplicemente su basi metafisiche. (140)  A lato di ciò, negli ‘spiriti migliori’ i temi romantici si legavano alle legittime aspirazioni di libertà, ed indipendenza dei popoli. La Germania è un paese diviso in una miriade di piccoli Stati. Ma già nei primi decenni del secolo si fa avanti la Prussia, il più industrializzato tra gli Stati tedeschi, come polo di aggregazione. Della complicata storia della nascita dello stato tedesco, (141) elemento importante fu la fondazione (da parte dell’ imperatore Federico Guglielmo III) dell’ Università di Berlino (l8l0). Questa Università, insieme all’ attività dei ‘filosofi della natura’ che si ispiravano direttamente alla Naturphilosophie di Schelling, fu alla base della rinascita culturale della Germania e della successiva acquisizione da parte di questo Paese del primato scientifico su tutto il mondo. Fu proprio Oken, uno dei filosofi della natura, che fondò nel 1822 la prima società scientifica che rappresentò la rinascita della ricerca scientifica tedesca, su basi più empiriche e sperimentali di quanto fino allora aveva comportato l’eredità di Leibniz. Sulla strada da lui aperta altri si mossero e ben presto, ad imitazione della Francia, sorsero una miriade di scuole politecniche. Cattedre di scienze cominciarono a venir istituite in tutte le università tedesche e, a partire dalla metà del secolo, le scuole sia industriali che commerciali    iniziarono a sfornare una gran quantità di tecnici altamente specializzati. E tutto ciò era proprio finalizzato allo sviluppo dell’ industrializzazione del Paese che, al contrario di quanto avvenuto in Gran Bretagna, non fu promossa da privati ma per diretta iniziativa dello Stato che contemporaneamente, mediante lo sviluppo massiccio dell’ istruzione pubblica, cercava da un lato “di elevare il livello culturale del popolo per incrementarne i bisogni materiali e spirituali e per portare  il semplice operaio a comprendere i nuovi sistemi di produzione meccanizzati; d’altro lato di formare una categoria di tecnici in grado di soddisfare le maggiori esigenze tecniche e scientifiche poste dall’ industria.” (142) In questa dialettica tra Stato, imprenditori privati, popolo, sviluppo industriale ed istruzione, via via si realizzò una maggiore partecipazione della borghesia industriale alle scelte politiche del paese e conseguentemente si conquistarono importanti riforme costituzionali. In definitiva, intorno alla metà dell’ ‘800, è la borghesia industriale che detiene ovunque il potere economico. La pressione di questa borghesia per avere in mano anche il potere politico porterà alle vicende del ’48 che sancirono, praticamente ovunque, il suo trionfo. Con il terreno preparato per il decollo della seconda Rivoluzione Industriale si erano creati profondi cambiamenti economici e sociali che se da una parte avevano definitivamente affrancato l’Europa dall’ Ancien Regime, dall’altro avevano creato i presupposti per l’emergere di una nuova  classe sociale: il proletariato, l’esercito degli operai dell’industria che dispongono solo della propria forza lavoro. L’affermazione della borghesia aveva creato la sua classe antagonista che, proprio a partire dal ’48, dette vita a tutti quei moti di ribellione sociale per migliori condizioni di vita che schematicamente si possono riportare alla nascita del socialismo scientifico di Marx (1818-1883) ed Engels (1820-1895) e che portarono (l917) alla prima Rivoluzione proletaria della storia: la ormai definitivamente tramontata Rivoluzione Russa.

        Dal punto di vista infine del progresso tecnologico legato a quello scientifico ci sono alcune osservazioni che meritano di essere riportate. Innanzitutto c’è da osservare che gli imponenti sviluppi della tecnica del ‘700 e dei primi anni dell’ ‘800 riuscirono a mettere a disposizione degli scienziati strumenti sempre più perfezionati e precisi che tra l’altro permisero di percorrere strade assolutamente imprevedibili fino a qualche anno prima. C’è poi da notare che, soprattutto nella prima metà del secolo, c’è un generale riconoscimento dell’utilità del progresso tecnico che, si ammette, non può più essere affidato ad artigiani, che lavorano su basi esclusivamente empiriche, ma ha bisogno di essere sottoposto a trattamento teorico per ricavare da esso il massimo possibile in un contesto più ampio ed organico.  

2 – LA NASCITA DELL’ELETTROMAGNETISMO (SCHELLING ED OËRSTED) E TENTATIVI DI RICONDURRE I NUOVI FENOMENI ALL’AZIONE A DISTANZA 

  [Da questo capitolo ho tratto il materiale per l’articolo n° 11 dell’indice: “Concezioni particellari nel XVII e XVIII secolo …”. Rimando pertanto ad esso. Salteranno anche le note che vanno dalla 143 alla 161].

3 – LE TEORIE ELETTROTONICHE NELLA GERMANIA DELLA PRIMA METÀ DELL’OTTOCENTO: WILHELM WEBER (1804 – 1890) 

        Le teorie elettrodinamiche, matematizzate da Laplace, Poisson ed Ampère, suscitarono un grande interesse negli scienziati tedeschi. A partire dal 1840 si iniziarono a proporre,  in Germania,  varie teorie elettriche che sostituivano ai fluidi cariche di elettricità di segno opposto, fluenti in versi opposti con uguale densità e velocità. Tra queste particelle cariche si dovevano prendere in considerazione delle forze agenti in ragione della carica trasportata dalle particelle stesse e della loro velocità. (162) Per mezzo di questa teoria, come fa osservare Rosenfeld, (163) Weber riuscì a ricondurre sia le leggi dell’ elettrodinamica che quelle dell’induzione elettromagnetica (si veda più oltre) ad una sola formula che fornisce la forza che si esercita tra due elementi di carica q1 e q2 la cui distanza r vari con il tempo in conseguenza del moto delle cariche. La formula di Weber, nel caso di cariche ferme, fornisce  la legge di Coulomb mentre, applicata al calcolo delle azioni elettrodinamiche tra correnti, fornisce la legge di Ampère appena vista (il moto, dunque,origina delle modificazioni nelle forze !). In questa formula compare un parametro c che rappresenta il rapporto fra l’unità elettrostatica e l’ unità elettrodinamica di carica e l’introduzione di due distinte unità  di carica elettrica è una diretta conseguenza dell’aver assunto la corrente come flusso di cariche elettriche.Questo parametro c è di fondamentale importanza; esso fu misurato per la prima volta proprio da Weber, insieme a Kohlrausch, nel 1855 nel corso di una complessa ed accurata serie di misure fatte per la determinazione assoluta delle varie grandezze che comparivano nei fenomeni elettrici e magnetici. Weber e Kohlrausch trovarono per c il valore di 3,11×1010 cm/sec, coincidente con quello che, negli stessi anni, era stato trovato da Fizeau e da Foucault per la velocità della luce nel vuoto in esperienze di natura completamente diversa (si veda più oltre). Questa coincidenza di valori fu notata da Weber (166) ma egli, nel contesto della sua fisica, non dette molta  importanza alla cosa. (167) Oltre a ciò, come osserva D’Agostino, “come conseguenza della forma delle leggi di forza statiche e dinamiche, espressa dalla legge elementare di Weber, il rapporto elettromagnetico o viene a configurarsi anche come quella velocità limite a cui debbono muoversi le cariche affinché le loro azioni statiche vengano equilibrate da quelle dinamiche (168) – questo secondo significato di c, a differenza del primo, non è più citato oggi nei testi perché non rientra nel quadro che ora si dà dell’elettromagnetismo. Ma allora, a metà Ottocento, fu così che si presentò , per la prima volta,  il concetto di una velocità  limite in elettrodinamica … Fu questo doppio aspetto di c, come velocità della luce e come velocità limite, che a metà Ottocento indusse i maggiori studiosi di elettromagnetismo – Maxwell compreso – ad escogitare metodi per la sua misura.”

        Molte obiezioni e di varia natura furono mosse alla teoria di Weber, soprattutto da Helmholtz e Clausius. Queste obiezioni riguardavano principalmente questioni di carattere energetico legate alla compatibilità della formula di Weber con il principio di conservazione dell’energia che in quegli anni si andava affermando  (si veda più oltre). (170)  La teoria di Weber resse comunque per molto tempo poiché descriveva abbastanza bene i risultati sperimentali che all’epoca si andavano accumulando e perché aveva dimostrato la sua utilità, ad esempio,  nei calcoli fatti da Kirchhoff per valutare il ‘movimento dell’ elettricità nei fili’. (171) Affinché la teoria di Weber potesse reggere, potremmo oggi osservare, abbisognava della nozione di potenziale ritardato che tenesse conto del ritardo nella propagazione dell’interazione elettrica. Riemann fu il primo a rendersi conto di ciò  (1859) quando affermò che “l’azione non è istantanea, ma si propaga con una velocità costante c“. Sulla sua strada si mosse poi Ludwig Lorenz  (172) che ottenne risultati analoghi a quelli che, per altra via, conseguì Maxwell. Egli aprì la sua memoria del 1867 con l’ammissione, derivante – secondo Lorenz – da tutti i fatti sperimentali che si erano accumulati, che le varie forze agenti tra elettricità e magnetismo, tra calore, luce, azioni chimiche e molecolari dovevano essere riguardate come manifestazioni di una e medesima forza che, a seconda delle circostanze, si mostra sotto forme differenti. (173) Questa unità della forza però ci sfugge perché, sempre secondo Lorenz, a seconda dei fenomeni che studiamo ci serviamo, di volta in volta, di ipotesi modellistiche differenti: una volta i fluidi, una volta l’etere, una volta le molecole. Egli propose allora di sbarazzarsi dei modelli (174), che sono più di ostacolo che di aiuto, e di passare a costruire una fisica indipendente da essi. 33 senza far uso di modelli egli si propose di individuare l’ identità tra luce ed elettricità arrivando ad affermare che le vibrazioni della luce sono esse stesse correnti elettriche. Senza dilungarci troppo sull’opera di questo fisico, basti osservare che il risultato cui egli giunse “è che le vibrazioni di una corrente elettrica inducono vibrazioni nelle immediate vicinanze, in completa analogia con quanto accade nel fenomeno di propagazione delle onde luminose.” (175)  Per arrivare a questo risultato Lorenz   introdusse, come avevamo accennato, i potenziali ritardati. (176) In questo modo egli trovò, in modo più diretto, le stesse equazioni che troverà Maxwell, giungendo alla conclusione “che le forze elettriche richiedono del tempo per viaggiare e che queste forze solo apparentemente agiscono a distanza.” (177) Come mai dunque il programma weberiano, che pure con l’introduzione dei potenziali ritardati portava agli stessi risultati di Maxwell, fu abbandonato? Certamente contribuirono cause diverse, tra le quali, con D’Agostino:

   ” 1. Un graduale abbandono del quadro esplicativo di Newton ed Ampère non soltanto in elettrodinamica.

      2. Una certa qual macchinosità delle formule di Weber nel loro adattamento alla spiegazione di quel tipo di      fenomeni elettromagnetici che, alla fine del secolo, saranno al centro dell’ interesse – cioè l’irraggiamento da antenne -, in contrasto con la maggiore semplicità offerta, per gli stessi fenomeni, dalla teoria di Maxwell.

     3. La fecondità dimostrata allora dalla teoria di Faraday -Maxwell nel suggerire nuovi esperimenti” (178) proprio perché sostenuta da un’impalcatura modellistica con apparati di maggiore intuibilità.

Resta il fatto che la teoria di Weber, pur muovendosi come sviluppo del programma amperiano, introdusse degli elementi non solo non riconducibili ma addirittura in contrasto con la fisica newtoniana. Mai Newton aveva, neppure ipotizzato, forze che potessero dipendere dalla velocità.  Ma d’altra parte lo stesso Ampère aveva introdotto angoli tra elementi infinitesimi di circuito! Anche se si continuava a richiamarsi a Newton, questi sempre meno era rappresentato dalla fisica che si sviluppava intorno alla metà dell’Ottocento.

       In chiusura del paragrafo resta solo da ricordare, per quanto vedremo più avanti a proposito di H.A. Lorentz, che la teoria di Weber fu perfezionata nel 1877 da Clausius che fornì una nuova espressione per la legge di forza fra elettroni. In questa nuova relazione non si ipotizzava più che le cariche elettriche fluenti in verso opposto dovessero necessariamente avere la stessa velocità ed inoltre le stesse velocità delle cariche erano considerate rispetto ad un etere immobile risultando quindi velocità assolute, al contrario di quanto accadeva nella formula di Weber dove le velocità erano relative.(178bis)

4 – CRITICA DELL’AZIONE A DISTANZA E FORMULAZIONE DELL’AZIONE A CONTATTO: L’OPERA DI FARADAY

5 – L’AFFERMAZIONE DELL’AZIONE A CONTATTO: MAXWELL, LA FORMALIZZAZIONE DELL’ELETTROMAGNETISMO E LA NASCITA DELLA TEORIA ELETTROMAGNETICA DELLA LUCE

[Da questi due capitoli ho tratto il materiale per l’articolo: “La nascita della teoria di campo i lavori di Faraday e Maxwell”. Rimando pertanto ad esso. Salteranno anche le note che vanno dalla 179 alla 268].

NOTE

(128) Nascono in questo periodo: la matematica pura, la geometria pura, l’analisi pura, la fisica-matematica come disciplina separata dalla matematica, la chimica separata dalla fisica, l’elettrologia come scienza a sé, la termodinamica.

(129) Baracca e Livi in Bibl. 24, pag. 15.

(130) I lavori di Comte saranno pubblicati in sei volumi tra il 1830 ed il 1842. Si osservi che Comte proveniva dall’École.

(131) 1 fatti vanno spiegati con i fatti e dal rapporto continuo e costante con i fenomeni nasce la legge fisica. Bisogna rifiutare ogni postulato metafisico e quindi le cosiddette «ipotesi ad hoc». Naturalmente si nega l’esistenza degli atomi che non sono un fatto ma una mera ipotesi. Si noti che Comte inizia una critica alla pretesa di voler ridurre tutte le scienze alla matematica; secondo il nostro è necessario che ciascuna scienza si sviluppi autonomamente e quindi, solo dopo che ciascuna sarà stata sviluppata a fondo, si tratterà di mettere insieme i risultati in un grande lavoro di sintesi.

(132) Vedi Bibl. 17, Vol. 4, pagg. 12-13. Visto l’atteggiamento assunto da molti scienziati, capeggiati da Bohr, agli inizi del nostro secolo ed in particolare le vicende della Scuola di Copenaghen, in relazione alla nascita ed all’affermazione della meccanica quantistica, sarebbe più corretto, oggi, definire l’atteggiamento dello scienziato che si disinteressa ai problemi filosofici come ‘neopositivista’. Per approfondire in parte questi problemi si può vedere bibl. 57, pagg. 189-233. Sull’argomento vi sono poi degli interessantissimi lavori di F. Selleri (Università di Bari) ma sono di difficile reperimento.

(133) Allo scopo si può vedere bibl. 53, pagg. 65-89 (contributo di Petruccioli e Tarsitani) e Bibl. 58. Ho fatto cenno a ciò proprio perché Einstein sarà scienziato di grande impegno morale e civile.  

(134) Da questo punto in poi per chi volesse seguire con maggiori dettagli e con una impostazione da me completamente condivisa, le complesse vicende dei rapporti tra scienza, tecnica, industria e vicende politiche può senz’altro rivolgersi all’interessantissimo saggio di Baracca, Russo e Ruffo di Bibl. 54. Un’analisi più concisa, sugli stessi argomenti e con lo stesso taglio, si può trovare nel saggio di Baracca e Livi di Bibl. 24.

Un’impostazione diversa dei problemi in discussione, in cui però si ricostruisce la sola storia interna, con un taglio che io non condivido, ma che credo vada conosciuto, si può ritrovare nel lavoro di Bellone riportato in Bibl. 59.

Per capire poi meglio il senso della diversità delle impostazioni si può , ad esempio, vedere a confronto i tre articoli seguenti:

E. Bellone – La scienza ed i suoi nemici – Sapere n° 802 (luglio ’77)

E. Donini, T. Tonietti – Conoscenza e pratica – Sapere n° 808 (febbraio ’78).

A. Baracca. R. Livi, S. Ruffo ed altri – Nemici per la pelle – Sapere n° 808 (febbraio ’78)

Si osservi che rispetto al suo contributo (1972) a Bibl. 53 (La Rivoluzione scientifica dell’ ‘800), Bellone sembra aver cambiato opinione.

(135) Si pensi ai risultati – dei quali discuteremo più avanti – raggiunti da S. Carnot nello studio delle macchine termiche, da Ampère nella fondazione dell’elettrodinamica e da Fresnel nell’affermazione della moderna teoria ondulatoria della luce.

(136) A partire dal 1846 fu Kelvin che dette il contributo decisivo alla modernizzazione dell’insegnamento scientifico con l’introduzione della parte sperimentale nel lavoro di formazione di uno scienziato.

(137) Un’altra innovazione fondamentale fu l’introduzione dell’illuminazione a gas nelle grandi fabbriche; essa ‘permise’ di prolungare il lavoro fino a notte inoltrata.

(138) Solo verso la fine del secolo l’uso del vapore sulle navi permise il raggiungimento di tonnellaggi paragonabili con quelli delle navi a vela. La prima ferrovia è britannica (1825). Nel 1830 si costruì l’importantissima Liverpool – Manchester.

(139) Tra Romanticismo, Idealismo e Razionalismo. In ogni caso, qui in nota, vale la pena dare un brevissimo cenno della concezione romantica della conoscenza della natura. 

” L’ideale romantico [postula] una completa fusione ed unità della ragione umana con il mondo anche al di là delle  delle possibilità, e dei dati offerti da quell’analisi e da quell’indagine empirica e razionale care invece al precedente illuminismo, posto sotto accusa dai romantici proprio perché ritenuto troppo innamorato delle distinzioni, della chiarezza,  e di classificazioni precise che compromettevano la possibilità di quella intima e dinamica fusione. Esso svolse anche, comunque, nonostante la sua componente irrazionalistica, una funzione di stimolo e rinnovamento scientifico, come nell’opera di Oërsted.” (Baracca e Rossi in Bibl. 56, pag. 197).

Un altro aspetto che emerge in alcuni filosofi romantici è che la mante umana ha dei limiti, oltre i quali non può andare, nella conoscenza della natura. Schopenauer, che è tra questi, sostiene che tutti coloro i qualki non si rendono conto di questi limiti diventano facilmente dei materialisti con una propensione particolare a deridere la religione. Solo la filosofia può permettere di superare i limiti che necessariamente sorgono nell’ambito delle scienze naturali. Il lavoro in cui Schopenauer sostiene queste cose è riportato in Bibl. 61.

(140) È interessante notare che questo ritorno alla metafisica da parte di Hegel, che si accompagna ad uno spirito accanitamente antiscientifico fornirà la base, in Italia, all’Idealismo di Croce e Gentile che tanti danni ha prodotto, tra l’altro alla struttura della nostra scuola (si veda allo scopo Bibl. 39). Occorre comunque osservare che questi danni, a 8o anni di distanza, non solo non sono stati riparati, ma addirittura si vanno rapidamente aggravando.

All’idealismo hegeliano occorre poi risalire per trovare la teorizzazione di tutti gli Stati totalitari: “il benessere e la felicità individuale sono fatti empirici, irrilevanti, che non hanno alcuna importanza se posti al confronto con l’autorità dello Stato. La vera e profonda libertà si realizza esattamente nel suo opposto: in una salutare costrizione capace di realizzare il superiore Spirito etico, la vera volontà sostanziale che manifesta l’idea dello Spirito”. E nell’ammirazione dello stato prussiano (” fra esercito, censura, polizia, galere ed un clero … intrinsecamente amorale”) Hegel esalterà la guerra che ” ha l’alto significato che attraverso di essa si preserva la salute morale dei popoli creando in loro l’indifferenza per lo stabilizzarsi di forme determinate” . Per ulteriori, illuminanti dettagli si veda Forti in bibl. 7, Vol. 5, pagg. 13-16 (da cui provengono le citazioni qui riportate).

(141) Basti qui ricordare che nel 1834 si riuscì a realizzare una Unione Doganale che liberalizzò il mercato interno.

(142) Klemm in Bibl. 22, pag. 271.  

*******************************************

(162) L’ipotesi, elaborata nel 1845, è di G. T. Fechner.

(163) Bibl. 65, pag. 1633.

(164) La formula di Weber si scrive:

     F = q1q /r2  .   [1 – (1/2c 2)(dr/dt) + (1/c2 ).r.(d2 r/dt2 )].

Poiché  (dr/dt)2 rappresenta la velocità, elevata al quadrato, delle cariche, mentre d2 r/dt2 la loro accelerazione, si vede subito che, per cariche ferme, si ha la legge di Coulomb (a meno di un fattore moltiplicativo che dipende dalla scelta delle unità di misura). Per cariche non accelerate, quando cioè d2 r/dt2 = 0, se nella formula risulta c = dr/dt, si vede subito che F = 0, cioè che la forza si annulla. Ciò vuol dire che la forza elettrostatica fa equilibrio alla forza elettrodinamica.

Si osservi che una formula analoga era stata trovata da C.F. Gauss (1777-1855), maestro ed amico di Weber (tra l’altro Weber utilizza proprio il sistema di unità di misura detto di Gauss nel quale la legge di Coulomb – vedi più su – risulta essere F = q1 q2 /r2 ). Egli, come confida in una lettera allo stesso Weber (1845), non la pubblicò poiché non era riuscito a trovare, nella legge di forza tra cariche, “un meccanismo pe  il quale la forza stessa  non si esercitasse istantaneamente tra di esse, ma si propagasse con velocità finita al medesimo modo della luce”. (Moneti in Bibl. 63, parte II, pag. 145). Gauss riteneva ciò di fondamentale importanza ed annetteva a questa eventuale scoperta la possibilità di essere chiarificatrice per l’intera elettrodinamica.

(165) Per maggiori dettagli sull’ opera di Weber e sui suoi collegamenti con quella di Ampère, si veda Bibl. 60, pagg. 10-13 e Bibl. 65, pagg. 1633-1635. Si noti intanto che, come vedremo meglio più avanti, il parametro c che compare nella formula di Weber discende dall’adozione di un particolare sistema di unità di misura, quello appunto di Gauss (o Gauss-Weber o Gauss-Hertz). In questo sistema si misurano tutte le grandezze elettriche in unità elettrostatiche (u.e.s.) e tutte le grandezze magnetiche in unità elettomagnetiche (u.e.m.), fermo restando il fatto che le tre unità fondamentali sono il centimetro, il grammo-massa ed il secondo.

(166) Fu Kirchhoff che per primo la notò nel 1857. Per la verità c risultava radice di 2 volte la velocità della luce.

(l67) In un suo scritto Weber commenta ciò dicendo: “questo fatto non è tale da accendere grandi aspettative”. Vale appena la pena osservare che, come vedremo, da questo stesso fatto, Maxwell trasse ben altre conseguenze. È anche interessante notare che questo è uno di quei casi in cui da uno stesso fatto, in connessione con termini teorici differenti, si possono ricavare conseguenze diverse.

(168) Si veda .la prima parte della nota 164, quando si discute l’eventualità che c assuma il valore dr/dt.

(169) Bibl. 60, pagg. 11-12. La sottolineatura è mia.

(170) È interessante notare che in una risposta di Weber (1871) ad una obiezione di Helmholtz egli sostiene che l’obiezione non ha senso perché, se essa fosse vera, si dovrebbero avere particelle dotate di velocità superiori a quella della luce (la velocità della luce sembra già affacciarsi come velocità limite). Helmholtz fece anche un’altra obiezione (alla quale Weber non rispose), per rispondere alla quale, però, bisognava ammettere la propagazione con velocità finita delle onde elettromagnetiche (Bibl. 63, parte II, pag. 149).

(171) All’epoca si facevano i  primi  esperimenti e  le prime messe  in opera dei telegrafi aerei e sottomarini, i quali ultimi richiedevano la posa di cavi molto complessi da calcolare. Il telegrafo era stato inventato da Ampère e realizzato da Morse nel 1839.

(172) Fisico danese (1829-1891) che non va confuso con Hendrich Anton Lorentz (1853-1928) del quale ci occuperemo nel paragrafo 5 del capitolo 17°.

(l73) Si osservi che, oltre a quanto già visto a proposito di connessioni tra fenomeni di vario tipo, verso la metà del secolo, il fisico italiano Macedonio Melloni (1798-1854) colse l’identità della luce con i fenomeni di radiazione calorifica. Per maggiori dettagli si veda Bibl. 66.

 Mi piace soffermarmi un istante su Melloni per ricordarlo, oltre che come grande fisico, il “Newton del calore” come venne definito, (del quale purtroppo si studia poco), come uomo di grandi ideali che partecipò attivamente e sempre dalla parte giusta al Risorgimento italiano (si veda Bibl. citata).

(l74) L’uso dei modelli era stato un punto di forza della fisica meccanicista a partire da Galileo.

(175) Bibl. 63, parte II, pag. 177.

(176) I potenziali ritardati, secondo la definizione di M.B.Hesse (Bibl. 9, pag. 253) sono “potenziali scalari e vettoriali propagantisi in un vuoto con velocità c, in modo che il loro arrivo ad. una distanza r dalla loro sorgente abbia luogo ad un tempo r/c dopo la loro emissione.” Per i dettagli analitici si può vedere bibl. 63, pagg. 178-179.

(177) Ibidem.  Si noti che negli sviluppi della teoria di Lorenz non occorre alcun etere.

(178) Bibl. 60, pag. 13. La sottolineatura è mia.

(178 bis) Per approfondire questa parte si veda bibl.112, Vol. 1, pagg. 234-235.  

***************************************** 

   6DALLE TEORIE SELLA LUCE ALL’OTTICA DEI CORPI IN MOVIMENTO : ULTERIORI FENOMENI NON RICONDUCIBILI ALLA FISICA DI NEWTON

        E’  indispensabile richiamare alcuni fatti lontani per intendere quanto diremo  in  questo  paragrafo.  Lo  faremo  molto  in breve  e,   senza  scomodare  né Platone né Aristotele,  inizieremo a discutere la questione della natura della luce a partire  da Descartes.  (269)  Abbiamo  già  visto  all’inizio  di  questo  lavoro (270) che,  per  Descartes  la  materia  è  estensione.   Quindi  ogni  cosa  o  fatto che sia esteso  ha un comportamento  analogo  a quello  della materia.  La luce  si estende dappertutto: conseguenza di ciò  è che essa deve essere intesa come un  qualcosa di materiale che si propaga “istantaneamente come una pressione esercitata dalle particelle di una materia sottile“. Questa materia sottile, che permette  la trasmissione  delle  pressioni,  anche  là  dove  non appare materia sensibile,  è  l’etere,  di  aristotelica memoria  (la quintessenza),  inteso come un corpo rigido ideale. Va ben chiarito che la luce non è, per Descartes, costituita dal moto delle particelle sottili, ma dalla loro pressione le une  sulle  altre  in un  ‘universo’  tutto  pieno  (oggi  si  direbbe;  onde  longitudinali). L’etere, che riceve una pressione, vibra, come diremmo oggi, intorno alla  sua  posizione  di  equilibrio,  trasmettendo  istantaneamente  la  pressione che ha ricevuto. (271)

       La concezione di Newton è più articolata ed egli, anche se è universalmente noto come padre della teoria corpuscolare della luce, in realtà  non prende una posizione precisa ma pone la questione in forma problematica. (272). In certi  passaggi  sembra  evidente  una sua  adesione  alla teoria  corpuscolare che fa a meno  dell’etere  (questo almeno  fino  al  1671  quando  una polemica con Hooke lo orientò  verso nuove  strade);  in altre parti  della sua  opera  (Una nuova teoria sulla luce e sui colori -1672) pare orientato verso la teoria ondulatoria sostenuta dall’etere  («Le vibrazioni più  ampie dell’etere danno una sensazione di colore rosso mentre quelle minime e più corte danno il violetto cupo;  le  intermedie  colori  intermedi»);  in altri  passaggi  poi,  come  nella Ottica (Libro II, parte III, proposizione XII) del 1704, sembra invece propendere per un’ipotesi  che  “si  direbbe un compromesso tra una teoria ondulatoria ed una teoria corpuscolare,  particelle  precedute da onde,  le  quali  in certo qual modo,  predeterminano  il  comportamento  futuro  delle  particelle”.

        Così scriveva Newton:

I raggi di luce incidendo su una superficie riflettente o rifrangente, eccitano vibrazioni nel mezzo riflettente o rifrangente … le vibrazioni così eccitate si propagano nel mezzo riflettente o rifrangente, in modo analogo alle vibrazioni del suono nell’aria …  ;  quando ciascun raggio è in quella parte della vibrazione che è favorevole al suo moto,  si fa strada attraverso una superficie rifrangente, ma quando si trova nella parte contraria della vibrazione che impedisce il moto, è facilmente riflesso … .” (273)

       E’ solo nella parte finale dell’ Ottica, nelle Questioni 28, 29 e 30, che Newton avanza,  come  ipotesi da investigare,  la sua nota teoria corpuscolare della luce. E’ superfluo notare che ogni ipotesi di Newton è legata ad una possibile, ma non definitiva e neanche tanto importante, spiegazione dei  fatti sperimentali noti e via via osservati. Così, mentre l’ipotesi  onda-particella, vista qualche riga più su, serviva a Newton per rendere conto e della colorazione delle lamine sottili e del fenomeno degli anelli (che portano il suo nome),  la teoria corpuscolare discendeva da una spiegazione che Newton tentava di dare della diffrazione. (274)  L’inflessione che un  raggio di luce subisce Quando passa, ad esempio, al di là di un forellino è interpretata come il risultato di forze attrattive o repulsive tra la materia costituente il corpo diffrangente ed il raggio luminoso (che per questo è pensato costituito da corpuscoli che, in quanto dotati di massa, subiscono l’azione delle forze attrattive o repulsive).

  ” Si comprende come l’incentivo verso una concezione corpuscolare della luce, fosse veramente molto forte. Tanto più che l’ipotesi ondulatoria, [come vedremo] già avanzata da Huygens, in mancanza [della conoscenza del fenomeno e] del concetto di interferenza, prestava il fianco ad obiezioni veramente serie, riguardo alla difficoltà di interpretare la propagazione rettilinea.” (274 bis)

          Quindi, il tentativo di spiegazione dei fenomeni di diffrazione unito al fatto che, secondo Newton, è impensabile una teoria che voglia la luce fatta di onde (“di pressioni“) perché le onde (“le pressioni“) ” non possono propagarsi in un fluido in linea retta” (275) poiché hanno la tendenza a sparpagliarsi dappertutto, (276) porta il nostro alla formulazione (dubitativa) della teoria corpuscolare che si trova nella Questione 29 dell’Ottica, introdotta con queste parole;

  “Non sono i raggi di luce corpuscoli molto piccoli emessi dagli oggetti luminosi ? Infatti questi corpuscoli passeranno attraverso i mezzi omogenei in linea retta senza essere piegati nelle zone d’ombra, com’è nella natura dei raggi di luce.” (276 bis)

         Newton passava quindi ad illustrare alcune proprietà degli ipotetici corpuscoli materiali affermando che essi agirebbero a distanza allo stesso modo dell’attrazione reciproca tra i corpi. I colori della luce ed i diversi gradi di rifrangibilità sono poi spiegati con l’ammissione che la luce bianca sia formata da corpuscoli  di  diversa  grandezza  (“i  più  piccoli  producono  il  viola  … e gli altri facendosi sempre più grandi, producono” via via gli altri colori fino al rosso).  Infine,  con questa teoria,  è  possibile  spiegare  il fenomeno della doppia rifrazione che,  come vedremo,  Huygens non era riuscito a spiegare con la teoria  ondulatoria).  In definitiva,  in  questo  modo,  la  teoria  della luce veniva ricondotta alla più  vasta  spiegazione  che  la gravitazione universale doveva fornire.

       Riguardo ad Huygens va detto che il suo Trattato sulla luce fu pubblicato nel 1691 ma fu scritto intorno al 1676. (277) In questo lavoro,  a chiusura del primo  capitolo,  fa  la  sua comparsa  la teoria  ondulatoria.  Allo  stesso  modo del suono,  dice Huygens,  la luce deve essere un fenomeno vibratorio e cosi come l’ aria sostiene  il  suono,  altrettanto fa l’etere con la luce (278) (l’etere è qui inteso come una materia estremamente sottile e perfettamente elastica).

        Così scriveva Huygens:

  “Ogni punto di un corpo luminoso, come il Sole, una candela o un carbone ardente, emette onde il cui centro è proprio quel punto …  ;  i cerchi concentrici descritti intorno ad ognuno di questi punti rappresentano le onde che si generano da essi  … Quello che a prima vista può sembrare molto strano e addirittura incredibile è che le  onde prodotte mediante movimenti e corpuscoli cosi piccoli possano estendersi a distanze tanto grandi, come, per esempio, dal Sole o dalle stelle fino a noi  …  Cessiamo però  di meravigliarci  se teniamo conto che ad una grande distanza dal corpo luminoso una infinità di onde,  comunque originate da differenti punti di questo corpo,  si uniscono in modo da formare macroscopicamente una sola onda che, conseguentemente, deve avere abbastanza forza, per farsi sentire.” (279)

       Possiamo riconoscere in queste poche righe la formulazione moderna della teoria ondulatoria fino al principio di Huygens o dell’inviluppo delle onde elementari.  Lo  stesso Huygens  illustra questo  principio con la figura 15 che ha il seguente significato: “se DCEF è  una onda emessa dal punto luminoso A,  che è  il  suo centro,  la particella B, una di quelle che si

         Figura 15

  trovano all’interno della sfera delimitata da. DCEF, avrà fatto la sua onda elementare  KCL che toccherà l’onda DCEF in C, allo stesso momento in cui l’onda principale, emessa da A, raggiunge DCEF; è chiaro che l’unico punto dell’onda KCL che toccherà l’onda DCEF è C che si trova sulla retta passante per AB. Allo stesso modo le altre particelle che si trovano all’interno della sfera delimitata da DCEF,  come quelle  indicate con b e con d,  avranno fatto ciascuna una propria onda. Ognuna di queste onde potrà però essere solo infinitamente debole rispetto all’onda DCEF,  alla cui composizione contribuiscono tutte le altre con la parte della loro  superficie che è  più  distante dal centro A.” (280)

       Quanto abbiamo ora detto può essere riassunto da quanto già sappiamo e cioè  che  ogni  punto  in cui  arriva una  vibrazione  diventa  esso  stesso centro di nuove vibrazioni  (onde sferiche); l’inviluppo di un gran numero di onde elementari,  originate in questo modo,  origina un nuovo fronte d’onda,  con centro la sorgente, molto più intensa, delle onde elementari che la compongono. Huygens  proseguiva affermando  che con questo modo  di  intendere  le cose, si spiegherebbero  tutti  i  fenomeni  ottici  conosciuti  passando  poi  a  dare  le dimostrazioni delle leggi della riflessione, della rifrazione, della doppia rifrazione e della propagazione rettilinea della luce. (281) Quando passava però a dare una  spiegazione  dei  fenomeni  che  oggi  si  spiegano  con la  polarizzazione egli molto semplicemente affermava che non gli era stato possibile trovare nulla che lo soddisfacesse. (282)   Riguardo poi alla natura di queste onde ed al loro modo di propagazione,  Huygens diceva:

Nella propagazione di queste onde bisogna considerare ancora che ogni particella di materia da cui un’onda si diparte, deve comunicare il suo movimento non solo alla particella vicina …, ma lo trasmette anche a tutte quelle altre che la toccano e si oppongono al suo moto.”  (282 bis)

E questa è una chiara enunciazione di quella che sarà la più grande difficoltà dell’ottica ondulatoria fino a Maxwell:  il fatto che le  onde luminose risultavano onde di pressione e quindi longitudinali. L’ammissione, inevitabile, di onde longitudinali e non trasversali impediva di pensare  a  qualsiasi  fenomeno  di  polarizzazione   (e  quindi  questa  difficoltà  era alla  base  di  quanto  Huygens  confessava  di  non  saper  spiegare).  Questo punto era ben presente a Newton che nell’Ottica lo cita e ne tenta una spiegazione ammettendo che i  raggi di  luce abbiano dei  «lati» ciascuno dei  quali dotato di particolari proprietà.  Se infatti  si va ad interpretare un fenomeno di polarizzazione mediante onde longitudinali, non se ne cava nulla poiché  “queste onde  sono  uguali  da tutte  le  parti“.  E’  necessario dunque  ammettere  che  ci  sia una  “differenza  …  nella posizione  dei  lati  della luce  rispetto  ai  piani di  rifrazione  perpendicolare.” Come  già  accennato  solo  la  natura  trasversale delle  onde  elettromagnetiche  avrebbe  potuto  rendere conto,  fino  in fondo, dei fenomeni  di  polarizzazione.

       C’è un altro aspetto che differenzia radicalmente la teoria ondulatoria da quella corpuscolare e riguarda la spiegazione del fenomeno di rifrazione  (nel  passaggio,  ad esempio,  da un mezzo  meno  ad  uno  più  denso).

       Secondo la teoria corpuscolare l’avvicinamento alla normale del raggio rifratto è spiegato “supponendo che i corpuscoli di luce subiscano un’attrazione da parte del mezzo più denso nel momento in cui vi penetrano. In tal modo essi vengono accelerati sotto l’azione di  un  impulso  perpendicolare  alla superficie di separazione e quindi deviati verso la normale. Me consegue che la loro velocità è maggiore in un mezzo più denso che in uno meno denso. La costruzione di Huygens basata sulla teoria ondulatoria,  parte da presupposti esattamente contrari  (fig.  16).  Quando un’onda luminosa colpisce una superficie di separazione, genera in ogni punto della superficie un’onda  elementare;

Figura 16

se queste si propagano più lentamente nel secondo mezzo che è il più denso,  l’inviluppo  di  tutte  le  onde  sferiche,  che  rappresenta  l’onda  rifratta … è  deviato verso destra.”  (283)    Anche questo quindi diventava un elemento cruciale per decidere  sulla maggiore o minore falsicabilità  di una. teoria. Se si  fosse  riusciti  a determinare  la velocità  della  luce  in mezzi  di diversa densità  si sarebbe  stati in grado di decidere quale teoria fosse più vera.

        Fin qui le elaborazioni a monte. Abbiamo già visto che, durante il ‘700, l’ottica non fa importanti progressi,  se  si  escludono alcune  questioni  di rilievo  che  provenivano  da  osservazioni  astronomiche  (aberrazione  della  luce) ed il perfezionamento di tutta una serie di  strumenti ottici  (introduzione lenti acromatiche,  telescopi più  grandi,  fotometri,  …).  In ogni  caso,  in linea con tutti  gli  altri  campi della ricerca fisica,  i  newtoniani  decidono che Newton era un corpuscolarista e  pertanto  è  la teoria corpuscolare  della luce che  trionfa  (anche  se  coloro  che  portarono  avanti  queste  idee  abbandonarono l’altro punto che qualificava la teoria corpuscolare di Newton: il fatto cioè  che  il moto dei corpuscoli costituenti  la luce  originasse vibrazioni di un ipotetico  etere).  Questa  scelta ha anche  una giustificazione pratica  di primo piano  ed è  che  la teoria corpuscolare  spiegava, più  cose di  quella ondulatoria; in particolare era molto più immediato con la prima teoria intendere la propagazione rettilinea della luce che, con la seconda, risultava piuttosto confusa (e, come abbiamo visto, non soddisfaceva neppure Huygens).

       Proprio agli inizi dell’Ottocento un giovane medico britannico scoprì un fenomeno *incredibile*; luce sommata a luce, in alcune circostanze, origina buio! E’ il fenomeno dell’interferenza (284) che fu scoperto nel 1802 da Thomas Young (1773-1829). (285) Il modo più semplice di provocare interferenza è                                

quando un raggio di luce omogenea (286),  scriveva Young, cade sopra uno schermo su cui sono stati praticati due piccoli fori o fenditure, che si possono considerare come centri di divergenza, dai quali la luce è diffratta in tutte le direzioni. In questo caso, quando i due raggi, nuovamente formatisi, vanno ad essere intercettati su una superficie interposta lungo il loro cammino, la loro luce risulterà suddivisa da bande scure in porzioni approssimatamente uguali.” (287)

             Anche Young si serviva di modelli meccanici e quello a cui egli si rifaceva per dar ragione di quanto avviene nell’ipotesi ondulatoria, è quello delle onde di acqua in uno stagno. Se due serie uguali di onde,  provocate sulla superficie dell’acqua in punti a distanza opportuna, si incontrano, accadrà, egli osservava, che andranno a combinarsi in qualche modo. In ogni punto della superficie dell’acqua lo stato vibratorio risultante dipenderà dal modo in cui vanno a sommarsi o a sottrarsi gli effetti delle onde sovrapposte. E così, se le onde andranno a sommarsi, sovrapponendosi in concordanza di fase  esse origineranno un’onda più grande delle due componenti prese separatamente; al contrario, se esse andranno ad incontrarsi in opposizione di fase, si distruggeranno l’un l’altra in modo da originare un’onda nulla (acqua immobile).

            Conseguentemente, il principio d’interferenza per la luce era così enunciato:

Quando due parti di una stessa luce raggiungono l»occhio seguendo due diversi percorsi di direzioni molto vicine, l’intensità è massima quando la differenza dei cammini percorsi è un multiplo di una certa lunghezza; essa è minima per lo stato intermedio.” (287 bis)  

            A questo punto Young passava, a calcolarsi la lunghezza d’onda dei vari colori costituenti la luce (288) a spiegare con la teoria ondulatoria i diversi fenomeni ottici conosciuti

            Anche qui egli incontrò grande difficoltà a rendere conto della propagazione rettilinea della luce: ma la difficoltà insormontabile restava sempre quella della spiegazione tramite la teoria ondulatoria ed usando di onde longitudinali  (che Young, in analogia con il suono, riteneva essere caratteristiche della luce) dei fenomeni che  oggi chiamiamo di polarizzazione.

       Proprio in quegli stessi anni, nel 1808, il fisico francese E.M. Malus (l775-l8l2) riuscì a mettere in evidenza l’esistenza della polarizzazione attraverso fenomeni di riflessione: un raggio di luce riflesso si comporta come uno dei  raggi  birifratti  dallo  spato  d’Islanda  e  cioè  non  subisce  più  la  doppia rifrazione  se  fatto  passare  di  nuovo  attraverso  un cristallo  dello  stesso tipo. La spiegazione  che Malus  dava del  fenomeno  è  riconducibile  a  quella  newtoniana dei  lati  delle particelle,  infatti egli pensava che i corpuscoli luminosi fossero asimmetrici  e  si orientassero sia durante la riflessione,  sia durante una birifrazione,  in modo da non potersi più  orientare per successive riflessioni  o  birifrazioni.

       Naturalmente la teoria corpuscolare era sostenuta da gran parte della scuola dei fisici-matematici francesi (288 bis)  tra cui Biot e Poisson  (che tenteranno in tutti i modi,  senza però  riuscirvi,  di ricondurre i fenomeni di  interferenza alla teoria corpuscolare), Laplace e, per un certo tempo, Arago. (289) E fu proprio quest’ultimo che, in un ambiente generalmente ostile, dette un  importante sostegno al fisico che doveva dare nuovo impulso alla teoria ondulatoria fino a portarla al suo trionfo: Augustin Fresnel  (1788-1827).

       Venuto a conoscenza dell’esperimento di Young proprio da Arago, questo fisico profondamente meccanicista,  si propose di indagarlo meglio. Poteva sorgere il dubbio,  infatti,  che le frange d’interferenza osservate non fossero altro che fenomeni di diffrazione provocati dal passaggio della luce nei piccoli forellini. Egli trovò così un altro modo di produrre interferenza che non poteva far sorgere dubbi. Anziché  usare i forellini di Young fece riflettere (l8l6) un raggio di luce, proveniente da una sorgente puntiforme,  su due specchi consecutivi formanti tra loro un angolo prossimo a 180° nel modo indicato in figura 17(a) e  (b).

                                                                                 Figura 17

          Riferendoci alla figura 17 (a), un raggio (onda) luminoso a emesso dalla sorgente puntiforme S, si riflette sullo specchio M1  e si dirige verso il punto P dello schermo C. Analogamente esisterà un altro raggio (onda) b, proveniente da S che si dirigerà verso P, Poiché i cammini dei due raggi sono differenti, i due raggi, in generale, risulteranno sfasati tra loro. Nel caso in cui vi  sia concordanza di  fase tra  le  due  onde,  P  sarà  un punto  in cui  si  avrà un massimo di illuminazione; nel caso in cui le due onde siano in opposizione di fase, in P vi sarà buio;  nel caso di sfasature diverse vi sarà una variazione dell’ intensità dell’illuminazione dal buio al massimo di cui dicevamo. L’effetto complessivo sarà un fenomeno d’interferenza, analogo a quello che sarebbe generato da due sorgenti puntiformi S1 ed S2 ,  (289 bis) che si osserverà sullo schermo C.

        La figura 17(b)  mostra invece più  onde che  vanno  ad  interferire  in diverso nodo sullo schermo C. A seconda del tipo di interferenza,  e quindi di sfasatura, tra le onde interessate,  i punti P, Q, R saranno bui o illuminati a varie intensità.

          Con questa esperienza Fresnel sgombrò contemporaneamente il campo sia dall’interpretazione erronea del fenomeno dovuta ai corpuscolaristi (le frange non hanno nulla a che vedere con l’interazione di tipo gravitazionale tra le pretese particelle di luce ed i bordi delle fenditure) sia da quella altrettanto erronea di Young (le frange non sono generate dall’interferenza delle onde dirette con quelle riflesse dai bordi delle fenditure).  La chiave della corretta interpretazione di Fresnel fu proprio la ripresa del principio di Huygens: ogni punto di una superficie di un’onda può diventare fonte di onde secondarie.  Ebbene,  nel  fenomeno d’interferenza creata con due  forellini, ciascun forellino diventa sorgente di onde; sono le onde che provengono da un forellino che interferiscono con quelle che si dipartono dall’altro.

          Ma fin qui le onde luminose pensate da Fresnel erano longitudinali. Egli, nella sua memoria del l8l6, diceva: “in ogni punto dello spazio dove sta condensato,  l’etere è compresso e tende ad espandersi in tutte le direzioni“,  e queste non sono altro che onde longitudinali.

          Proprio nel l8l6, però, lo stesso Fresnel, insieme ad Arago, scopre che due raggi polarizzati sullo stesso piano interferiscono, mentre se sono polarizzati su piani tra loro perpendicolari non interferiscono più. Il risultato di questa esperienza fu conosciuto da Young il quale, in una lettera ad Arago  (l8l7), avanzò l’ipotesi che le onde luminose fossero onde di tipo trasversale. Arago ne informò Fresnel il quale fece sua l’ipotesi e cominciò a lavorarvi con gran lena. Tra il 1821 ed il 1823 egli riuscì a dimostrare che, con questa ipotesi, era possibile spiegare tutti i fenomeni ottici conosciuti. (290)   La stessa propagazione rettilinea poi, che era stata sempre un grosso problema per la teoria ondulatoria, interpretata correttamente mediante i fenomeni d’interferenza (il movimento che un’onda sferica trasmette si distrugge in parte per interferenza),  non rappresentava più un problema per questa teoria.

        Di problema, semmai, ne nasceva un altro e fu lo stesso Fresnel a prospettarlo nel l821. Ammesse le onde trasversali che così bene spiegavano tutti i fenomeni  ottici,  che  caratteristiche  avrebbe dovuto avere  l’etere  per permettere il loro passaggio ? Le onde longitudinali marciano bene in un fluido, ma per le  onde  trasversali  occorre  un solido  e neppure un. solido  qualunque. Questo solido dovrebbe avere una rigidità teoricamente infinita (vista l’enorme velocità  di  propagazione della luce),  quindi più  elevata di quella dell’acciaio, e nel contempo deve essere più, evanescente di ogni gas conosciuto  per non offrire resistenza ai corpi celesti che da secoli vediamo muoversi nel cielo senza apprezzabili rallentamenti. (291)  Fresnel comunque non ebbe modo di seguire il corso degli eventi: nel 1827,  a soli 39 anni, morì. Ma la strada ad una gran mole di ricerche  sia teoriche che  sperimentali era aperta. In particolare l’analogia tra onde luminose ed  onde elastiche,  che  scaturiva dalla teoria di Fresnel, apriva un vasto campo di ricerche sui fenomeni  dell’elasticità. (292).

        All’obiezione, prima vista, di quella strana doppia natura dell’etere, cercò di rispondere G. Stokes nel 1845, Secondo Stokes la rigidità à relativa e vi sono solidi, come il gesso e la ceralacca, che se da una parte sono rigidi tanto da trasmettere vibrazioni trasversali, dall’altra sono compressibili ed estensibili (risultando molto fragili all’urto meccanico). Si tratta solo di combinare opportunamente le caratteristiche che l’etere solido deve avere per far si che abbia la rigidità richiesta unitamente all’estrema sottigliezza. (293)

        Di questi tentativi ne furono fatti tanti (294)  e dal corpo della loro elaborazione analitica, con la matematica sviluppata dalla scuola francese nel ‘700, con quella sviluppata dai Green e dagli StoKes in Gran Bretagna e con altra che via via veniva ideata allo scopo, scaturirono moltissimi teoremi che furono poi di grande utilità per gli sviluppi ulteriori della fisica (un esempio di ciò l’abbiamo già visto con Maxwell).

        Altro campo di ricerche aperto dalla polemica onde o corpuscoli era quello relativo alla velocità della luce. Non dimentichiamo quanto abbiamo scritto qualche pagina indietro: la spiegazione della rifrazione mediante la teoria corpuscolare prevede che la velocità della luce sia più grande nei  mezzi più densi,  esattamente il contrario di quanto previsto dalla teoria ondulatoria. C’è l’opportunità di un esperimento cruciale  che possa decidere quale teoria descrive meglio i fatti sperimentali osservati. (295)  Fino a circa la metà dell”800 però le uniche misure della velocità della luce (che da ora indicherò  direttamente con c)  erano  state eseguite su fenomeni astronomici.

        Nel 1676 Roëmer, confrontando le immersioni ed emersioni dall’ombra di Giove del  suo  satellite Io,  notò  che  l’intervallo tra due  eclissi  successive era con regolarità minore quando la Terra si avvicinava a Giove e maggiore quando  la Terra si allontanava da questo pianeta.  Roëmer spiegò questo fatto ammettendo che la luce avesse una velocità  finita di propagazione e dopo una serie di accurate osservazioni riuscì a darne il valore.

        Nel 1728. Bradley, osservando un gran numero di stelle, si accorse che esse erano dotate di un moto apparente sulla volta celeste: nel corso di un anno esse descrivevano sulla volta celeste una piccola ellissi  (a questo fenomeno si dà il nome di aberrazione). Partendo da questo fenomeno e dopo accurati calcoli, Bradley riuscì a fornire una nuova determinazione di c.

       Ma nonostante queste importantissime misure effettuate sfruttando fenomeni astronomici, non si era ancora trovato il modo di misurare c sulla Terra: il suo elevato valore fa si che la luce percorre tragitti lunghissimi in tempi brevissimi e tragitti di tale lunghezza non esistono in natura sulla Terra  (296)  a meno di realizzarli con particolari artifici.

        Il primo strumento in grado ai permettere misure di c sulla Terra, che appunto  si  serviva  degli  artifici  suddetti,  fu ideato dal fisico francese H.  Fizeau  (1819-1896)  nel 1849.  L’esperienza di Fizeau permise la misura di c nell’aria ma fu impossibile realizzarla in un altro mezzo perché  la distanza su cui Fizeau aveva operato in questa sua  prima esperienza,  era di circa 9.000 metri.  (297)    

        Chi riuscì ad effettuare la misura di c,  non solo sulla Terra, ma nei limiti  ristretti  di  una  stanza di  laboratorio,  fu l’altro  fisico  francese, L. Foucault  (1819-1868),  nel 1850.(298)  L’essere riusciti  a portare  questa misura in laboratorio  apriva la strada,  immediatamente percorsa, alla misura di c in diversi mezzi ed. in particolare nell’acqua.

       L’esperienza fu eseguita prima in aria, poi in acqua, sia da Foucault  che da Fizeau,  ed  il  risultato comparativo della velocità c dava ragione alla teoria ondulatoria: la luce viaggiava, con una velocità minore nei mezzi più densi ed in particolare nel!’acqua risultava essere circa i 3/4 di quanto non fosse nell’aria.

       Questo argomento sembrò decisivo: la teoria corpuscolare (od emissiva) non sembrava più conciliabile con la realtà dei fatti sperimentali.

       L’ammissione della nuova teoria comportava però nuove difficoltà. Già abbiamo visto le strane proprietà  di cui doveva essere dotato questo etere, contemporaneamente estremamente rigido e sottile, e già abbiamo detto che sulla strada del tentar di  risolvere questi problemi  si  erano mossi una gran quantità di fisici-matematici,  elaborando la cosiddetta teoria, elastica dell’ottica. L’altro problema che si apriva fu individuato dallo stesso Fresnel in collaborazione con Arago,  in una corrispondenza che  si  scambiarono nel l8l8. Avverto, subito che è una questione di estrema importanza per gli sviluppi futuri di questo lavoro e quindi merita di essere seguita con particolare  attenzione  anche  perché  l’argomento  è  delicato.                                                                                 

NOTE

(269) Per ampliare quanto diremo e per uno studio più approfondito dei problemi si può vedere l’importante lavoro di V.  Ronchi (bibl. 86). Per studiare da un punto di vista analitico completo i vari fenomeni discussi ci si può rifare a bibl. 88.

(270) Si veda la nota (°) al cap. 1° e bibl. 3, pagg. 99-102. Alcune delle cose che aggiungerò qui, a proposito di Descartes, Newton ed Huygens, ed in particolare quanto riportato tra virgolette senza indicazione bibliografica, sono ispirate o tratte da bibl. 15, cap, 4.

(271) Le teorie ottiche di Descartes sono esposte nella Diottrica del 1637.

(272) Anche qui, come per le altre vicende riguardanti Newton (e non solo), bisogna distinguere tra Newton ed i newtoniani. Molto spesso si tende a confondere la posizione di Newton con quella che i suoi pretesi sostenitori volevano accreditare. Si capisce certamente la maggiore facilità che ha un preteso storico ad andare avanti per etichette: io non intendo sottoscrivere questo modo di procedere che, per amore di aneddotica, racconta cose non vere o quantomeno discutibili (si veda, ad esempio, E. Persico che in bibl. 88, a pagina 79, fa apparire Descartes come padre putativo della teoria corpuscolare). Questo modo di procedere è tipico di coloro che intendono il progresso scientifico procedente per accumulazione successiva di conoscenze e, naturalmente, con una sua precisa linearità di sviluppo.

(273) Bibl.  87,  pag.  493.

(274) Questo fenomeno, noto già da tempo,  era stato scoperto ed ampiamente studiato da padre Grimaldi (l6l8-l663) e proprio a costui Newton fa riferimento nell’ Ottica. Si osservi che la parola diffrazione fu introdotta dallo stesso padre Grimaldi, mentre Newton non la usò mai preferendo in sua vece il termine inflessione.

(274 bis) Bibl. 90, pag. 195.

(275) Bibl.87, Quest.28, pagg.525-529. Si osservi che Newton respinge qui la teoria ondulatoria affermando che se essa fosse ammessa un raggio di luce che attraversasse un ostacolo, ad esempio un forellino, dovrebbe sparpagliarsi al di là di esso. Non ammette quindi la teoria che gli avrebbe permesso di spiegare le inflessioni della diffrazione senza ricorrere all’interazione luce-materia.

(276) “E, dice Newton, non si è mai vista la luce seguire vie tortuose o penetrare nell’ombra.

(276 bis) Ibidem, Quest. 29, pag. 529.

(277) Si osservi che già Hooke, a partire dal 1672, era diventato un sostenitore di una concezione ondulatoria della luce (pare che per far ciò si sia ispirato ad alcuni passi di padre Grimaldi nei quali quest’ultimo parlava di ” vibrazione della direzione dei raggi “).

(278) E’ importante dare qui alcuni riferimenti.  Il primo che dimostrò  che il suono non si propaga nel vuoto fu un discepolo ed amico di Galileo, Gianfrancesco Sagredo (l571-1620). Egli si serviva di una specie di campanello che era situato all’interno di una campana di vetro dalla quale l’aria veniva quasi completamente tirata via per mezzo di un forte riscaldamento. Si osservi che le prime macchine pneumatiche sono del 1650 (Otto von Guericke). Torricelli fece invece notare che un raggio di luce passa attraverso il vuoto. Altro fatto che merita di essere annotato è la scoperta della doppia rifrazione, fatta nel 1669, dal medico danese E. Bartholin (1625-1698) mediante un cristallo detto «spato di Islanda». Da ultimo osserviamo che un allievo di Bartholin, Olaf Roëmer (1664-1710), nel 1676 riuscì a misurare, per la prima volta, la velocità della luce (calcolando i tempi di immersione ed emersione di uno dei satelliti di Giove, Io, nella zona d’ombra del pianeta. Tutto questo per dire che sia Huygens che Newton lavoravano su questioni sulle quali già si avevano dati sperimentali da sottoporre a trattamento teorico e che interessavano diffusamente gli scienziati dell’epoca. E’ da notare infine che un accostamento,come quello fatto da Huygens, della luce con il suono, se da una parte rende ragione di un mezzo che deve sostenere la luce, così cose l’aria sostiene il suono, dall’altra differenzia completamente i due fenomeni. Insomma, visti i lavori di Sagredo, la luce ed il suono si possono supporre della stessa natura solo se si ammette un etere con particolari proprietà.  

(279) Bibl. 87, pagg. 560-561.

(280) Ibidem,  pag. 562.

(281) La propagazione rettilinea la si può  ancora ricavare dalla figura 15 quando si osserva che il raggio luminoso proveniente da A segue una delle traiettorie rettilinee che si irradiano da A (come quella ABC, segnata) e che risultano perpendicolari al fronte d’onda sferico (ed anche Hooke si era mosso su questa strada). Si osservi che proprio sulla propagazione rettilinea Huygens attaccava i corpuscolaristi, anche se non era soddisfatto neppure della sua teoria; secondo il suo modo di vedere la luce, costituita da corpuscoli, che colpisse un oggetto si sparpaglierebbe dappertutto. Si noti poi che, stranamente, Huygens non si sofferma a spiegare la diffrazione: la spiegazione di questo fenomeno poteva diventare di valido sostegno alla sua teoria.

(282) Oggi sappiamo che quando uno dei due raggi  (o tutti e due),  prodotto dalla doppia rifrazione, viene fatto passare attraverso un altro cristallo di spato d’Islanda, per particolari orientazioni del cristallo, questo raggio non si sdoppia ulteriormente perché è polarizzato. Questa spiegazione non può prescindere dall’ammissione di luce propagantesi per onde trasversali e quindi dalla teoria di Maxwell (un’onda longitudinale non può infatti essere polarizzata !

(282 bis) Ibidem, pag. 561.

(283) Born in bibl.91, pagg.117-118. Le sottolineature sono mie.

(284) Ora, come nel seguito, non mi soffermerò a spiegare fenomeni che compaiono in tutti i testi di fisica per i licei.

(285) Mi piace notare che Young, come Faraday e, come vedremo, Einstein era un outsider. Sarà violentemente attaccato da tutti i fisici ufficiali e ci vorranno degli anni prima che la sua scoperta venga presa in considerazione. La sua posizione di  antinewtoniano era una sorta di reazione allo stato di abbandono (del quale abbiamo già detto) in cui, all’epoca, si trovava la scienza britannica. Egli riteneva che non ci si dovesse cullare con Newton, ma avere fantasia ed imboccare strade nuove. Si noti che anche Young non conosceva la matematica ai livelli richiesti dalla fisica ufficiale  

(286) Oggi diremmo:  monocromatica.

(28?) Bibl. 89, pag. 374. Altri brani originali di Young, che illustrano tra l’altro la sua adesione al dinamismo fisico, si possono trovare in bibl. 56, pagg. 184-195.

(287 bis) Citato in bibl. 19, Vol. 3, pag. 164.

(288) Young fu il primo a tentare questa impresa trovando valori dell’ordine del milionesimo di metro. Questi valori così piccoli per le lunghezze d’onda dei vari colori – rispetto, naturalmente, alle dimensioni degli oggetti macroscopici – lo convinsero del fatto che la luce dovesse propagarsi in linea retta originando ombre nette. Altro fatto notevole, osservato da Young, fu che la velocità della luce emessa da una sorgente intensa è la stessa di quella emessa da una sorgente debole e questo fatto risultava più facilmente spiegabile con la teoria ondulatoria.          

(288 bis) Si ricordi che Euler,  nonostante fosse sostenitore delle idee di Newton in vari campi, in ottica fu sostenitore della teoria ondulatoria (sono le vibrazioni dell’etere che trasmettono la luce). Per leggere un brano originale di Euler sull’argomento, si veda. bibl. 12, pagg, 63-64.

(289) Arago  si convertirà ben presto alla teoria ondulatoria,  anche se ad un certo punto non avrà il coraggio di condividerne tutte le conseguenze. Allo stesso modo Laplace, pur non aderendo mai alla teoria ondulatoria, mostrerà grande ammirazione per i lavori di Fresnel. Si noti infine che il britannico David Brewster (l78l-l868) fu un convinto corpuscolarista.  

(209 bis) S1  ed S2  sono due immagini virtuali e simmetriche di S. Lo strumento descritto è un particolare tipo di interferometro: più avanti ne incontreremo altri tipi.                     

(290) A questo punto però Arago si dissocerà da Fresnel perché, per sua stessa ammissione, non ebbe il coraggio di sostenere l’idea di onde trasversali.

(291) Poisson nel 1828 dimostrò che se l’etere fosse stato un quasi-solido, a lato delle vibrazioni trasversali se ne sarebbero originate altre longitudinali e, alla lunga, queste ultime avrebbero sottratto tanta energia da non rendere più visibile la sorgente.

(292) Per approfondire questi aspetti si può vedere bibl.15, fasc.VII (a) e bibl. 91, pagg. 139-150.

(293) Per leggere un brano originale di Stokes sulla natura della luce, si può vedere bibl. 56, pagg. 243-253.

(294) Agli sviluppi della teoria dell’elasticità, ed in particolare alla teoria elastica dell’ottica, contribuirono, oltre al citato Stokes, eminenti personalità del livello di Poisson, Cauchy (1789-1857), Green, Mac Cullagh (1809-1847), fino al già più volte incontrato W. Thomson.  

(295) La crucialità di questa eventuale esperienza era stata sostenuta da Arago nel 1838. Si tenga conto che, come vedremo più avanti, anche Arago nel l8l0 aveva tentato un’esperienza che dirimesse la polemica tra teoria corpuscolare ed ondulatoria.

(296) Nel 1607 ci aveva provato Galileo utilizzando un paio di lanterne e la distanza esistente tra due colline vicine. Naturalmente non riuscì.

(297) Tra le località parigine di Montmatre e Suresne (8.633 metri).

(298) Mentre Fizeau si servì della rotazione di una ruota dentata, Foucault si servì di uno specchio ruotante (mosso da vapore!). Come già accennato nelle pagine precedenti, lo stesso metodo di specchio ruotante era stato per la prima volta utilizzato da Wheatstone nel 1834 per la determinazione della durata di una scintilla elettrica. Fu quest’ultimo che suggerì che lo stesso metodo poteva usarsi per la misura di c e fu Arago che ne trasse spunto ma, data l’età avanzata, lasciò il compito ad altri. Si noti che Foucault ripeté l’esperienza nel 1862 per dare il valore assoluto di c e trovando un valore molto vicino a quelli oggi accettati (298.000 km/sec). Gli anni che vanno dal 1850 al 1862 furono per Foucault densi di altri lavori:  in particolare, nel 1851 ideò il famoso pendolo (che porta il suo nome) con il quale dimostrò la rotazione della Terra sul proprio asse (dai tempi di Copernico, la prima prova terrestre di ciò). Altro merito importante che va ascritto a Foucault è la scoperta delle correnti parassite.

(299) Allo scopo mi servirò diffusamente di bibl. 81, pagg. 183-192 e di bibl. 91, pagg. 150-180.

(300) E’ il fatto che la luce passa anche attraverso i corpi  (si pensi a quelli trasparenti) che fa ipotizzare l’etere anche dentro i corpi. Si noti che per Huygens risultò una grossa difficoltà lo spiegare la differenza tra corpi trasparenti e corpi opachi (allo scopo si veda bibl.l5, Cap.4, pag.l5 e bibl.86, pagg. 199-200).

(301) Ricordo una delle possibili formulazioni di tale principio: “Le leggi della meccanica hanno la stessa forma in tutti i sistemi inerziali “. Per capire meglio quanto qui sostenuto si può leggere l’altro mio lavoro sull’ argomento (La relatività da Aristotele a Newton – Bibl.3, pagg. 129-144).

(302) Bibl. 91, pagg. 150-151.

(303) Lo stabilire poi se l’etere è un riferimento assoluto sarà un’altra questione che interessa più la speculazione filosofica che non l’indagine sperimentale.

(304) Le accelerazioni rimangono, comunque, assolute (si veda bibl. 3, pagg, 140-142).  

(305) I risultati sono pubblicati in F. Arago: Mémoire sur la vitesse de la lumière, Comptes Rendus; 36; pagg. 38-49, 1810. Si noti che una esperienza di questo tipo era stata proposta da Boscovich nel 1766. Boscovich proponeva di utilizzare il metodo di Bradley per la determinazione della velocità della luce semplicemente con il cannocchiale pieno d’acqua al fine di fare un qualcosa di analogo a quanto fatto poi da Fizeau (vedi più oltre): determinare come il mezzo influisce su c. Ma proprio a seguito di questa, esperienza di Arago (come vedremo) si arrivò a stabilire che il moto della Terra non ha alcuna influenza sul fenomeno della rifrazione della luce proveniente dalle stelle. A seguito di ciò Fresnel ne concluse l’impossibilità dell’esperienza proposta da Boscovich. L’esperienza fu poi tentata da Airy tra il 1871 ed il 1872 confermando le previsioni di Fresnel (si veda più avanti).  

(306) Gli spostamenti dell’immagine dall’asse dovevano essere proporzionali a 2v/c, dove 2v è la differenza tra la velocità della luce nelle due situazioni A e B, e c è la velocità della luce considerata rispetto all’etere supposto in quiete. Una dipendenza di questo tipo (proporzionale a v/c) è detta del primo ordine. Dall ‘esperienza di Arago doveva scaturire un effetto del primo ordine nel rapporto v/c (gli unici effetti che, all’epoca, potevano essere osservati come del resto notò anche Maxwell in una sua lettera pubblicata postuma nel 1880 – allo scopo si veda l’inizio del paragrafo 4 del Cap. IV).

(307) Tengo a sottolineare un fatto forse inutile, ma un risultato negativo di una esperienza è altrettanto importante di un risultato positivo. Vorrei poi ribadire quel che dicevo qualche pagina indietro: l’esperienza di Arago non era progettata per individuare un moto assoluto della Terra rispetto all’etere; solo una lettura a posteriori, non in accordo con la storia, può permettere una tale interpretazione. D’altra parte e’ certamente vero che negli anni immediatamente successivi, fin verso la fine del secolo, questa esperienza fu portata a sostegno della tesi dell’impossibilità di individuare un moto assoluto della Terra rispetto all’etere, al primo ordine di v/c.

(308) Ed inoltre la teoria ondulatoria si stava mirabilmente formalizzando.

(309) Fresnel si sta qui riferendo all’ipotesi di trascinamento totale dell’etere da parte della Terra, ipotesi con la quale, come dice subito dopo, risulta inspiegabile il fenomeno dell’aberrazione.

(310) A. J.  Fresnel, Sur l’influence du mouvement terrestre dans quelques phénomènes d’optique, Annales de chimie et de physique; 9; pag. 57; 1818. Si veda bibl. 123, pagg. 51-52. La sottolineatura è mia.

(311) L’ipotesi in oggetto prevede che l’etere sia in riposo assoluto nel vuoto; in riposo quasi assoluto nell’aria, qualunque sia la velocità di cui quest’aria è dotata; parzialmente trascinato dai corpi rifrangenti. 

(312) L’immagine  è  sia di  Born che di Einstein.

(313) E precisamente quello che si condensa intorno alle sue molecole e che costituisce la quantità in più di etere contenuto nella Terra rispetto a quella che si avrebbe in una uguale pozione di spazio vuoto. Cioè, secondo Fresnel, si ha una maggiore densità di etere nella materia di quanta se ne abbia nello spazio vuoto; nel moto di un corpo nell’etere esso tende a perdere la massa di etere che ha in più (rispetto a quella che si avrebbe in un uguale spazio vuoto) rimpiazzandola via via con dell’altra presa dallo spazio circostante. In questo modo si origina un parziale vento d’etere, all’interno del corpo, che ha verso contrario al moto del corpo stesso. Fu G. G. Stokes che nella sua memoria On the Aberration of Light (Phil. Mag. , 27; 1845) sviluppò una teoria basata su due assunzioni fondamentali:  a) il moto dell’etere è dotato di una velocità potenziale (l’etere è incompressibile ed in esso non si originano vortici); b)  L’etere che sta all’interno dei corpi materiali partecipa totalmente al loro moto; così la Terra si trascina tutto l’etere che ha al suo interno e quello che ha nelle immediate vicinanze; questo moto dell’etere va via via decrescendo finché, nelle zone più lontane dello spazio, esso è totalmente in quiete (teoria del trascinamento totale dell’etere). Poste le cose cosi, in modo abbastanza semplice, si riesce a spiegare, ad esempio, il risultato negativo dell’esperienza di Arago (e di tutte le altre dello stesso tipo), infatti le cose vanno sulla Terra come se essa fosse immobile nello spazio. Una difficoltà molto grossa di questa teoria stava nella sua incapacità di  “spiegare come mai la luce proveniente dalla stella non subisca variazioni di direzione e di velocità nell’attraversare lo strato che separa l’etere dello spazio dall’etere trascinato dalla Terra. Stokes fece un’ipotesi che tenesse conto di tutte le condizioni imposte dalle leggi dell’ottica; ma, come si vide in seguito, essa si dimostrò  in contrasto con le leggi della meccanica” (bibl.91, pag.l67). In definitiva  l’ipotesi del trascinamento totale incontrava gravi difficoltà nella spiegazione del fenomeno dell’aberrazione; ovviamente non riuscì a rendere conto dell’esperienza di Fizeau che invece ben si raccordava con l’ipotesi del trascinamento parziale di Fresnel;  infine, per l’aver introdotto ipotesi in contrasto con le leggi della meccanica (come dimostrerà H.A. Lorentz nel 1886), fu presto abbandonata.

(314) Bibl. 92, pag. 179.

(315) Si ricordi che l’indice di rifrazione  n  è definito come il rapporto della velocità c della luce nel vuoto (nell’etere) con quella c1  della luce nel mezzo materiale:      c/c1   =  n     =>     c1    =   c/n.  E’ importante notare che, da considerazioni relative all’aberrazione stellare, Fresnel fece l’ipotesi che il risultato negativo dell’esperienza di Arago non dipendesse dal prisma in sé, che esso fosse cioè indipendente dalla natura del .mezzo rifrangente.

(316) Per approfondire questa parte si può vedere bibl. 91, pagg. 167-173.

(317) Questo almeno al 1° ordine del rapporto v/c. In ogni caso la strumentazione dell’epoca non avrebbe mai permesso di apprezzare effetti al 2° ordine ( v2 / c2 ) ed in questo senso si era espresso anche Maxwell, come vedremo nel paragrafo 4 del capitolo IV. Occorre notare che il fenomeno dell’aberrazione, come già detto, trovava una soddisfacente spiegazione anche nell’ipotesi di etere immobile, mentre era spiegato con difficoltà dall’ipotesi di trascinamento totale. L’esperienza di Arago invece era spiegata solo dall’ipotesi di trascinamento parziale dell’etere.  

(318) La memoria di Doppler in cui si descrive l’effetto è Sulla luce colorata delle stelle doppie e di qualche altro astro celeste (Memorie dell’ Accademia delle Scienze di Praga, 1842). Anche qui occorre notare che Doppler, per il suo lavoro, prendeva le mosse da una critica alla teoria ondulatoria di Fresnel ed in particolare alle supposte vibrazioni trasversali. La critica fu poi portata avanti in modo più compiuto in un altro lavoro del 1843.

(319) E già la cosa risultava molto difficile tanto che Maxwell nel 1867 dovette rinunciare ad una tale osservazione. Soltanto nel 1869, dopo l’introduzione in queste ricerche di uno strumento a doppio prisma ed a visione diretta, costruito nel 1860 dal fisico italiano G.B. Amici (1785-1863), fu possibile l’osservazione dell’effetto Doppler sulla luce proveniente dalle stelle.

(320) Sia Wollaston che Fraunhofer osservarono le righe scure che attraversavano lo spettro solare (di ciò parleremo più diffusamente nel paragrafo 2 del cap. IV). Si osservi che la prima verifica sperimentale dell’effetto Doppler acustico fu realizzata dal meteorologo olandese C.H. Buys-Ballot (1817-1890) nel 1845. La prima verifica sperimentale dell’effetto Doppler realizzata in laboratorio si deve invece al fisico russo A.A. Bielopolskij (1854-1934) che la effettuò nel 1900.

(321) Fizeau indicava anche la possibilità di misurare la velocità relativa degli astri mediante gli spostamenti delle loro righe spettrali. Si noti che Doppler applicò, a torto, la teoria del fenomeno alla spiegazione della luce colorata delle stelle.

(322) Per separare l’effetto del moto proprio delle stelle da quello della Terra che si avvicina o si allontana si può procedere per confronto mediante l’analisi degli spettri degli elementi costituenti la stella, fatta sulla Terra e lo spettro della stella (confronto ripetuto a sei mesi di distanza). Gli spostamenti di colore che si osservano alternativamente in un senso e nell’altro sono dovuti al moto della. Terra, gli spostamenti costanti sono dovuti al moto proprio della stella (bibl.91, pag.l54). Si deve notare che la prima prova sperimentale degli spostamenti delle righe spettrali degli astri in avvicinamento od allontanamento fu data da E. Mach nel 1860.

(323) Chi fosse interessato all’argomento può vedere bibl. 91, pagg. 155-161.

(324) Ricordo che il rapporto v/c si dice quantità del primo ordine, mentre il rapporto v2/c2  si dice quantità del secondo ordine. Detto questo vediamo il senso della frase cui si riferisce la nota. Supposto che v sia la velocità della Terra e c quella delle luce, poiché v = 30 km/sec e c = 300.000 km/sec, il rapporto v/c vale 1/10.000  mentre il rapporto v2/c2  varrà 1/100.000.000. Ciò rende conto della estrema piccolezza di questa quantità e dell’enorme difficoltà a rilevarla sperimentalmente. Arrivare comunque a queste misure di altissima precisione sarà un problema che si porrà molto presto (alla fine dell’Ottocento).

(325) Bibl. 91,  pag. 160.  

(326) L’esperienza, nei suoi dettagli costruttivi completi, è descritta in bibl. 93, Vol.4, pagg. 40 7-409. I risultati di Fizeau sono pubblicati su: A.H.L. Fizeau, Sur les hypothèses relatives à l’éther lumineux, et sur une expérience qui    paraît dé montrer que le mouvement des corps change la vitesse avec laquelle la lumière se propage dans leur intérieur, Comptes Rendus, 33, pagg. 349-355, 1851.

(327) Si osservi che se il trascinamento fosse stato completo, il coefficiente di trascinamento  a   = 1 – 1/n2   sarebbe stato semplicemente uguale ad 1, di modo che sarebbe risultato: W = c/n ± v. Questo fatto certamente si accordava con il principio classico di composizione delle velocità, ma altrettanto certamente non tornava, ad esempio, per la spiegazione del fenomeno dell’aberrazione (come si può vedere in bibl.91, pagg. l74-177). Se invece non vi fosse stato trascinamento di alcun genere sarebbe stato W = c/n in ogni caso poiché, rispetto al mezzo (l’etere) in cui si muove, la luce manteneva la sua velocità non dovendo comporsi con nessun’altra.  

(327 bis) Bibl. 124, pagg. 15-16.

(327 ter) Si veda la nota 305.  

(327 quater) Bibl. 19, Vol. 3, pag. 177. La sottolineatura è mia.

(327 quinquies) Bibl. 124, pag. 22.

CAPITOLO IV

1  –  LA RIPRESA DELLO SVILUPPO CAPITALISTICO A PARTIRE DAL 1848: VICENDE POLITICO-ECONOMICO-SOCIALI IN CONNESSIONE CON LO SVILUPPO TECNICO-SCIENTIFICO  (438)

       Abbiamo già accennato nel paragrafo 1 del precedente capitolo che la borghesia industriale è la detentrice del potere economico intorno alla metà del secolo XIX.  Le vicende  del  ’48 non fanno altro che  sancire  questa egemonia a livello politico. La. Restaurazione delle classi aristocratiche e latifondiste è  dovunque battuta e,  nonostante  una  profonda crisi  economica che  si abbatte sull ‘Europa, il terreno è preparato per l’ imponente balzo in avanti indicato comunemente come seconda rivoluzione industriale.  

       Dopo il ’48 si sente il bisogno di un generale riassestamento dei sistemi politici ed economici dei vari Stati che passa attraverso un più decisivo ridimensionamento degli strati sociali più conservatori.

       ” Lo sviluppo capitalistico ha ormai bisogno di una struttura politica liberal-democratica, dell’unificazione dei mercati nazionali, di un. sistema economico liberistico, di un aumento delle disponibilità finanziarie e monetarie. Nel ventennio che segue il 1848,  infatti,  prendono consistenza o si compiono i processi di unificazione nazionale (in particolare della Germania intorno alla Prussia e dell’Italia intorno al Piemonte); le borghesie nazionali incrementano gli investimenti all’estero, aboliscono le misure protezionistiche allargando e consolidando un’area internazionale di libero scambio, che incoraggia l’attività imprenditoriale, cui il temporaneo rialzo dei prezzi ed anche  l’attività   bellica  forniscono  un  consistente  sostegno;   si   sperimentano nuove forme di credito e si sviluppa un sistema bancario solido e compatto. Il trattato commerciale franco-britannico del 1860 ispirato alla libertà di commercio è  seguito da tutta una serie di trattati aventi analoga ispirazione.”  (439)  Matura anche l’esigenza di superare la crisi economica mediante una ripresa della  produzione  per  portarla  a  livelli  superiori  a  quelli,  pure importantissimi, del passato. D’altra parte le aperture doganali impongono una ristrutturazione industriale finalizzata alla penetrazione, in regime di concorrenza, sui mercati esteri e, contemporaneamente, alla. difesa dei prodottti nazionali  da  quelli  di  importazione.  Si  impone  quindi  un  nuovo  balzo  tecnologico che trasformi l’industria, facendole superare i ristretti limiti che le erano imposti dal ferro e dal vapore su cui essa essenzialmente  si fondava. Occorre inventiva, non più osservare, descrivere e sottoporre a trattamento teorico dei fenomeni, ma prefigurarli ed inventarli; la metodologia di ricerca deve mutare:  l’uso delle  ipotesi,  dei  modelli  e delle  analogie  si  fa  sempre più  spinto,  l’elaborazione  teorica  sempre  più  astratta. In questo  contesto le risposte dei tecnici diventano sempre più  insoddisfacenti; nell’ultima  metà  del  secolo  è  la  scienza  che  si  porrà  come  strumento  formidabile per lo sviluppo della tecnica,  finalizzata alla produzione industriale.  La scienza, sempre più, acquisterà i connotati di scienza applicata e avrà i più importanti  successi  proprio in quei  paesi che come  la Germania, e  gli Stati Uniti cureranno di più questo suo aspetto (attraverso la particolare struttura educativa, attraverso l’istituzione di laboratori di ricerca direttamente inseriti nell’industria, attraverso la promozione da parte dello Stato, attraverso lo stretto legame che si va instaurando tra laboratori universitari ed industria). Si inverte cosi il rapporto scienza-tecnica che fino alla prima metà  del  secolo  aveva visto  quest’ultima.  come  trainante  per  tutti  i  problemi che nascevano  nella produzione industriale ed anche come  suggeritrice  di tematiche all’elaborazione scientifica. Il nuovo ruolo che la scienza acquista, come fattore determinante di un nuovo modo di produzione, comporta una specializzazione sempre più spinta nei vari settori di ricerca, come del resto era richiesto dal tipo di evoluzione che l’industria subiva.

        La produzione di macchine per l’industria era stata, fino alla prima metà dell’Ottocento, la costruzione, ancora essenzialmente di tipo artigianale, di grosse macchine per la grossa industria, con costi molto elevati. Pian piano si affermò una duplice esigenza, da una parte di produrre macchine più piccole che potessero servire alle esigenze dell’industria che oggi chiameremmo piccola e media, (440)  e dall ‘altra di alimentare gli standards di precisione costruttiva, in modo sii rendere intercambiabili alcuni pezzi ed, in definitiva,  in modo da  passare  alla produzione  in  serie.  Quindi  anche  nella costruzione  di  macchine  si  richiede una  specializzazione  sempre  più  spinta da raggiungersi con il  perfezionamento delle macchine utensili,  con l’uso di materiali  più  adeguati  e con un’ingegneria più  accurata.

        Vale la pena soffermarsi un istante sulle piccole macchine e sulla produzione in serie.

        Abbiamo già detto che si sentiva l’esigenza di macchine più piccole e meno costose per lo sviluppo della piccola e media industria che per molti  versi sarebbe diventata un supporto formidabile alla grande industria. In genere quest’ultima delega la costruzione di piccole parti, di accessori, di particolari pezzi, ad una industria più piccola che per ciò stesso diventa satellite della prima. Ma se il ritmo di produzione delle due è sfasato, se cioè la grande industria produce più in fretta perché ha a disposizione macchine automatiche più veloci, mentre la piccola industria, essendo ancora  legata a processi artigianali, produce più lentamente, non c’è raccordo possibile. E’ quindi necessario introdurre il nuovo modo di produzione anche in industrie più piccole , da necessario supporto a quelle grandi.

        Una macchina ad aria calda (vapore surriscaldato), dovuta allo svedese J. Ericsonn  (l803-l889)  e basata sul ciclo di Carnot,  fece la sua comparsa nel 1833 ed ebbe una certa diffusione intorno al 1850. Essa fu però abbandonata per la sua scarsa efficienza. Nel 1860 il belga  E. Lenoir (1822-1900) costruì un motore ad accensione elettrica, alimentato da una miscela esplosiva di gas ed aria,  che funzionava come una particolare macchina a vapore. Ebbe subito successo e se ne costruirono molti esemplari.  Nel 1862 il francese A. B. de  Rochas  (1815-1887)  inventa  il  ciclo  a  4  tempi  per  il  motore  a  scoppio. Fondamentali per questa scoperta furono i brevetti degli italiani E. Barsanti (1821-1864) e F. Matteucci (l808-l887), per il motore atmosferico (1854), per il motore bicilindrico  a  gas  (1856),  per  il  motore  a  pistoni  concorrenti  in  un’unica camera di scoppio (1858), per il motore a pistone libero (l859). E’ doveroso notare che i motori Barsanti-Matteucoi furono i primi ad essere accoppiati a delle macchine utensili (cesoia e trapano nelle Officine della Ferrovia a Firenze, 1856) e che solo una non adeguata protezione dei brevetti permise di assegnare ad altri la paternità del motore a scoppio. In ogni caso,  sulla base  del  ciclo  di  de  Rochas, i tedeschi  H.A.  Otto  (l832-l88l)  ed E. Langen (1833-1895) ottengono un brevetto per un motore atmosferico identico (ed addirittura più  arretrato relativamente alla trasmissione del moto)  a quello di Barsanti-Matteucci.  Questo motore ha il pregio di consumare 2/3 meno del motore Lenoir.  ” In dieci anni furono vendute quasi 5.000 macchine atmosferiche da un quarto di cavallo fino a tre cavalli.” (441)  Il  successo fu grandissimo ed aumentò notevolmente quando, nel 1876,  lo stesso Otto costruì  il  famoso  motore  silenzioso  a  quattro  tempi,  alimentato  dalla  solita miscela esplosiva di gas ed aria, che risultava, molto meno pesante ed ingombrante della macchina atmosferica.

        Una caratteristica che mancava ancora alle piccole macchine motrici era la trasportabilità;  infatti  esse  erano  legate,  come  ad  un cordone  ombelicale, alla conduttura del gas.

        Fu l’altro tedesco G. Daimler (l834-1900) che, nel 1883, costruì un leggero e veloce motore a benzina. Ma il motore che doveva avere i più clamorosi sviluppi  (che poi portarono all’automobile) fu brevettato nel 1885, indipendentemente da O. Daimler e C. Benz (1844-1929). Da ultimo, alla fine del secolo (l892), vide la luce il motore con accensione per compressione di R. Diesel  (1858-1913)  estremamente versatile  sia all’uso  in impianti fissi che mobili, sia in impianti della più disparata potenza.  

        Connesso con lo sviluppo dei motori a benzina ebbe un grande incremento la richiesta  di  materia  prima,  il  petrolio,  da cui  la benzina  ed  il  gasolio venivano ricavati. A partire dal 1857, quando in Romania venne perforato il primo pozzo di petrolio e dal 1859 quando iniziarono le prime perforazioni negli Stati Uniti,  la produzione di questa materia prima crebbe sempre di più anche se la sua importanza diventerà fondamentale solo dopo la fine della prima guerra mondiale.

        La richiesta di piccole macchine , a prezzi accessibili, sarà comunque soddisfatta,  come vedremo,  dalle applicazioni  pratiche della scienza elettrica.

        Passiamo ora a discutere brevemente dell’altra esigenza di cui si diceva: l’accuratezza ingegneristica nella costruzione di macchine per permettere 1’utilizzazione di pezzi intercambiabili.

        Le prime macchine a vapore erano state costruite con utensili molto rozzi e con una mano d’opera scarsamente qualificata. Già Smeaton, nel 1760, doveva lamentarsi molto di questo stato di cose; nelle sue macchine, tra cilindro e pistone, c’era uno spazio di circa mezzo pollice  (su un diametro del cilindro di circa 28 pollici). (442)  Questa approssimazione nella costruzione era  responsabile di alte perdite di potenza. Si cercò di porvi rimedio coprendo  la parte superiore del cilindro con uno strato d’acqua ma, nel  progetto di Watt, dovendo la macchina funzionare con cilindro  sempre caldo,  questo  sistema,  non  poteva  essere  adottato.  Ci  furono  quindi  serie  difficoltà  per  la  realizzazione del progetto di Watt che furono superate solo quando J. Wilkinson (1728-1808) riuscì a brevettare (1774) un trapano perfezionato che rese possibile la fabbricazione di cilindri di precisione. Il problema era quindi quello di una sempre maggiore precisione   nella progettazione e,  soprattutto, nelle macchine per la costruzione di macchine.

        Che sulla strada di ricerca di precisione si marciasse dovunque, lo dimostra il fatto che nel 1765 il costruttore francese di armi, Le Blanc, introduce, nel processo di fabbricazione dei moschetti,  l’intercambiabilità dei pezzi. Ciò vuol dire che ogni pezzo deve essere esattamente uguale ad un altro di modo che, in caso di rottura del primo, sia possibile montarne un secondo al suo posto.

         Quindi, via. via, vengono realizzate macchine (443)  sempre più in grado di costruire  pezzi  uguali  tra loro. Questo aspetto non è indipendente però dalla ricerca di materiali sempre più affidabili. Si realizzeranno così acciai sempre più adatti ai fini che si volevano conseguire. E per far questo si dovette anche lavorare sui particolari convertitori per produrli (Bessemer, Siemens, Thomas, Martin,…). (444) Per alimentare questi giganteschi “forni” si ricercano sempre nuove e più affidabili fonti di energia. In tal senso lo sviluppo dell’elettricità è perfettamente funzionale ad ogni esigenza produttiva. L’elettricità gode della proprietà di essere “localmente” controllabile. Non serve cioè avere un generatore nel luogo d’uso, ma basta un cavo per trasportare la fonte di energia dove si vuole (445).  Tutte le realizzazioni, le innovazioni, le scoperte subivano imponenti accelerazioni (ad opera essenzialmente di tedeschi e statunitensi, in connessione con la ripresa dello sviluppo capitalistico dopo le vicende del ’48) nell’ultimo quarto di secolo. L’elettricità in soli 70 anni divenne completamente matura. Ma questo processo riguardò moltissimi altri settori, tra cui quello chimico, a partire dall’industria dei coloranti (446); quello dell’automazione e dei miglioramenti dei rendimenti termodinamici (447); insomma, veramente dovunque, si avanzò in modo da cambiare radicalmente la struttura del mondo produttivo, dei modi di produzione, delle condizioni di vita della gente (448).

          Inizia ad emergere con chiarezza lo stretto legame che l’industria instaura con la ricerca da cui attinge a piene mani. D’altra parte lo stesso mondo scientifico, almeno quello più intraprendente, lavorava direttamente per l’industria (Weber, Kohlraush, Kirchhoff, Kelvin,…)

            Per dare solo un indice di come tutto ciò  rivoluzionò l’intero modo di  produzione  industriale,  si  pensi  che  alla  fine  del  Settecento  (1787) il lavoro nei campi di 19 contadini riusciva a produrre un surplus sufficiente ad alimentare una persona che viveva in città, mentre agli inizi del Novecento (1935) gli stessi 19 contadini riuscivano a produrre un surplus sufficiente ad. alimentare 66 persone che vivevano in città (i dati sono riferiti agli Stati Uniti). Si può quindi ben capire come industrializzazione e meccanizzazione dell’agricoltura dovessero andare di pari passo: sarebbe stato altrimenti impossibile distogliere mano d’opera dai campi per servire alla produzione nell’industria.  

             Ma per lo sviluppo di tutti i ritrovati tecnici che si andavano accumulando era indispensabile una enorme disponibilità di capitali.

” Sul piano finanziario l’immissione di nuovo oro sul mercato e l’introduzione della carta moneta aumentano notevolmente le disponibilità monetarie e, con la caduta del saggio d’interesse, si espande contemporaneamente il volume del credito … Le banche commerciali per azioni, nate in Gran Bretagna, si diffondono rapidamente sul continente, favorendo una grande mobilitò di capitali e una notevole efficienza nell’utilizzazione delle risorse finanziarie.” (449)

Con la crisi poi che graverà su tutta l’Europa a partire dal 1873 fino al 1896 (grande depressione economica dalla quale solo la Germania riuscì ad uscire quasi indenne) “il sistema bancario e finanziario subisce trasformazioni profonde per rispondere alle nuove esigenze: da un lato la domanda di capitali per il dilatarsi delle imprese industriali con ritmi crescenti di innovazione tecnologica, dall’altro la quota, sempre più elevata di investimenti all’estero. Il capitale si da’ così forme nuove: nascono società finanziarie per azioni i cui rappresentanti siedono nei consigli di amministrazione delle aziende ed il cui potere di controllo si esercita a tutti i livelli della vita economica, politica e sociale.” (450)             

          Ma all’interno delle fabbriche non si produceva soltanto con le macchine e con il capitale: occorreva anche la forza lavoro degli operai. Leggiamo in proposito un brano scritto nel 1844 da un industriale tedesco, F. Harkorts:

 ” I grandi capitali sono sorti soprattutto attraverso le colpe delle amministrazioni, dei monopoli, dei debiti pubblici e del deprecato traffico della carta moneta. Essi sono alla base dei giganteschi impianti, conducono alla truffa che va oltre il bisogno, ed. opprimono le piccole officine, mediante le quali, prima, anche chi non era dotato di mezzi poteva farsi una strada con la propria diligenza, con una giudiziosa tendenza all’agiatezza. Con l’introduzione delle macchine, con la suddivisione del lavoro che viene spinta fino all’inverosimile (ad esempio nell’industria degli orologi esistono 102 rami diversi a cui vengono indirizzati i vari apprendisti),  (451) sono necessarie soltanto una forza limitata ed assai poca intelligenze, e con la concorrenza il salario deve essere limitato al minimo indispensabile per restare in vita. Se appena si verificano quelle crisi di sovraproduzione, che sempre si ripetono a breve distanza, le paghe scendono subito al disotto dei limiti minimi; spesso il lavoro cessa completamente per qualche tempo …. Così come stanno ora le cose i fanciulli vengono impiegati soltanto per deprimere le paghe degli adulti; se i minorenni verranno eliminati dalla cerchia di  coloro  che  possono  lavorare,  i  più  anziani  troveranno  migliori  compensi per il lavoro delle loro mani. Anch’io appartengo alla categoria dei padroni dell’industria, ma disprezzo di tutto cuore la creazione di qualsiasi valore e ricchezza che si faccia a spese della dignità umana, ed abbassi la. classe dei  lavoratori.  Il compito della macchina è  di  sollevare  l’uomo dalla servitù animalesca, non quello di creare ulteriore schiavitù.” (452)

Harkort concludeva questo brano affermando che, migliorando le condizioni di vita dei lavoratori (case e cibi sani, riduzione dell’orario di lavoro, educazione scolastica, compartecipazione agli utili, …), si  sarebbe raggiunta una produzione di gran lunga maggiore. E quanto scriveva Harkort non era che lo specchio di una condizione di vita operaia veramente insopportabile: bassi salari, completa precarietà del lavoro, giornate lavorative fino a 16 ore, abitazioni e cibi malsani, mortalità  infantile che arrivava fino a 300 per ogni mille nati vivi  (” il punto più basso nello sviluppo sociale che l’Europa abbia conosciuto dall’alto Medio Evo”, così lo ha definito lo storico liberale Lewis Mumford), ritmi frenetici con conseguenti molteplici incidenti, abbondanza di malattie professionali per le condizioni di lavoro in fabbrica (la fabbrica era definita dallo stesso Mumford come ” La casa del Terrore”). Anche i fanciulli, perfino di 6 e 7 anni, venivano impiegati e perfino nelle miniere (si pensi che ci volle la legge mineraria inglese del 1842 per vietare il lavoro in miniera alle donne ed ai bambini di età inferiore a … 10 anni ! Si pensi poi che l’uso dei bambini nelle fabbriche di cotone durò, negli Stati Uniti, fino al 1933).

        Vi furono vari tentativi di accordo tra operai e padroni dell’industria ma, l’accordo stipulato in un certo periodo, veniva regolarmente non rispettato dai padroni in un periodo successivo.  

        Verso la metà del secolo fu il tedesco Karl Marx (l8l8-l663) che, con estrema lucidità, denunciò le condizioni di lavoro degli operai, analizzando i rapporti esistenti tra capitale, lavoro salariato e profitto,  arrivando a prospettare l’organizzazione rivoluzionaria degli sfruttati per l’abbattimento della società capitalistica e per l’emancipazione del proletariato,  (454) ed operando attivamente a questo fine “combattendo con una passione, con una tenacia e con un successo come pochi hanno combattuto … Marx era perciò l’uomo più odiato e calunniato del suo tempo. I governi, assoluti e repubblicani, lo espulsero, i borghesi, conservatori e democratici radicali, lo coprirono a gara di calunnie.” (455)  Ma l’eredità che questo uomo ha lasciato al movimento operaio di tutto il mondo è il bene più prezioso di cui esso dispone. “Marx ed il movimento dei lavoratori che a lui si collegava contribuirono a far si che lo Stato, a partire dall’ultimo quarto del XIX secolo, si sforzasse di migliorare le condizioni di lavoro e di vita dei lavoratori dell’industria, con una legislazione di politica sociale progressista.” (455 bis)

        A parte queste considerazioni  pur fondamentali, e per le quali rimando ai vari testi specializzati, rimane il fatto che, a partire dalla metà dell’Ottocento, iniziarono conflitti sempre più estesi tra i padroni dell’industria e gli operai in essa. occupati, soprattutto a partire dall’inizio degli anni ’70  quando, come abbiamo già accennato, una profonda crisi economica, che avrà il suo culmine nel crack del 1873 e sarà superata solo nel 1896, si abbatté su tutta l’Europa. 

Qui, come in occasione delle altre crisi cicliche, il meccanismo di accumulazione capitalistica si inceppa, si restringono i margini di realizzazione del profitto ed emerge drammaticamente la contraddizione tra il livello di produttività raggiunto e la struttura rigida del mercato nell’ambito dei rapporti di produzione esistenti. La caduta del saggio medio di profitto diventa una concreta realtà che impone una trasformazione di tutto il complesso della struttura produttiva al fine di rimettere in moto e dare nuovo slancio al meccanismo di sviluppo capitalistico. [A questa crisi il mondo industriale risponde con] la chiusura della fase di libero scambio che aveva caratterizzato il ventennio precedente e tutti i governi innalzano nuovamente rigide barriere doganali: si sviluppa così l’esigenza sempre più pressante del controllo dei mercati d’oltremare e delle fonti di materie prime e le nazioni europee fanno a gara nella conquista di nuovi territori in Asia e in Africa. Contemporaneamente l’urgenza di uscire dalla crisi e di superare la fase di depressione impone un radicale processo di riconversione produttiva, alla ricerca di più elevati standard di organizzazione e livelli tecnologici.”(456) 

Da una parte quindi si inaugura l’età del colonialismo e dell’imperialismo e dall’altra la necessità di riconversione porta alla fine di tutte le imprese più deboli e ad una grossa espulsione di operai dalle fabbriche. La strada che si imboccò fu quella dell’ulteriore automazione che porterà alle teorizzazioni e realizzazioni dello statunitense F.W. Taylor (1856-1915), fondatore del metodo dell’organizzazione scientifica del lavoro (parcellizzazione), all’introduzione delle catene di montaggio e ad un grosso aumento di produzione.

          Oltre a ciò si costruirono grosse concentrazioni industriali sotto forma di società per azioni, cartelli e trusts che ben presto assunsero il ruolo di multinazionali,

 :         Nel processo di ristrutturazione, a partire dalla crisi de ’73, la Gran Bretagna e la Francia persero il loro primato produttivo, economico, industriale, commerciale e scientifico-tecnologico. Questo primato passò alla Germania ed agli Stati Uniti.

            Indagare con una qualche pretesa di completezza questo passaggio di primato ci porterebbe troppo lontano, ma alcuni elementi per comprenderlo possono essere delineati.

           Certamente la struttura produttiva della Gran Bretagna era, ancora alla metà del secolo, di gran lunga la più possente tra tutte le altre; e qui già  si può cogliere un primo  elemento del declino di questa potenza (che per molti versi è simile a quello della Francia): una struttura. solida, che ha dei processi produttivi consolidati già da anni, presenta molto maggiori difficoltà alla riconversione industriale e tecnologica (a meno che si rinunci a gran parte del profitto per le cicliche indispensabili innovazioni).  Altro elemento fondamentale, alla base della perdita del primato britannico, fu la struttura scolastica ed educativa. Questa difficoltà non si presentò invece alla Germania (ed agli Stati Uniti) che paradossalmente risultò avvantaggiata dalla sua preesistente arretratezza. (456 bis)

         Mentre la Gran Bretagna, manteneva ancora una scuola profondamente classista in cui solo chi aveva soldi poteva andare avanti e non c’era alcun incentivo statale alla pubblica istruzione, mentre in questo paese l’istruzione non aveva alcun legame con il mondo della produzione e forniva una preparazione rigida e poco flessibile, al contrario, in Germania, c’era una grossa promozione statale alla pubblica istruzione, che era obbligatoria a livello primario, non c’era selezione sul censo, c’era una grossa selezione ma solo sulle capacità e la preparazione, c’era una scuola strettamente legata alle esigenze produttive, una scuola molto elastica e flessibile che preparava personale disciplinato ed altamente qualificato, in grado di poter cambiare mansione in caso di necessità; oltre a ciò vi erano anche moltissime scuole per adulti ed in particolare per operai che erano facilitati a frequentarle per il fatto che la legislazione dello Stato faceva obbligo agli industriali di lasciar loro del tempo libero per poter accedere ad esse.

         Per quanto riguarda poi l’istruzione tecnico-scientifica a livello superiore, essa lasciava molto a desiderare in Gran Bretagna, pochi erano gli istituti che vi si dedicavano, pochi coloro che li frequentavano. La stessa struttura rigida della produzione che aveva creato il miracolo britannico ora diventava un ostacolo  alla successiva espansione, non richiedendo il contributo di nuovi tecnici e scienziati.

        In Germania, invece, le scuole tecniche prolificavano. Vi erano una quantità di istituti di ricerca altamente specializzati, gli studenti potevano preparare liberamente piani di studio, i laboratori erano attrezzatissimi, vi si faceva molta ricerca alla quale erano avviati anche gli studenti, vi erano borse di studio vere per studenti meno abbienti, vi si sviluppava, una grande sensibilità ai problemi della produzione. Oltre a ciò, come già accennato, era la stessa industria che da una parte si legava strettamente a questi centri di ricerca (soprattutto per la chimica) e dall’altra manteneva propri laboratori con molti ricercatori al lavoro.

        Ed a proposito del declino della Gran Bretagna, Cardwell osserva che “il  fallimento  non  fu  affatto,   in  quel   periodo,   un  fallimento   economico;   fu, invece, sostanzialmente un fallimento scientifico e tecnologico.” (458)

        E’ quindi interessante notare che questo fallimento sul piano scientifico e tecnologico è riferito essenzialmente a quanto sia la scienza che la tecnica potevano fare per lo sviluppo dei processi produttivi, infatti non è per nulla vero che in Gran Bretagna non si facesse più scienza, anzi se ne faceva e molto sofisticata (Maxwell, Rayleigh, J.J. Thomson, Rutherford,…), ma non era la scienza che serviva per i settori trainanti dal punto di vista produttivo, non era scienza applicata e non fu in grado di inserirsi nei rivolgimenti scientifici di fine secolo e degli inizi del novecento. Come osservano Baracca e Livi tutto ciò mostra “ancora una volta che l’evoluzione della scienza non dipende solo dalla pura rilevanza fisica dei risultati, ma dal modo in cui essi si inseriscono in un processo più complesso, caratterizzato dai livelli di integrazione della scienza nel sistema produttivo e dalla capacità di quest’ultimo di valorizzarne nel modo più completo la ricaduta tecnologica.” (459)

        La situazione degli Stati Uniti era in parte simile ed in parte radicalmente diversa da quella della Germania. Questo paese era di relativamente recente costituzione. Negli anni che vanno dal 1861 al 1865 esso aveva dovuto affrontare la sanguinosissima guerra di secessione degli Stati del Sud che, per altri versi, segnò un grosso sforzo produttivo a sostegno delle esigenze belliche, che comportò anche un grosso sforzo tecnologico sia per le stesse esigenze belliche in senso stretto sia per sopperire alla mancanza di mano d’opera, principalmente nei campi, proprio per effetto della guerra. E’ dalla fine di questa guerra che gli Stati Uniti iniziarono la lunga marcia verso il primato produttivo, scientifico e tecnologico a livello mondiale.

        Le enormi distanze nel territorio, la scarsità di mano d’opera, le enormi ricchezze della terra sia per usi agricoli che estrattivi, furono da stimolo ad uno sviluppo che si differenziava da quello europeo. In questo Paese la necessità imponeva soprattutto di occuparsi di trasporti, comunicazioni (la conquista del West) ed automazione (per sopperire alla scarsità di mano d’opera)  (460)  sulla base, soprattutto, di una notevole mole di tecnologia empirica. (461)     D’altra parte anche le prestazioni operaie erano scarsamente qualificate a causa della inesistente tradizione culturale e quindi educativa di quel Paese. Pertanto gli Stati Uniti puntarono essenzialmente sulla quantità di prodotto e sulle industrie di assemblaggio, al contrario di quel che faceva la Germania che puntava sulla qualità del prodotto e sulle industrie di trasformazione ad alta tecnologia. Tutto ciò comunque portò gli Stati Uniti al primato che condivise con la Germania alla fine del secolo. La Gran Bretagna  invece, alla fine del secolo, pur mantenendo ancora un certo primato in alcuni settori produttivi, che erano stati quelli che avevano fatto la sua fortuna all’epoca della prima rivoluzione industriale (industrie tessili e minerarie), si trovava nella situazione in cui il resto delle sue industrie “erano per lo più filiali di ditte americane e tedesche o erano state impiantate da stranieri naturalizzati.” (462)

        Quelli che ho dato sono certamente brevi cenni ma possono servire da spunto di riflessione per eventuali integrazioni e necessari ampliamenti.

        Prima di concludere questo paragrafo ci rimane da fare alcune considerazioni sulle correnti di pensiero dominanti nella seconda metà dell’Ottocento.  

        Il primo dato che emerge e’ il tramonto del Romanticismo in connessione con una diffusa fiducia nelle capacità della scienza di risolvere i problemi  dell’uomo  e  di  essere  il  motore  del  progresso  (non meglio  identificato). Questo atteggiamento di fiducia nella scienza, che ai può senz’altro definire positivistico, non è tanto rintracciabile nell’opera di un qualche autore dell’epoca (occorre rifarsi a Comte) quanto appunto in un diffuso stato d’animo che nasceva, nelle classi che facevano cultura, in connessione con i successi della scienza e della tecnica. Si trattava di una sorta di ammirazione attonita che non si preoccupava di andare a comprendere l’infinità delle implicazioni sociali che il balzo tecnologico comportava, ma si accontentava soltanto di considerare i dati più appariscenti della questione. Questo atteggiamento culturale può essere riassunto in un semplice slogan: e’ solo la scienza che fornisce verità; la religione e la metafisica (e quindi la filosofia) non ci aiutano ad andare avanti.

               Questo atteggiamento si accompagnava ad un declino della filosofia tradizionale in tutta Europa. Da una parte la scienza con le sue problematiche in terne, esterne e sui fondamenti, dall’altra l’incapacità, da parte di quella filosofia, di cogliere il dibattito per mancanza degli strumenti di comprensione della materia del contendere. La scienza era sempre più strutturata nel suo formalismo che tendeva via via ad anticipare fatti piuttosto che a spiegarne di noti, ed al suo interne nacquero e si svilupparono tutte quelle tematiche che, in connessione con la crisi del meccanicismo e le formulazioni evoluzionistiche, aprirono un dibattito e talvolta uno scontro tra visioni diverse del mondo e dello stesso modo di fare scienza. 

               La filosofia che non coglieva questa dinamica e non diventava filosofia della scienza rimaneva esclusa dal dibattito dovendo ripiegare su se stessa.

              Ci furono certamente dei tentativi di salvaguardare la ‘purezza’ della filosofia insieme al suo primato sulla scienza (considerata, appunto, una forma di conoscenza inferiore) e tra di essi vanno ricordati quelli tardopositivisti (dei quali ci occuperemo ancora) e quelli irrazionalisti (per i quali rimando ad un testo di filosofia).

               Una menzione a parte la merita invece la corrente di pensiero pragmatista, che vide la luce nell’ultimo quarto di secolo negli Stati Uniti, secondo la quale, ed in accordo con la visione della scienza cose forma inferiore di conoscenza, sono solo le applicazioni che danno una misura della validità del sapere scientifico (anche ‘la filosofia’ ha ben capito chi è che paga).                                                                                                                                                  

              In ogni caso, al di là delle singole correnti di pensiero, emergeva con forza il problema dei rapporti scienza-filosofia.

            Questa scienza che cambia i suoi metodi ed i suoi contenuti; mette in discussione i fondamenti; si impone all’attenzione per le sue potenzialità produttive; ebbene, questa scienza rappresenta l’elemento più importante da discutere alla fine del secolo. Se solo si pensa che anche Marx ed Engels (463) (e più tardi Lenin) sentirono il bisogno di occuparsi di scienza, entrando in argomento, in modo discutibile se si vuole ma certamente con cognizione di causa e puntuale conoscenza dello specifico, ci si rende conto di quanto attuale fosse il problema da qualunque parte fosse guardato. Ma la separazione scienza-filosofia si andava via via consumando con effetti incalcolabili che ancora oggi stiamo pagando.

              Nei settori più consapevoli, comunque, per capire le connessioni ed i rapporti esistenti tra scienza e scienza e tra scienza e società, nacque l’esigenza di una storia delle scienze che non fosse una semplice cronaca dei fatti ma che andasse a ricercare l’origine profonda dei concetti, dei fatti, delle leggi, delle varie formulazioni e teorie, che non si succedono staticamente in un processo di accumulazione successiva ma si articolano dinamicamente in una dialettica molto complessa che non ha solo referenti interni ma anche e, per quanto abbiano visto, soprattutto esterni.

             La fine dell’Ottocento vide anche un’altra novità che a buon diritto può essere considerata rivoluzionaria. Molta enfasi viene spesso data all’inaugurazione galileiana del metodo sperimentale, ma quasi mai si pone attenzione alla svolta che si operò alla fine dell’Ottocento, a partire dai lavori di Maxwell. Per la prima volta si rompeva lo schema galileiano e, con il demandare agli altri la verifica sperimentale delle ipotesi e delle teorie, si inaugurò quel processo che, come portato della divisione del lavoro e della sua sempre più spinta specializzazione, approdò alla separazione tra teoria ed esperimento, con la nascita prima del fisico teorico e poi della fisica teorica.

             E, sempre in questo contesto, in cui la scienza si rivestiva di un alone di superiorità, gli addetti ai lavori iniziarono a trovare un alibi al di-sinteresse dell’uso che veniva fatto delle loro scoperte scientifiche. E quest’ultimo aspetto non ha più un carattere di storia ma di cronaca contemporanea soprattutto se si pensa che ancora oggi c’è chi dice che è la curiosità che muove la scienza, e che quest’ultima è perfettamente neutrale. (464)  

NOTE

(438) Per quel che riguarda la bibliografia generale che serva ad approfondire quanto qui solo accennato rimando alla nota 134.

(439) Bibl. 24, pag. 29. La frase fra parentesi è mia.  

(440) Questa esigenza è ben espressa in uno scritto dell’ingegnere P. Reuleaux (1829-1905) che, nel 1875, così si esprimeva: Solo il grande capitale può permettersi di acquistare ed. usare le potenti macchine a vapore … Bisogna rendere l’energia indipendente dal capitale. Il modesto tessitore sarebbe liberato dal prepotere del capitale se potessimo mettere a disposizione del suo telaio, nella misura giusta, la forza motrice che gli serve. Lo stesso potrebbe farsi con successo nel campo della filatura … Altri campi sono quelli della costruzione di mobili, di chiavi, di cinghie, quelli dello stagnino, del fabbricante di spazzole, di pompe, ecc… Quindi ciò che la meccanica deve fare per ovviare ad una gran parte del capitale, è fornire piccoli quantitativi di energia a buon prezzo o, in altre parole, realizzare piccole macchine motrici, il cui esercizio esiga spese assai modeste.” (Da Klemm, bibl. 22,  pagg. 347-348).

(441) Bibl. 22, pag.347. Si ricordi che un cavallo potenza (HP) vale circa 76 Kgm/sec, mentre un cavallo vapore (CV) vale 75Kgm/sec. Riguardo alla nascita del cavallo come unità di misura di potenza si può vedere bibl. 45, pagg. 44-45.  

(442) II pollice, unità di misura di lunghezza, corrisponde a 2,54 cm.

(443) – Nel 1794 il britannico J. Bramah (1746-1614) inventa il porta-utensili scorrevole per torni paralleli e nel 1795 la pressa idraulica;

– nel 1797 il britannico H. Maudsley (l771-l83l) migliora il porta-utensili per filettare munendolo di un banco a slitte e di un accoppiamento a madrevite;

– nel 1801 il francese M. Brunel  (1769-1849) costruisce i primi trapani;

– nel 1832 lo statunitense E. Mhitney (1765-1825) costruisce la prima fresatrice per la realizzazione di superfici piane e costruisce le prime armi statunitensi a pezzi intercambiabili;

– nel 1802 ancora J. Bramah realizza la prima piallatrice meccanica;

– nel 1807 il britannico W.  Newberry inventa la sega a nastro;

– nel l8l0 ancora Maudsley completa la realizzazione del primo tornio di precisione, interamente costruito in ferro, con il quale si possono fabbricare viti con filettature precise e cilindri molto ben centrati e rettificati (con questo tornio inizia la produzione standardizzata di viti e cilindri);

– nel 1825 il britannico J. Glement (1779 -1844) realizza una macchina in grado di spianare perfettamente le superfici metalliche;  “con l’aiuto di questi cilindri e superfici piane perfetti l’inglese J. Whitworth (l803-l887) sviluppò, negli anni 1830-50, il suo misuratore di precisione a vite, che permetteva di misurare con una sensibilità fino ad un milionesimo di pollice, e i suoi torni di precisione, le sue macchine spianatrici, perforatrici, tagliatrici e modellatrici che gli diedero fama mondiale” (bibl. 16, Vol. II, pag. 530).

– nel 1840 lo stesso Whitworth propose che si adottassero, nella costruzione di macchine, sia pezzi intercambiabili lavorati entro strette tolleranze, sia filettature unificate.  

(444) L’acciaio, per le sue caratteristiche, era di gran lunga preferibile per la costruzione di macchine che,  proprio perché  soggette a rapidi movimenti,  erano enormemente sollecitate. I prima acciai si cominciarono a produrre a partire dal 1783 quando il britannico H. Cort  (l740-l800)  inventò  il  sistema di puddellaggio,  atto alla loro fabbricazione.  Nel 1811 il tedesco F.  Krupp  (1787-1826)  inaugurò ad Essen la prima fonderia d’acciaio (nella Germania e già nel 1812 iniziò la produzione dei primi acciai inossidabili.

        Leghe di acciaio furono anche studiate e create da M. Faraday (!) nel 1822 ma gli acciai speciali ad alta robustezza e resistenza si cominciarono a realizzare a partire dal 1856 quando, il britannico H. Bessemer (l8l3-l898) inventò il convertitore,che porta il suo nome, per la produzione, appunto, dell’acciaio ed il tedesco P. Siemens (1826-1904), uno dei quattro fratelli Siemens, inventò il forno a rigenerazione,sempre per la produzione dell’acciaio.

        Nel 1862 la Krupp aveva già installato il primo convertitore Bessemer del continente.

        Appena tre anni dopo (l865) i fratelli Martin, francesi, misero a punto un processo che, integrato con quello Siemens, permetteva, un notevole risparmio di combustibile (processo Siemens-Martin).

        Sia il convertitore Bessemer che il processo Siemens-Martin erano però adatti alla lavorazione di minerali senza tracce di fosforo e si adattavano quindi bene ai giacimenti britannici e continentali esclusa la Germania i cui giacimenti erano ricchi di minerale fosforico. La soluzione a questo problema fu trovata dal britannico S.G. Thomas (1850-1685) che  con il processo che porta il suo nome permise lo sfruttamento dei giacimenti del Belgio, della Lorena e della Germania.

             Intanto nel 1668 era stato installato negli Stati Uniti il primo convertitore Bessemer.

             A questo punto il grosso era fatto ma le richieste dell’industria si facevano sempre più  pressanti;

-nel 1881 Siemens costruisce il forno elettrico per la fusione dell’acciaio;

– nel 1884 il processo Thomas viene esteso ai forni Martin;

– nel 1888 viene prodotto il primo acciaio speciale con forti percentuali di manganese;

– nel 1889 viene prodotto un altro acciaio speciale, quello al nichel;

– nel 1900 F.H. Taylor produce i primi acciai  rapidi  per utensili che consentono elevate velocità di taglio.

(445) Certo, perché l’elettricità arrivasse a questo grado di funzionalità,  sono stati necessari molti successivi passi,  ciascuno dei quali,  anche se in tempi relativamente brevi,  ha rappresentato una tappa complessa e piena di implicazioni  soientifico-tecnologiche. Cerchiamo di ripercorrere questi passi a partire dalle due fondamentali scoperte alla base della tecnologia elettrica: quella di Volta e quella di Faraday.

 – Nel 1800 A. Volta costruisce la pila elettrica, prima tappa fondamentale nello sviluppo dell’elettrotecnica;

 – nel 1803 il tedesco J. Ritter (l776-l8l0) progetta l’accumulatore elettrico;

 – nel 1809 H. Davy costruisce l’arco elettrico;

 – nel 1820 il tedesco T.J. Seebeck (l770~l83l) riesce a magnetizzare l’acciaio;

 – nel 1822 lo stesso Seebeck dimostra, che la corrente fa variare la temperatura di un circuito dando inizio alla termoelettricità;

 – nel 1822 il britannico P. Barlow (1766-1862) dimostra la trasformabilità dell’energia elettrica in energia .meccanica (ruota di Barlow);

 – nel 1822 il tedesco G. S.. Ohm (1787-1854) ricava la legge che porta il suo nome e che lega tensione, corrente e resistenza;

– nel 1624 il francese J.C. Peltier (l785-l845) scopre l’effetto termoelettrico;

– nel 1825 lo statunitense M. Sturgeon (1783-1850) costruisce il primo elettromagnete d’uso pratico;

– nel 1831 M. Faraday scopre il fenomeno dell’induzione elettromagnetica e costruisce il primo semplice generatore di corrente alternata;

– nel 1831 lo statunitense J. Henry (1797-1878) costruisce il primo semplice motore elettrico;

– nel 1832 il francese H. Pixii (1776-1861) costruisce una macchina per produrre corrente alternata con il primo dispositivo commutatore per ‘raddrizzarla’;

– nel 1832 ancora Henry scopre il fenomeno dell’autoinduzione;

– nel 1833 Gauss e Weber realizzano il primo telegrafo elettrico;

– nel 1836 il francese A.P. Masson (l806-l880) realizza correnti elettriche indotte ad alta tensione;

– nel 1837 lo statunitense J. P. Morse (1791-1872) costruisce la prima linea telegrafica di uso pratico;

– nel 1838 il tedesco H. von Jacobi (l801-l874) costruisce un motore elettrico ad elettromagneti, alimentati da una batteria di pile, con il quale fa muovere un battello sulla Neva;

– nel 1840 ancora Masson insieme a L.F. Breguet  (l804-l883) costruiscono un trasformatore;

– tra il 1840 ed il 1844 ad opera, indipendentemente, del britannico W. Grove (1811-l896), del ‘britannico de Moleyns, dello statunitense J.W. Starr, del francese L. Foucault, vengono realizzati i primi tentativi per lampade ad incandescenza;

– nel 1845 G. Wheatstone modifica i generatori elettrici sostituendo i magneti permanenti con elettromagneti;

– nel 1848 G. Kirchhoff estende la legge di Ohm a circuiti complessi a più rami ;

– nel 1850 viene posato, attraverso la Manica, il primo cavo telegrafico sottomarino;

– nel 1851 il tedesco W. J. Sinsteden (l803-l878) costruisce il primo alternatore elettrico monofase;

– nel 1855 l’italiano De Vincenzi brevetta la prima macchina da scrivere elettrica;

– nel 1859 l’italiano A. Pacinotti (l841-1912) costruisce un indotto per macchine elettriche (anello di Pacinotti) , ad alto rendimento, per la trasformazione dell’energia meccanica in elettrica e viceversa;

– nel 1865 termina la posa in opera del primo cavo transatlantico sottomarino (a cui lavora la ditta Siemens);

– nel 1866 W. Siemens (l8l6~l892) scopre il principio elettrodinamico e costruisce la prima dinamo elettrica;

– nel 1867 il belga Z.T. Gramme (l826-190l) inventa la dinamo ad autoeccitazione per ottenere una corrente continua costante;  

– nel 1869 lo stesso Gramme costruisce una dinamo elettrica a corrente continua  in grado  di  trasformare  energia meccanica  in  elettrica  e  viceversa;

– nel 1870 ancora Gramme, utilizzando i lavori di Pacinotti, costruisce la prima dinamo industriale;

– nel 1871 l’italiano A. Meucci (1804-1889) costruisce il primo rudimentale telefono;

– nel 1874 il tedesco S. Schuckert (1846-1895), collaboratore di Edison, inventa la commutatrice, una macchina rotante capace di convertire la corrente alternata in continua e viceversa;

– nel 1875 ancora Gramme costruisce il primo alternatore ad induttore rotante;

-nel 1875 lo statunitense G. Green prospetta l’idea di alimentare le locomotrici ferroviarie mediante un filo aereo;

– nel 1876 lo statunitense G.A. Bell (1847-1922) chiede il brevetto per il telefono ;

– nel 1878 il britannico J. Swann (1828-1914) costruisce una lampada ad incandescenza a filamento di carbone;

– nel 1879 lo statunitense T.A. Edison (1847-1931) costruisce la prima lampada ad incandescenza;

– nel 1879 ancora W. Siemens costruisce il primo locomotore elettrico;

 – nel 1880 di nuovo W. Siemens costruisce il primo ascensore elettrico;

 – nel 1881 gli Stati Uniti presentano una centrale telefonica automatica;

 – nel 1881 W. Siemens inventa un sistema scorrevole di collegamento alla linea elettrica (trolley);

 – nel 1881 W. Siemens accoppia una macchina a vapore ad un generatore di corrente per la produzione di energia elettrica;

– nel 188l negli Stati Uniti viene inaugurato il primo impianto di illuminazione elettrica pubblica;

– nel 1881 W. Siemens costruisce forni elettrici per la fusione dell’acciaio;

– nel 1881 viene inaugurata a Berlino la prima tramvia elettrica (Siemens);

– nel 1882 viene inaugurata negli Stati Uniti, a New York, la prima centrale elettrica per la fornitura di energia elettrica per uso domestico (Edison);

– nel 1884 il francese L. Gaulard (1850-1889) costruisce il trasformatore statico, dimostrando contemporaneamente la possibilità del trasporto a distanza dell’energia elettrica;

– nel 1885 viene inaugurata la prima centrale elettrica tedesca;

– nel 1885 Edison sviluppa la dinamo multipolare;

– nel 1885 l’italiano G. Ferraris (1847-1897) scopre il campo magnetico rotante e, in base ad esso, costruisce il primo motore elettrico a corrente alternata polifase;

– nel 1886 negli Stati Uniti entra in funzione il primo impianto di distribuzione di corrente alternata;

– nel  1886  lo   statunitense  E.   Thomson  brevetta  il  motore  elettrico  a  repulsione;

– nel 1888 il tedesco H. Hertz dimostra l’esistenza delle onde elettromagnetiche;

– nel 1889 la statunitense Westinghouse costruisce i primi alternatori polifasi;

– nel 1889 la statunitense Otis Broters & Co. inizia la produzione industriale di ascensori (con il parallelo sviluppo degli acciai e del cemento armato – Francia 1867 – si renderà possibile la costruzione di grattacieli);

  – nel 1891 il russo M. Dolivo-Dobrowolski (1862-1919) inventa l’indotto a gabbia di scoiattolo per i generatori elettrici;

– nel 1891 in Germania si sperimenta la trasmissione di energia elettrica ad alta tensione (25.000 V), su una linea di 178 Km;

– nel 1891 negli Stati Uniti viene installata la prima linea ad alta tensione;

– nel 1892 Siemens sperimenta la prima locomotrice elettrica a corrente alternata. polifase;

– nel 1892 la Westinghouse costruisce i primi trasformatori raffreddati ad acqua;

– nel 1895 il russo A. Popof (1858-1905) costruisce un’antenna per la ricezione delle onde elettromagnetiche;

– nel 1895 l’italiano G. Marconi (l874-1937) compie i primi esperimenti di radiocomunicazione ;

– nel 1897 Marconi stabilisce il primo contatto radiotelegrafico a distanza;

– nel 1900 lo statunitense Hewitt (186l-1921) inventa il raddrizzatore a vapori di mercurio;

– nel 1900 la Westinghouse installa la prima turbina a vapore per la generazione dell’energia elettrica;

– nel 1902 la Westinghouse introduce l’elettrificazione a corrente monofase ad alta tensione per uso ferroviario;

– nel 1904 il britannico J.A. Fleming (1849-1945) costruisce il diodo;

– nel 1506 lo statunitense L. De Forest (l873~196l) costruisce il triodo.

(446) Le tappe più importanti dello sviluppo della chimica, dopo la scoperta delle leggi dei gas e di svariati elementi, soprattutto per quel che riguarda il suo massiccio sfruttamento nell’industria sono:

– nel 1825 M. Faraday scopre il benzene che è un ottimo solvente organico e materia prima per molti derivati;

– nel 1826 M. Faraday scopre che la gomma naturale e’ un idrocarburo aprendo la strada alla fabbricazione della gomma sintetica;

– nel 1826 il tedesco 0. Unverdorben (l806-l873) scopre l’anilina, che e’ una sostanza importantissima per la fabbricazione di coloranti e prodotti farmaceutici;

– nel 1827 i francesi P.J. Bobiquet (1760-1840) e J.J. Colin (1784-1865) isolano l’alizarina (composto organico che si estrae dalle radici della robbia, pianta abbondante nella Francia meridionale, utilizzato come colorante);

– nel 1828 il tedesco P. Wöhler (l800-l882) realizza la prima sintesi organica, quella dell’urea (composto organico dal quale si possono ottenere resine sintetiche e che può essere usato come concime azotato);

– nel 1830 lo svedese J.J. Berzelius (1779-1848) introduce il concetto di isomeria;

– nel 1830 iniziano ricerche approfondite sul catrame che porteranno alla scoperta di molti composti organici che saranno alla base dei grandi progressi della chimica organica e dell’industria che li sfrutterà;

– nel 1834 il tedesco F.F. Runge (1794-1867) colora delle fibre tessili con l’anilina ossidata (nero d’anilina);

– nel 1835 J.J. Berzelius scopre le proprietà dei catalizzatori che diventeranno della massima importanza nell’industria chimica;

– nel 1846 lo svizzero C.P. Schönbein (1799-1868) scopre la nitrocellulosa (importante composto per la produzione di coloranti, di esplosivo, della seta artificiale);

– nel 1846 l’italiano A. Sobrero (l8l2-l888) scopre la nitroglicerina, (esplosivo estremamente pericoloso da maneggiare);

– nel 1848 il francese A. Payen (1795-1871 ) inventa un processo per la fabbricazione della cellulosa;

– nel 1856 il britannico W.H. Perkin (l838-1907) sintetizza il primo colorante  artificiale,  la  malveina  (violetto  d’anilina);

– nel 1863 il belga E. Solvay (1838-1922) scopre un processo più redditizio per la fabbricazione della soda;

– nel 1865 il tedesco A. Kekulé (1829-1896) propone la formula di struttura esagonale del benzene, a partire dalla quale sarà possibile realizzare una enorme quantità di nuovi composti organici;

– nel 1869 i tedeschi K. Graebe (1841-1927) e K. Liebermann sintetizzano l’alizarina;

– nel 1883 il britannico J. Swann (1828-1914) brevetta delle fibre filate di nitrocellulosa;

– nel 1866 lo svedese A.B. Nobel (l833-l896) elabora la nitroglicerina ottenendo la dinamite;

– nel 1901 il francese H. le Chatelier brevetta m processo di fabbricazione dell’ammoniaca sintetica.

               In parallelo a quanto abbiamo brevemente elencato anche la chimica teorica si sviluppava rapidamente in un processo di stretta interconnessione con le esigenze produttive.  Si potrà notare che la Germania è alla testa della ricerca. Il settore dei coloranti sintetici diventa ben presto trainante e la Germania sa sfruttare ciò che, ad esempio, la Gran Bretagna non utilizza (il brevetto Perkin) e ciò che, ad esempio, la Francia esita ad accettare (la formula di struttura esagonale del benzene di Kekulé). La grande industria chimica tedesca avvia inoltre giganteschi programmi di ricerca in propri laboratori ed in stretto legame con le università (si pensi che la Basf nel 1880 investe la gigantesca cifra di un milione di sterline per la sintesi dell’indaco, programma che solo dopo 17 anni sarà coronato da successo, con una imponente ricaduta tecnologica). Per dare un’idea dell’enorme mole di lavoro svolto dalle sei maggiori industrie chimiche tedesche si pensi che esse, negli anni che vanno dal 1886 al 1900, brevettarono ben 948 sostanze coloranti, mentre, al confronto e nello stesso periodo, le sei maggiori industrie chimiche inglesi ne brevettarono 66.

(447) Le principali tappe di sviluppo della meccanizzazione dell’industria tessile e dell’agricoltura si possono riassumere come segue.

Le grandi innovazioni nei telai portano i processi di filatura e tessitura via via a livelli di automazione sempre più spinta. Già agli inizi dell’Ottocento vari telai erano mossi a vapore. Piano piano vengono introdotti:  il  movimento  differenziale  alle  macchine  per  filatura  (Gran  Bretagna,  1810); le pettinatrici di fibre lunghe (Francia, 1825); il filatoio automatico intermittente (Gran Bretagna, 1825); il filatoio ad anello (Stati Uniti, 1828); il filatoio continuo  (Gran Bretagna,  1833);  il telaio circolare per maglie (Gran Bretagna, 1849); la macchina per cucire mossa a pedale e dotata di pezzi intercambiabili che ha il grande pregio di  lasciare le mani libere  (Singer, Stati Uniti, 1851); il telaio rettilineo (Gran Bretagna, 1857); il telaio rettilineo multiplo che permette la produzione contemporanea di molti esemplari dello stesso indumento (Gran Bretagna, 1864); il telaio automatico (Stati Uniti, 1889); il telaio con sostituzione automatica delle spole vuote (Stati Uniti, 1892); la chiusura lampo (Stati Uniti, 1893); l’annodatrice automatica per tessitura (Stati Uniti, 1805).

              Con queste innovazioni l’industria tessile aumenta in modo impressionante la produzione senza incrementare i posti di lavoro (se non indirettamente, nell’industria chimica dei coloranti). E per concludere con l’industria tessile c’è solo da aggiungere che l’invenzione della macchina per cucire dà il via all’industria delle confezioni: i prodotti vengono da ora commerciati completamente finiti.

              Per quel che riguarda l’agricoltura c’erano da affrontare almeno tre grossi problemi: l’inurbamento massiccio, al seguito della grande industria, richiedeva enormi quantità di cibo ponendo inoltre il problema della sua conservazione; molta forza lavoro aveva abbandonato le campagne per cercare una sistemazione nella fabbrica; la popolazione era grandemente aumentata in valore assoluto negli ultimi anni. Anche qui pertanto bisognava produrre di più, con metodi diversi e sfruttando al massimo i prodotti tecnologici. Da una parte, intorno alla metà del secolo, l’industria chimica iniziò a fornire fertilizzanti e, dall’altra, furono successivamente introdotti i seguenti ritrovati tecnologici: la trebbiatrice (Gran Bretagna, 1802); la falciatrice meccanica (Gran Bretagna, 1814); la mietitrice (Gran Bretagna, 1826; Stati Uniti, 1834); la raccolta automatica del grano in covoni mediante un nastro rotante senza fine (Stati Uniti, 1849); la seminatrice automatica (l850); l’aratura meccanizzata a vapore (Gran Bretagna, 1850); la falciatrice automatica (1850); la legatrice automatica dei covoni (Stati Uniti, 1871); la diffusione del refrigeratore a compressione di ammoniaca (Linde, Germania) per la conservazione dei cibi (l873); la mietitrebbia combinata che miete il grano, lo trebbia, lo pulisce e lo insacca (Stati Uniti, 1886); la mietifalciatrice a vapore (Stati Uniti, 1889); la mietitrebbia combinata su trattore a cingoli, mossa da una macchina a vapore (Stati Uniti, 1904) e da un motore a benzina (Stati Uniti, 1906).  

 Per altri versi gli sviluppi della tecnologia idraulica dettero un notevole impulso all’elettricità:

 – l’invenzione del britannico J.Francis (1815-1892) della turbina idraulica a reazione (1845);

 – l’invenzione dello statunitense A. Pelton (1829-1916) della turbina idraulica ad azione (1884).

 Le richieste di energia poi erano sempre maggiori e ad esse si faceva fronte da un lato con il carbone, che aveva quasi completamente sostituito la legna da ardere, e solo parzialmente (nel periodo di cui ci stiamo occupando) con il petrolio, dall’altro con l’energia idraulica e d&oall’altro ancora con il miglioramento delle macchine termodinamiche e dei loro rendimenti.  A quest’ultimo fine furono via via realizzate:

 – la caldaia tubolare (Stati Uniti, 1824; Francia, 1828);

 – la macchina a vapore surriscaldato (Svezia, 1833);

 – la caldaia a serpentini (Francia, 1850);

 – la caldaia a tubi inclinati (Wilcox-Stati Uniti, 1856);

 – la macchina a vapore a pezzi  intercambiabili  (Stati  Uniti,  1876);

 – la turbina a vapore a reazione che faceva 18.000 giri/minuto (Gran Bretagna, 1884);

 – la turbina a vapore ad azione che faceva 30.000 giri/minuto (Francia, l890);

 – la turbina a vapore ad azione e ad asse verticale (Stati Uniti, 1896).

 Il particolare sviluppo che ebbero le turbine fu dovuto al fatto che esse avevano un rendimento, in termini di denaro, molto più elevato delle macchine a vapore alternative (per migliorare il rendimento di queste ultime fu introdotta la macchina a vapore a cilindro orizzontale per la sua migliore capacità di sfruttare il moto rotatorio). La termodinamica delle macchine a vapore fu sviluppata principalmente dal britannico W. Rankine (l820-1872) in un suo lavoro del 1859. Sempre più ogni settore della produzione si andava sistemando in un tutt’uno integrato con svariati altri settori e sempre più ogni industria cercava di raccogliere in sé tutte le attività produttive in modo da costruire un insieme unico integrato (trust).

(448)  Prima di ooncludere questo paragrafo riporto altre innovazioni tecniche realizzate nel corso del secolo; quelle che hanno avuto una grande importanza dal punto di vista economico-politico-sociale, a partire dalle rivoluzionarie conquiste nel settore dei trasporti e delle vie di comunicazione (altri elementi indispensabili per lo sviluppo dei commerci).

– Nel 1807 R. Fulton (1765-1815) inizia un servizio regolare di battelli a vapore (Stati Uniti);

 – nel 1814 G. Stephenson (1781-1848) inizia le prove della sua locomotiva a vapore (Gran Bretagna);

– nel 1827 ai compie la prima traversata dell’Atlantico a vapore (il primo servizio regolare inizia nel 1838);

– nel 1822 G. Stephenson con il figlio Robert costruisce la locomotiva Rocket (prima locomotiva moderna) iniziandone la produzione in serie;

– nel 1830 viene inaugurata la prima ferrovia britannica e da allora molti paesi europei inaugureranno la loro prima ferrovia;

– nel 1859 entra in esercizio la prima carrozza letto (Stati Uniti);

– nel 1868 entra in esercizio il primo vagone frigorifero (Stati Uniti);

– nel 1869 viene aperto il Canale di Suez (realizzazione francese su progetto italiano);

– nel 1871 è inaugurato il tunnel del Frejus;

– nel 1881 è inaugurato il tunnel del San Gottardo ;

– nel 1885 G. Daimler costruisce la prima motocicletta;

– nel 1886 C. Benz costruisce la prima automobile a tre ruote;

– nel 1888 il britannico J.B. Dunlop (1840-1921) brevetta il prime pneumatico di uso pratico;

– nel 1893 viene aperto il canale di Corinto;

– nel 1896 lo statunitense H. Ford (1863-1947) costruisce la sua prima auto;

 – nel 1898 inizia il traforo del Sempione;

 – nel 1900 il tedesco F. von Zeppelin (1838-1917) costruisce il primo dirigibile a struttura metallica;

 – nel 1903 gli statunitensi fratelli Wrigat effettuano il primo volo a motore.

         Altre tappe da ricordare, nei settori più diversi, sono:

 – l’introduzione del cuscinetto a sfora (Francia, l802)f;

 – l’invenzione delle lenti per fari, costruite con vetri di un solo pezzo incisi a fasce concentriche (Fresnel, Francia, 1822)(;

– l’invenzione del maglio a vapore (Gran Bretagna, 1838);

– la scoperta del linoleum (Gran Bretagna, 1844);

– la prima rotativa di stampa (Gran Bretagna, 1848);

– la distillazione del cherosene (Canada, 1854);

 – la serratura di sicurezza (Yale, Stati Uniti, 1855)5;

 – il brevetto del filo spinato (Stati Uniti, 1874);

 – la costruzione del fonografo (Stati Uniti, 1872);

 – il brevetto della prima penna stilografica (Watermann, Stati Uniti, 1884);

 – la prima macchina per fabbricare bottiglie (Gran Bretagna, 1887);

 – il primo processo (piroscissione) di distillazione del petrolio (Gran Bretagna, 1889);

 – i fratelli Lumiere realizzano il cinematografo elaborando una precedente realizzazione di Edison (Francia, 1895).

(449) Da Baracca, Russo e Ruffo, bibl. 54, pag. 7.

(450) Ibidem, pag. 93.  

(451) II matematico britannico C. Babbage (l792-l87l) fu uno dei primi teorici della parcellizzazione del lavoro. Nel 1832, in un suo lavoro (On the economy of machinary and manifactures), dopo aver sostenuto che la suddivisione del lavoro riduce i tempi dell’apprendistato e fa risparmiare materia prima, affermava: “un altro vantaggio che deriva dalla suddivisione del lavoro è il risparmio di tempo poiché in ogni passaggio da una lavorazione ad un’altra un certo tempo va perduto. Quando la mano e la testa si sono abituate per un certo tempo ad una determinata specie di lavoro, se questo cambia, mano e testa non possono assumere subito la stessa destrezza che avevano raggiunto prima.” Il brano è tratto da Klemn, bibl. 22, pag. 291 (nel testo citato vi sono altri brani di grande interesse).

(452) Citato da Klemm, bibl. 22, pag. 309. Sulle macchine è importante leggere quanto dice Marx. Si veda la rivista Marxiana dell’ottobre 1976.  

(453) Il Capitale (vol. 1°) è del 1867. Con quest’opera Marx dette all’econo all’economia un assetto scientifico.

(454) Nel 1864 fu fondata la Prima Internazionale socialista che si sciolse nel 1873, dopo il fallimento della Comune di Parigi (l87l). Nel 1889 fu fondata su basi diverse la Seconda Internazionale.

Al fianco di Marx lavorò F. Engels (1820-1895).

(455) Dall’orazione funebre di Marx, scritta e letta da Engels.

(455 bis) Klemm in bibl. 22, pag. 321.  

(456) Baracca, Russo e Ruffo in bibl. 54, pag. 93.  

 (456 bis) La Germania si costituisce in stato solo dopo la sconfitta di Napoleone III (1871) ad opera dell’esercito di Bismarck che strappò alla Francia l’Alsazia e la Lorena e fondò l’impero tedesco con alla testa Guglielrno 1° (nel frattempo l’impero austro-ungarico giungeva via via al suo disfacimento).

Si noti che il grande statista Bismarck inaugurò una politica di alleanze che garantì all’Europa 50 anni di pace (50 ami nei quali tutti cercarono di costruirsi imperi coloniali.

(457) Soltanto nel 1880 l’istruzione primaria venne resa obbligatoria ma con scuole che davano ” un’istruzione inferiore alle classi inferiori”.  

(458) Bibl. 23, pag. 277. Si veda tutto il paragrafo del testo da cui è tratto questo brano; dà ulteriori particolari sull’emergere della Germania con il contemporaneo declino della Gran Bretagna. L’autore del testo, Cardwell, è uno storico britannico ed il brano è perciò ancora più interessante.

(459) Bibl.24, pag. 54.  

(460) Che era invece abbondante in Gran Bretagna e Germania. Tra l’altro la forza lavoro negli Stati Uniti costava di più di quanto non costasse nei paesi citati, proprio per la sua scarsità. Questo fu un ulteriore incentivo allo sviluppo, negli Stati Uniti, di macchine sostitutive del lavoro umano.

(461) Un altro elemento a favore del grande sviluppo tecnologico degli Stati Uniti fu una legislazione tra le più avanzate del mondo per i brevetti (essa risaliva al 1691 e fu poi perfezionata nel 1790).

(462) Bibl.23, pag.280. Comincia l’era delle multinazionali.  

(463) Engels scrisse un volume che si occupava dei rapporti soienza-filosofia, Dialettica della natura, che fu pubblicato postumo soltanto nel secolo XX.  Si veda bibl.  103.

(464) Allo scopo si vedano alcuni interventi ad un convegno che si tenne a Firenze nel 1970 riportati in bibl. 58.

   2 – UN PANORAMA SU ALTRE SCOPERTE SCIENTIFICHE DEL SECOLO XIX. LA NASCITA DEI QUANTI.

        Nel capitolo precedente mi sono occupato ampiamente di alcuni aspetti dello sviluppo della ricerca fisica nell’Ottocento ed in particolare ho riguardato con qualche dettaglio lo sviluppo dell’elettrodinamica e dell’elettromagnetismo, dell’ottica e della termodinamica. Nei paragrafi che seguiranno svilupperò ancora alcuni aspetti delle problematiche già affrontate con particolare riguardo all’ottica ed all’elettrodinamica – elettromagnetismo.

        In questo paragrafo intendo dare un quadro più completo delle ricerche che in alcuni campi della scienza (soprattutto chimica e fisica) si portavano avanti nel corso del secolo. Lo scopo di ciò è di dare un riferimento più significativo per la comprensione degli argomenti che, invece, ho trattato e tratterò con maggiori dettagli.

        Alcune delle cose che era dirò saranno soltanto una cronologia di alcune tappe significative, e questo principalmente per la matematica e la chimica. Su alcuni aspetti dello sviluppo della fisica non esplicitamente fin qui rilevati o discussi (o da discutere nei prossimi paragrafi) ai soffermerò un poco di più.

        E’  solo il caso di ricordare che gran parte delle ricerche di questo secolo saranno improntate al filone di pensiero, già più volte richiamato, che va sotto il nome di meccanicismo fisico, eredità del pensiero newtoniano. (465) Ho già detto più volte che questo meccanicismo assumerà articolazioni diverse e che, in nome di Newton, saranno affermate le cose più diverse e, a volte, addirittura antitetiche. Ma, al di là di queste considerazioni, rimane il fatto che la tradizione culturale dominante fa del richiamo a Newton una questione imprescindibile ed in questo senso è estremamente significativo che l’atteggiamento che via via emergerà sarà il ricondurre alla meccanica, non solo tutti i più disparati fenomeni che venivano scoperti nel campo della fisica e della chimica, ma anche quelli che provenivano da scienze  più distanti come, ad esempio, la biologia e la fisiologia. Dovunque si cercheranno modelli meccanici a cui affidare, insieme alla loro elaborazione matematica, la spiegazione della realtà. E questa tendenza alla ricerca del modello (e dell’analogia) si accentuerà molto verso la fine del secolo, quando il grado di astrazione delle elaborazioni matematiche raggiungerà livelli non più immediatamente rappresentabili mentalmente. Ed, anche qui, in nome di Newton, si elaboreranno (e costruiranno materialmente) modelli così incredibilmente complessi da essere, quanto meno, molto lontani, essi stessi, da una semplice rappresentazione meccanica e quindi dalla semplicità degli schemi interpretativi introdotti da Newton. Valga come esempio il modello che Kelvin propose per l’etere nel 1889. Egli costruì un modello meccanico di un elemento di un modello di etere proposto nel 1839 da J. Mac Cullagh (l809-l847). ” Dispose quattro bastoncini a forma di tetraedro, e preso come asse ciascun bastoncino vi sistemò una coppia di volani giroscopici   (466)  ruotanti l’uno in senso contrario all’altro. Questo modello opponeva resistenza ad ogni disturbo in senso rotatorio, ma non opponeva alcuna resistenza a moti traslatori.” (467) In questo modo si cercava di rendere conto delle strane proprietà che il supposto etere avrebbe dovuto avere (estremamente sottile, estremamente elastico, in grado di trasmettere vibrazioni trasversali).

        Su questa strada si mosse anche Helmholtz e via via molti altri.

        La ricerca di modelli meccanici o meno era anche teorizzata dallo stesso Kelvin con queste significative parole: “Io non sono soddisfatto finché non ho potuto costruire un modello meccanico dell’oggetto che studio. Se posso costruire un tale modello meccanico comprendo; sino a che non posso costruirlo, non comprendo affatto.” (468)

        La ricerca di una spiegazione meccanicistica era poi così enunciata da Helmholtz: ” II problema della scienza fisica naturale è ricondurre i fenomeni naturali a immutabili forze attrattive e repulsive la cui intensità dipende solamente dalla distanza. La soluzione di questo problema è la condizione per una completa comprensibilità della natura.” (469)                                                                                                                                     

        E’ in ogni caso altrettanto vero che, proprio verso la fine del secolo, la crisi del sistema meccanicistico portava ad altre formulazioni o quanto meno alla messa in discussione della pretesa di voler spiegare tutto con la meccanica. Ma di questo ci occuperemo più oltre, nei paragrafi seguenti.

        Passiamo ora, per singole discipline, a dare quel panorama di riferimento annunciato, ricordando solo che le cose qui elencate non hanno trovato posto in altre parti del lavoro.

Astronomia  

        Ormai l’astronomia si avvia pian piano a diventare astrofisica.  (470)    Nel corso del secolo verranno perfezionate le osservazioni del sistema solare e si estenderanno le osservazioni al di fuori di esso, si scopriranno vari astri e si costruiranno vari cataloghi di stelle che verranno suddivise, a seconda delle loro caratteristiche, in vari gruppi. Più in particolare, i fatti più significativi sono:

– la dimostrazione che i moti propri stellari riguardano tutte le stelle, fatta dall’italiane G. Piazzi (1746-1826) nel 1814;

– la scoperta del moto delle stelle doppie in orbite ellittiche intorno al baricentro comune, fatta dal tedesco (che lavorò in Gran Bretagna) W. Herschel (1738-1622) nel 1820;

– la determinazione delle posizioni, delle distanze, del colore e della grandezza di un gran numero di stelle doppie, fatta dal russo W. Struve (1793-1864) nel 1837;

– la prima determinazione della parallasse annua di una stella, fatta dal tedesco P.W. Bessel (1784-1846) nel 1838;

– la prima osservazione di una nebulosa a spirale, fatta dal britannico W.P. Rosse (1800-1867) nel 1845;

– la predizione dell’esistenza di Nettuno fatta studiando le perturbazioni di Urano, dal francese U.J.J. Le Verrier (l811-l877) e quindi la sua scoperta ad opera del tedesco F.J. Galle (1812-1910) nello stesso anno 1846;

– la dimostrazione della rotazione della Terra sul suo asse, fatta da L. Foucault nel 1851 con il sue famoso esperimento del pendolo;

– la fondazione della spettroscopia stellare fatta nel 1863 dall’italiano A. Secchi (1816-1878);

– la dimostrazione della struttura discontinua degli anelli di Saturno (già teorizzata da Maxwell nel 1859), fatta dallo statunitense J.C. Keeler (1857-1900) nel 1895.

Matematica

        Questa scienza nel secolo in esame ebbe uno sviluppo possente. Si approfondirono e svilupparono campi già noti; inoltre si aprirono nuovi capitoli, alcuni dei quali di grande interesse ai fini degli sviluppi futuri della fisica. L’analisi acquistò la sua sistemazione quasi definitiva, passando dalla formulazione classica a quella moderna con la creazione della teoria degli insiemi, il riconoscimento dell’importanza della logica e, soprattutto, la trattazione rigorosa.

              Notevolissimo impulso ebbe la teoria delle funzioni e delle equazioni differenziali; furono introdotte le equazioni integrali ed il calcolo funzionale; anche nei campi dell’algebra e della geometria si progredì molto ed in particolare nacquero la teoria dei gruppi, le geometrie non euclidee, la geometria algebrica, la geometria differenziale, il calcolo differenziale assoluto e la topologia. Fu inoltre dimostrata resistenza dei numeri trascendenti con notevoli conseguenze sul secolare problema della quadratura del cerchio. Infine anche il calcolo delle probabilità fece notevoli progressi.

        Esula completamente dai miei scopi l’andare a discutere di questi problemi.  Voglio solo ricordare alcuni dei nomi che maggiormente contribuirono agli eccezionali sviluppi della matematica cui abbiamo fatto cenno:

i tedeschi: Kummer, Kronecker, Schwartz, Jaoobi, Gauss, Hilbert, Bessel, Dirichlet, Riemann, Weierstrass, Cantor, Klein, Dedekind, Listing, Hankel, Frege;

i francesi: Laplace, Poisson, Legendre, Fourier, Liouville, Hermite, Cauchy, Sturm, Galois, Picard, Poincaré,Briquebon, Poncelet, Lamé, Lebesgue;

i britannici: De Morgan, Clifford, Bode;

gli italiani: Ruffini, Betti, Cremona, Volterra, Peano, Beltrami, Enriques, Dini, Castelnuovo, Ricci-Curbastro, Levi-Civita;                                                                 

i norvegesi: Abel, Lee;

i russi: Lobacevskij, Tcebycheff, Minkowski (che studiò e lavorò in Germania);

l’irlandese: Hamilton;

il cecoslovacco: Bolzano;

lo svizzero Argand;

il  rumeno: Bolyai.

Chimica

        Dei pregressi della chimica, soprattutto di quella organica, abbiamo già parlato abbastanza nelle note del paragrafo precedente. Resta solo da aggiungere che quei progressi furono permessi dalla graduale sistemazione della chimica inorganica a partire dallo studio dei gas fino ad arrivare alla teoria della valenza ed alla tavola periodica degli elementi. Le tappe più importanti da ricordare sono:

1802 – il francese Gay-Lussac (1778-1850) estende la legge di Volta, relativa alla dilatazione termica dei gas, a tutti i gas;

1803 – il francese J.L. Proust (1761-1826) formula la legge delle proporzioni definite (mentre si trova a lavorare in Spagna!);

1808 – il britannico J. Dalton (1766-1844) avanza l’ipotesi atomica e stabilisce la legge delle proporzioni multiple;

1808 – Gay-Lussac formula la legge dei volumi dei gas;

1811 – l’italiano A. Avogadro (1766-1856) formula la legge che porta il suo nome (volumi uguali di gas, nelle stesse condizioni di temperatura e pressione, contengono lo stesso numero di grammomolecole);

1811 – Avogadro formula l’ipotesi che porta il suo nome e che permette di distinguere atomi da molecole (le molecole dei corpi semplici gassosi sono formate da atomi identici mentre le molecole dei corpi composti gassosi sono formate da atomi differenti); si osservi che si dovranno attendere circa 50 anni prima che questa ipotesi venga presa in considerazione, fatto quest’ultimo che permetterà enormi sviluppi nella chimica;

1815 – il britannico W. Prout (1785-1850) sostiene che i pesi atomici sono multipli interi di quello dell’idrogeno;

1826 – il britannico W.H. Fox Talbot (1800-1877) scopre che con l’analisi spettroscopica di sostanze incandescenti si può conoscere la loro composizione chimica;

1836 – lo svedese J.J. Berzelius (1779-1849) formula l’ipotesi che l’affinità chimica è dovuta alle cariche elettriche di segno contrario presenti nelle sostanze che reagiscono (altri importanti lavori di Berzelius avevano preceduto questo; le stesse leggi per la composizione chimica delle sostanze inorganiche valgono per le organiche; prima tabella dei pesi atomici; indicazione simbolica degli elementi con le loro iniziali latine);

1858 – l’italiano S. Cannizzaro (1826-1910) riprende l’ipotesi di Avogadro e suggerisce un metodo per la determinazione dei pesi atomici;

1869 – il russo S. Mendelejev (1834-1907) costruisce il sistema periodico degli elementi;

1874 – il francese A. Le Bel (1847-1937) e, indipendentemente, l’olandese J.H. Van’t Hoff (1852-1911 ) introducono le formule stereochimiche;

1876 – lo statunitense J.W. Gibbs (l839-1903) enuncia la regola delle fasi che permette di studiare l’equilibrio delle sostanze eterogenee su base matematica con stretti legami con la termodinamica;

1887 – lo svedese S. Arrhenius (1859-1927) fornisce una spiegazione della dissociazione elettrolitica in base all’ipotesi, già avanzata da Clausius nel 1857, dell’esistenza di ioni di segno contrario all’interno dell’elettrolito.

 Meccanica

         In questo campo si continua ancora a sistemare quanto trovato nei secoli precedenti puntando soprattutto a chiarire alcuni concetti (come quello di forza) ancora ritenuti oscuri. Un ruolo importante l’assume invece lo studio dei sistemi rotanti, con riguardo alle forze centrifughe ed ai moti relativi.

1829 – il francese D. Poisson (1781-1840) determina le equazioni generali del moto dei corpi;

1830 – il tedesco K.F. Gauss (1777-1855) enuncia il principio fondamentale della meccanica, detto principio del minimo sforzo;

1835 – il francese G.G. Coriolis (1792-1843) determina le condizioni per formulare l’equazione del moto relativo di un sistema di corpi stabilendo (l836), nel teorema che porta il sue nome, il ruolo della forza centrifuga;

1836 – l’irlandese W.R. Hamilton (l805-l865) ricava dalle equazioni di Lagrange le equazioni canoniche della dinamica o hamiltoniane;

1850 – il francese L. Foucault studia l’effetto della forza d’inerzia in un sistema in rapida rotazione».

 Spettroscopia (nascita della fisica dei quanti).

          E’ questo un campo nuovo che si apre in queste secolo, sulla scia della decomposizione dello spettro solare ottenuta da Newton con il prisma, e che avrà sviluppi formidabili fino alla prima formulazione dell’ipotesi dei quanti ad opera di  Planck nel  1900.  E tutto ciò  discenderà  da una felice  intersezione con i metodi ed i risultati della termodinamica. Seguiamone le tappe principali:

1802 – il britannico W.H. Wollaston (1766-1828), osservando lo spettro solare prodotto da un prisma, scopre l’esistenza di sette righe scure distribuite in modo irregolare;

1814 – il tedesco J. Fraunbofer (1787-1826) osserva il fenomeno in modo più  approfondito: conta 560 righe scure, scopre che una di queste righe (la D) coincide con la doppia riga gialla del sodio (Fraunhofer non sapeva ancora che quella doppia riga gialla era caratteristica del sodio: egli la otteneva osservando lo spettro prodotto da una candela, da una lampada ad elio e da una lampada ad alcool); (471)   costruisce la prima carta dello spettro solare, scopre nello spettro di Venere alcune righe presenti nello spettro del Sole, introduce i reticoli di diffrazione con i quali realizza le prime determinazioni della lunghezza d’onda dei vari colori dello spettro;

1827-1855 – in questi anni si sommano diversi contributi ed in particolare: la scoperta della fotografia ad opera del francese J.P. Niepce (1765-1833); la scoperta dell’emissione di spettri da parte di solidi portati all’incandescenza, ad opera del britannico J.W. Draper (1811-1882);

1857 – il tedesco R.W. Bunsen (1811-1899) scopre che utilizzando il gas illuminante, installato nel suo laboratorio nel 1855, si ottiene una fiamma non molto luminosa ma ad alta temperatura e costruisce il becco Bunsen, con il quale si possono ottenere gli spettri dei soli corpi portati all’incandescenza senza interferenze da parte della fiamma che non ha un proprio colore specifico;                                                                                                                                            

1859 – Kirchhoff e Bunsen gettano le basi della moderna spettroscopia, distinguendo con chiarezza la differenza esistente tra spettri di emissione e spettri di assorbimento: se sul becco si fa bruciare del sodio, lo spettro presenta due righe gialle che coincidono esattamente con le più brillanti delle linee oscure dello spettro del Sole (riga D); osservando poi lo spettro della luce solare  lungo la cui traiettoria è interposto il becco con del sodio che brucia, non appare più la riga D nello spettro solare ed al suo posto vi sono le righe gialle del sodio; questo ultimo fenomeno si verifica solo quando la luce solare è molto attenuata, in caso contrario si continua  a vedere la linea D; lo stesso fenomeno si può ottenere mantenendo costante l’intensità della luce solare e aumentando o diminuendo la temperatura della fiamma del becco. Da ciò Kirchhoff capì il significato dello spettro solare ed in particolare delle sue linee scure: la superficie del Sole emette radiazioni (fotosfera) di tutti i colori e l’atmosfera di gas incandescenti del Sole (cromosfera e corona), molto meno calda della fotosfera, assorbe una parte delle radiazioni emesse dal Sole, ed assorbe quelle che sono emesse dagli elementi componenti l’atmosfera solare. Come dice Kirchhoff: “le fiamme colorate nei cui spettri si presentano linee brillanti e marcate [spettro di emissione], indebolisce talmente i raggi del colore di queste linee quando passano attraverso di esse, che in luogo delle linee brillanti compaiono linee scure [spettro di assorbimento] quando si colloca dietro la fiamma una fonte di luce di sufficiente intensità e nel cui spettro mancano queste linee. Concludo quindi che le linee scure dello spettro solare, he non sono prodotte dall’ atmosfera terrestre, nascono dalla presenza nella infuocata atmosfera del Sole, di quelle sostanze che nello spettro di una fiamma presentano le linee brillanti nella stessa posizione.” (473)  Ed in questo modo Kirchhoff e Bunsen riuscirono a stabilire la presenza sul Sole di alcuni elementi: confrontando le righe che compongono lo spettro solare con quelle, ottenute in laboratorio, per elementi noti (all’esistenza di un dato insieme di righe nello spettro corrisponde sempre la presenza di un dato elemento).                                                                     

         Altro fondamentale risultato ottenuto da Kirchhoff nello stesso anno è il cosiddetto principio di inversione secondo il quale una sostanza assorbe le stesse radiazioni che è in grado di emettere. (474)

        Per portare avanti le loro ricerche i due ricercatori si servirono di uno spettroscopio, strumento da loro realizzato e  costruito da K. A. von Steinheil (famoso costruttore di strumenti ottici) nel 1853. I risultati qui esposti possono essere considerati il fondamento dell’astrofisica e della fisica teorica. Da questo momento si iniziò lo studio sistematico degli spettri di varie stelle ed il risultato di queste osservazioni portò a riconoscere che tutti gli elementi in esse presenti sono gli stessi che conosciamo sulla Terra.                       /

        Nello stesso anno Kirchhoff scoprì le proprietà del corpo nero. Dallo studio dei fenomeni ad esso connessi ne scaturì la scoperta della fisica dei quanti ad opera di Max Planck [nel sito vi è una ricostruzione dettagliata delle vicende che portarono ai lavori di Planck; ad esso rimando per approfondire la questione ed avverto che saltano qui le note 475 e 476].

1900 — Kelvin apre il nuovo secolo con un articolo che riassume bene tutte le difficoltà della fisica a quell’epoca, dal titolo significativo: Nubi del diciannovesimo secolo sulla teoria dinamica del calore e della luce. La prima nube è, secondo Kelvin, quella del moto relativo dell’etere e dei corpi ponderabili che, come abbiamo visto nel paragrafo 6 del capitolo 3, poneva difficoltà che sembravano insormontabili. Del diradarsi di questa nube ci occuperemo in seguito, basti per ora dire che il cielo si schiarì con la teoria della relatività di Einstein. La seconda nube e’ proprio relativa all’argomento irraggiamento di un corpo nero. Tutta la fisica classica era stata messa alla prova ed i risultati erano clamorosamente in disaccordo con l’esperienza. Dice Kelvin riportando parole di Rayleigh: “Siamo di fronte ad una difficoltà fondamentale, che non è semplicemente connessa alla teoria dei gas, quanto piuttosto alla dinamica generale. Ciò che sembrerebbe necessario è un qualche modo di sfuggire alla distruttiva semplicità della conclusione generale.” (476)

           E tutti i fisici dell’epoca erano d’accordo con questa conclusione;

1900 – alla fine dell’anno  Planck risolve la questione del corpo nero facendo l’ipotesi dei quanti

1905 – A. Einstein riprende l’ipotesi dei quanti calcolandosi la variazione di entropia di una trasformazione termodinamica che tratta la radiazione come un gas di oscillatori e che fa passare il volume della cavità del corpo nero da un valore V1  ad un valore V2, quando la pressione e’ mantenuta costante. Egli trova:

  Δ S  =    f(n/T). 1/e . k . log  (V2/V1)                            

dove f (n/T) è la solita funzione di n/T ed e e = hn. Questa espressione risulta formalmente identica a quella che fornisce  ΔS per un gas perfetto,  formato da N particelle, che subisce la stessa trasformazione:

Δ  S  =  N. K . log (V2/V1)

da cui:   

S2  –  S1    =   N. K . log V2  – N. K . log V1 

che è ancora formalmente identica a quella trovata da Boltzmann:

                        S  = K . log P.

        L’analogia porta Einstein a concludere che la radiazione è costituita da corpuscoli (i quanti) di energia e = hn (è una euristica esigenza di simmetria che, per sua stessa ammissione, aveva mosso Einstein). A questo punto mediante la stessa ipotesi dei quanti, Einstein passa a dare una spiegazione di quello strano fenomeno, l’effetto fotoelettrico (477), scoperto dal tedesco H. Hertz nel 1877, e studiato dall’italiano A. Righi (1850-1920) nel 1888 e dal tedesco W. Hallwachs (1859-1922); nel far ciò Einstein implicitamente ammette che anche la propagazione dell’energia avvenga per quanti (fatto che radicalizza il contrasto con la teoria elettromagnetica della luce).

       Ha inizio la fisica quantistica che negli anni seguenti avrà enormi sviluppi. Alcune sue formulazioni però, ed in particolare l’introduzione in essa della probabilità fatta da Born nel 1926, vedranno lo stesso Einstein molto critico verso questa branca della fisica che nel frattempo diventava sempre più autoritaria ed efficientista.  (478)

Scarica nei gas

        Anche questo è un nuovo campo di ricerca che si inaugura agli inizi dell’ultimo quarto di secolo. L’innesto dei risultati delle ricerche in questo settore con alcune conclusioni che si traevano dai fenomeni elettrolitici portò all’affermazione dell’esistenza di una struttura discontinua dell’elettricità, a prevedere e quindi a provare l’esistenza dell’elettrone, a misurarne carica e massa dando il via a quell’altro vasto campo di ricerca della fisica che riguarda la struttura atomica, molecolare e, quindi, della materia. Ripercorriamo, anche qui, alcune tappe di rilievo:

1833 – Faraday stabilisce le leggi dell’elettrolisi ricavando che, in questo fenomeno,  “gli atomi dei corpi che sono equivalenti fra loro posseggono delle quantità uguali di elettricità, che sono loro associate per natura” (479) Pur non essendo un corpuscolarista, Faraday riesce a formulare una legge nella quale è implicito il concetto di quantità elementare di elettricità o elettrone. Ma Faraday non approfondirà la cosa;

1874 – l’irlandese G.J. Stoney (1861-1911), partendo dall’analisi delle leggi di Faraday per l’elettrolisi, postula l’esistenza di una quantità elementare di elettricità  “indipendente dai corpi sui quali agisce” (480) ed in seguito  (1891) darà  a questa quantità  elementare il nome di elettrone;

1879 – il britannico W. Crookes (1832-1921) produce una scarica elettrica in un tubo di vetro in cui aveva praticato un vuoto molto spinto (dell’ordine di un milionesimo di atmosfera). Da questa esperienza ricava l’esistenza di raggi emessi dal catodo costituiti, secondo la sua teoria, da molecole elettrizzate espulse dal catodo stesso (raggi catodici); (481)

1861 – anche il tedesco E. Riecke (1845-1915) sostiene la natura corpuscolare dei raggi catodici;

1881 – Helmholtz, studiando i fenomeni del l’elettrolisi, stabilisce la costanza e l’indivisibilità della carica elettrica degli ioni monovalenti, si convinse dell’esistenza di una carica elementare e la difende con molto impegno:  “Se ammettiamo l’ipotesi che le sostanze elementari sono composte da atomi, non possiamo evitare di concludere che l’elettricità, sia positiva che negativa, è suddivisa in particelle elementari definite che si comportano come atomi di elettricità”; (482)

1883 – il tedesco H. Hertz (1857-1894), insieme al suo assistente P. Lenard, fece una serie di esperienze con le scariche nei gas rarefatti. In particolare osservò (1892) che i raggi catodici erano in grado di attraversare lamine metalliche sottili. Da ciò egli concluse che non poteva trattarsi di fenomeni corpuscolari e che, al contrario, i raggi catodici non sono altro che vibrazioni dell’etere, allo stesso modo della luce. Hertz convince con queste argomentazioni i ricercatori tedeschi: le ricerche in questo campo proseguiranno essenzialmente in Gran Bretagna;

1886 – il tedesco E. Goldstein (1850-1930), servendosi di un catodo perforato, scopre l’esistenza di raggi anodici, o positivi o canale o di Goldstein;

1890 – il tedesco A. Schuster (1851-1934) riesce a misurare il rapporto tra la carica e la massa delle ipotetiche particelle emesse dal catodo, osservandone la deviazione in un campo magnetico (il valore da lui trovato  era molto lontano da quello oggi accettato, ma il metodo da lui introdotto si rivelò molto importante nel seguito); (483)

1892 – l’olandese H.A. Lorentz (l853-1928) elabora la sua teoria degli elettroni nella quale considera l’elettricità costituita da particelle dotate di carica e massa (del lavoro in cui Lorentz avanza questa teoria mi occuperò abbondantemente nei paragrafi seguenti, per la sua rilevanza ai fini della storia della relatività);

1894 – il britannico J.J. Thomson (1856-1940), usando di uno specchio ruotante, riesce a calcolare la velocità dei raggi catodici trovando un valore di circa 10.000 Km/sec,  velocità molto più piccola di quella della luce ed enormemente più grande di quella delle molecole di un gas. Quindi, conclude Thomson, né Hertz né Crookes hanno ragione: non si tratta né di vibrazioni dell’etere né di molecole, ma di particelle d’altra natura e cariche negativamente;

1894 – P. Lenard dimostra che i raggi catodici possono uscire dal tubo di scarica, attraversando foglie sottili di alluminio come finestre e quindi diffondendosi nell’aria;

1895 – il tedesco W.C. Rontgen (1845-1923)  scopre che, nelle vicinanze di un tubo di Crookes, le lastre fotografiche rimangono impressionate ed interpreta il fenomeno come originato da nuovi e misteriosi raggi provenienti dal tubo, che egli chiama raggi X;

1895 – il francese J. Perrin (1670-1941) dimostra che i raggi catodici sono costituiti da particelle cariche negativamente, gli elettroni;

1896 – Rontgen approfondisce lo studio dei raggi X scoprendo che essi sono generati da tutti i punti colpiti dai raggi catodici e che hanno la proprietà di scaricare i corpi elettrizzati;

1896 – il francese G. Gouy (1654-1926) scopre la rifrazione e la diffrazione dei raggi X;

1697 – J. J. Thomson dimostra che quando i raggi X passano attraverso un gas lo rendono conduttore di elettricità;

1697 – il tedesco K.F. Braun (1850-1918) dimostra che i raggi catodici sono deviati da un campo magnetico, ma anche da un campo elettrico e su questo principio costruisce un tubo (tubo di Braun), del tipo del video di un televisore. Sul fondo del tubo è cosparsa sostanza fluorescente sulla quale si produce una piccola scintillina quando è colpita da un raggio catodico;

1897 – il tedesco W. Wiechert (l86l-1928) fornisce un’altra determinazione del rapporto tra massa e carica dell’elettrone, dalla deviazione dei raggi catodici sotto l’influenza di un campo magnetico e dal confronto dei dati così ottenuti con quelli che erano stati ottenuti mediante elettrolisi; (484)

1897 – J.J. Thomson misura il rapporto e/m, tra carica e massa di un elettrone, trovando che esso vale 770 volte l’analogo rapporto per lo ione idrogeno;

1897 – il tedesco W. Kaufmann (1871-1947), usando il tubo di Braun, corregge in 1770 il valore trovato da Thomson. Per le sue misure Kaufman si basa sempre sulla deviazione dei raggi catodici mediante campo magnetico ma anche sulla differenza di potenziale tra gli elettrodi.

        A questo punto comincia a porsi il problema: se e/m calcolato per l’elettrone è tanto più grande del Q/M dello ione, ciò dipende dal fatto che è molto più grande di Q o dal fatto che è molto più piccolo di M ? Proprio allora il britannico C.T.R. Wilson (1869-1959) costruì uno strumento che permetteva di visualizzare le tracce delle particelle cariche (camera di Wilson o camera a nebbia).

1899 – J.J. Thomson, utilizzando una camera di Wilson, scopre che la carica di uno ione gassoso è la stessa dello ione idrogeno da fenomeni elettrolitici ed è anche la stessa di quelle particelle che vengono emesse da una superficie metallica per effetto fotoelettrico. Thomson trasse la conclusione che la carica dell’elettrone doveva essere uguale a quella dello ione idrogeno (che oggi sappiamo essere un protone), e di conseguenza era la massa m dell’elettrone che doveva essere molto piccola rispetto a quella di questo ione. Il valore che Thomson trovò per m era più piccolo di circa 1700 volte del valore della massa dello ione idrogeno. Questo valore fu in seguito perfezionato da ulteriori misure e mediante strumenti sempre più perfezionati.

        Scoperta l’esistenza di una carica negativa costituente la materia e dato per scontato che la materia è neutra, si cominciò a porre il problema delle cariche positive che, all’interno della stessa materia, avrebbero dovuto neutralizzare le negative.

        Come era organizzato il tutto ?

        Via via iniziarono le prime ipotesi sulla costituzione dell’atomo che da una parte usarono degli spettri atomici e dall’altro trovarono compimento con l’applicazione della fisica quantistica (e di quella relativistica) all’intero edificio atomico.

Ricerche diverse

        Altra grande mole di ricerche e scoperte viene realizzata nel secolo. Si tratta essenzialmente di varie derivazioni dalle cose che abbiamo precedentemente visto ma anche di cose nuove che avranno notevoli sviluppi (come la scoperta della radioattività) o che creeranno enormi polemiche (come la formulazione della teoria evoluzionista). Elenco di seguito alcune tappe degne di interesse:

1836 – Faraday scopre che all’interno di una gabbia metallica non si risentono le azioni elettriche esterne (gabbia di Faraday);

1837 – il tedesco G. Oberhäuser (1798-1868) costruisce un microscopio che ingrandisce 500 volte;

1844 – il russo E. C. Lenz (1804-1865) scopre che la conducibilità elettrica dei fili metallici à inversamente proporzionale alla temperatura (questo fatto troverà una spiegazione compiuta solo nel nostro secolo con la formulazione della teoria quantistica delle bande di energia, teoria che si può trovare nel sito);

1844 – il britannico C Wheatstone (1802-1875) costruisce un dispositivo (ponte di Wheatstone) per la misura di resistenze);

1848 — il francese J. Palmer costruisce un calibro a vite micrometrica per misure di precisione (piccoli spessori e curvatura di lenti);

1851 – l’italiano M. Melloni (1798-1854) costruisce la pila termoelettrica, che funziona da termometro ad elevatissima sensibilità ed è in grado di rilevare anche a notevole distanza la presenza di una qualsiasi fonte di calore radiante;

1859 – il britannico C. Darwin (1809-1882) pubblica L’origine della specie affermando definitivamente la teoria evoluzionistica;

1865 – il britannico J.N. Lockyer (1836-1920) scopre nello spettro solare una riga non attribuibile a nessun elemento terrestre conosciuto. Egli denomina quell’elemento elio;

1880 – lo statunitense E.H. Hall (1855-1936) scopre una differenza di potenziale che si stabilisce nei punti  opposti rispetto all’asse di un conduttore percorso da corrente quando è sottoposto all’azione di un campo magnetico costante (effetto Hall);

1884 – il britannico J.A. Fleming (1849-1945) formula la regola detta delle tre dita (della mano sinistra), che fornisce direzione e verso della forza elettromagnetica originata dall’azione di un campo magnetico su una corrente elettrica;

1889 – il britannico E. Rutherford (1871-1937) scopre della radiazione proveniente dall’uranio ed in essa individua due diverse specie di raggi (raggi a e raggi b) con differenti proprietà elettriche e di penetrazione ;

1896 – il francese H. Becquerel (l852-1908) ottiene la deviazione dei raggi  b mediante un campo elettrico e conclude che si tratta di particelle cariche. Scopre inoltre che alcuni sali di uranio riescono ad impressionare lastre fotografiche attraverso sostanze opache interposte e quindi ne ricava l’esistenza di un’altra specie di raggi (raggi g);

1896 – l’olandese P. Zeeman (1865-1943) scopre lo sdoppiamento delle righe spettrali emesse da un gas quando quest’ultimo è sottoposto all’azione di un intenso campo magnetico;

1898 – il francese P. Curie (1859-1906) dimostra che tutti i corpi ferromagnetici diventano paramagnetici al di sopra di una data temperatura (temperatura di Curie);

1900 – l’irlandese J. Larmor (1857-1942) enuncia il teorema sulla precessione delle orbite elettroniche nei campi magnetici.

        Più in generale, altri aspetti che vanno sottolineati sono:

– un grande sviluppo delle tecniche da vuoto che permetteranno via via ricerche fisiche sempre più sofisticate;

– un grande sviluppo della fisica delle basse temperature (in connessione con le esigenze di refrigeramento delle derrate alimentari per e dalle colonie) che permetterà di raggiungere una conoscenza sempre più profonda della costituzione della materia e di sviluppare ampiamente la termodinamica;

– la costruzione di strumenti di misura sempre più sofisticati e precisi che saranno alla base di ogni ricerca e misura e che deriveranno dal sempre maggiore affinamento della tecnica.  

NOTE

(465) Si veda quanto già detto nei paragrafi 3 e 5 del capitolo 2°.

(466) II giroscopio era  stato inventato da L. Foucault nel 1852.

(467) Bibl. 16, Vol. II, pagg. 494-495.

(468) Bibl. 17, Vol. V, pag. 69.

(469) Bibl. 24, pag. 126.

(470) E nel frattempo (1882) la Chiesa, con Papa Pio VII, dopo quasi 300 anni, sanziona ufficialmente l’accettabilità del sistema copernicano. A questo proposito viene da pensare alla cosiddetta riabilitazione di Galileo da parte di Papa Giovanni Paolo II (1980). E Giordano Bruno ? E gli altri ? E poi: hi ha bisogno di essere  riabilitato ?  (a questo proposito vi sono vari articoli sul sito).

(471) Fraunhofer osservò poi che per diversi spettri la doppia riga gialla si trovava sempre “esattamente nello stesso posto” risultando  “conseguentemente utilissima” come sistema di riferimento.

(472) Draper usava una fiamma brillante per portare all’incandescenza i corpi e per questo sosteneva che gli spettri delle sostanze solide fossero continui (era la fiamma brillante che originava lo spettro continuo). Occorrerà la fiamma di Bunsen, molto calda e poco luminosa, per avere spettri discontinui.

(473) Kirohhoff, Sulle righe di Fraunhofer, Monats. Akad. Wissens.; ott.1859, pag. 662. Riportato anche in bibl.89, pagg. 382-384.  

(474) In una memoria di Kirchhoff e Bunsen del 1880 (Analisi chimica mediante osservazioni spettroscopiche, Poggendorf’s Annalen, vol. 110, pag. 161) si legge: “uno di noi ha mostrato, per mezzo di considerazioni teoriche, che lo spettro di un gas incandescente è invertito, cioè che le righe brillanti sono trasformate in righe nere quando una sorgente di luce, di intensità sufficiente, che dia uno spettro continuo, è posta dietro lo stesso. Da ciò possiamo concludere che lo spettro solare, con le sue righe nere, non è altro che l’inverso dello spettro che l’atmosfera del Sole stessa mostrerebbe. Quindi l’analisi chimica dell’atmosfera solare richiede solo l’esame di quelle sostanze le quali, quando siano poste in una fiamma, producono righe brillanti che coincidono con le righe nere dello spettro solare.” Citato in bibl. 54. pag. 78.

(476) Bibl. 100, pag. 838.  

(477) Sull’ Effetto fotoelettrico si veda il mio articolo presente nel sito.

(478) Allo scopo si veda la seconda parte del testo di bibl. 57. Si veda anche la corrispondenza tra Einstein e Born riportata in bibl. 104.

(479) Bibl. 19, Voi. III, pag. 205.

(480) II calcolo che Stoney fa per la carica dell’elettrone gli fornisce un valore 20 volte più piccolo di quello oggi accettato.

(481) Le scariche nei gas rarefatti erano iniziate molto tempo prima. I britannici Watson (l75l) e Morgan (1785) avevano scaricato bottiglie di Leida in modesti vuoti. Davy (1822) aveva osservato, con esperienze analoghe, una luminosità verdognola. Faraday (l838), lavorando con vuoti più spinti, vede scariche più colorate e, in particolare, osserva uno spazio scuro che circonda il catodo. A pressione ancora più bassa il francese J.J.B. Abria (l811-l892) nel 1843 osserva la scarica dividersi in strati alternativamente chiari e scuri, Geissler (l857) costruisce una pompa per vuoti più spinti (a vapori di mercurio) e realizza un tubo di vetro chiuso, dentro cui sono fissati i due elettrodi. Plücker (1858), utilizzando tubi di Geissler, osservò la fluorescenza del vetro nella parte antistante al catodo e scoprì che un magnete è in grado di spostarla. Hittorf (1869) pone nel tubo di Geissler un oggetto tra anodo e catodo e dimostra, dall’ombra  che la luce emessa dal catodo provoca nella zona antistante, che questa luce si propaga rettilineamente; egli scopre anche che i raggi emessi dal catodo sono calorifici e che, sottoposti ad un campo magnetico perpendicolare, essi acquistano una traiettoria elicoidale. Il britannico Karley (l87l) ipotizza, dalla deviazione che i raggi subiscono sotto l’azione di un campo magnetico, che essi sono costituiti da particelle cariche negativamente.

(482) Bibl. 19, Vol. IlI, pag. 231.

(483) II valore da lui trovato per q/a era 550 volte più grande del rapporto Q/M calcolato per lo ione idrogeno nei fenomeni elettrolitici, cioè q/m  =  550 Q/M. Da quello che sappiamo oggi, anziché 550 occorre trovare circa 1840; infatti, poiché la carica dell’elettrone è uguale a quella del protone e poiché m è la massa dell’elettrone ed M è quella del nucleo d’idrogeno, cioè del protone, si ha: 1/m  =  1840 .1/M   => M = 1840 m, si trova cioè quel che sappiamo e che cioè la massa del protone è circa 1840 volte quella dell’elettrone. 

(484) Se non si dispone di due misure indipendenti è impossibile misurare separatamente la carica e la massa dell’elettrone; quello che si può ottenere è solo il valore del rapporto della carica sulla massa e/m. Indicando, una volta per tutte, con e la carica dell’elettrone e con m la sua massa, il valore per e/m trovato da Wiechert (confronta con la nota 483) doveva essere tra le 2 000 e le 4 000 volte il rapporto Q/M per lo ione idrogeno trovato nei fenomeni elettrolitici.

(485) Quando uno ione attraversa un vapore soprasaturo, agisce da nucleo di condensazione per il vapore ed intorno ad esso si forma una minuscola gocciolina. Con questo strumento è quindi possibile seguire il cammino di una particella carica in un dato recipiente riempito di vapore soprasaturo (camera a nebbia).

3 – ALCUNE CONSEGUENZE SPERIMENTALI DELL’OPERA DI MAXWELL: I LAVORI DI HERTZ.

[Da queste pagine ho tratto il materiale per l’articolo La verifica sperimentale delle teorie di Maxwell: i lavori di Hertz. Ripubblico qui il lavoro mantenendo le note e la bibliografia. Saltano invece le note del lavoro originale dalla (486) alla (540]

PREMESSA

        I lavori di Maxwell avevano lasciato in sospeso alcune questioni di rilevante importanza dalla cui verifica o confutazione sperimentale sarebbero dipese le sorti dell’intera teoria. In particolare, la predizione teorica di esistenza di onde elettromagnetiche propagantesi nello spazio etereo alla velocità della luce diventava uno stimolo fortissimo alla loro ricerca sperimentale. (1) Per altri versi anche la ricerca di quell’etere elettromagnetico, supposto fisicamente esistente proprio perché dotato di proprietà fisiche, diventava una sfida ormai non più eludibile (anche in relazione agli sviluppi dell’ottica dei corpi in movimento).(2)

        Indubbiamente i lavori di Maxwell avevano aperto, in tutta la comunità scientifica, la strada ad una miriade di dibattiti, di elaborazioni teoriche, di imprese sperimentali. Ed al di là della potenza della riflessione teorica che apre ad una portata conoscitiva empiricamente impensabile, è pur vero che su almeno due fatti sperimentali si basava l’intera costruzione teorica di Maxwell: da una parte dall’osservazione di coincidenza della velocità di propagazione della luce con quella delle perturbazioni (onde) elettromagnetiche; dall’altra, dall’effetto di rotazione del piano di polarizzazione della luce indotto da un campo magnetico (effetto Faraday). Ed una prima osservazione che può essere fatta è che la “base sperimentale” a monte delle equazioni di Maxwell riguarda fenomeni ottici.(3) E proprio con esperienze che avevano a che fare con l’ottica si ebbero le prime verifiche sperimentali della sua teoria.

        Una conseguenza immediata della teoria elettromagnetica della luce era lo stabilire una relazione ben precisa tra la costante dielettrica e l’indice di rifrazione di una data sostanza. Maxwell aveva trovato che la velocità v di propagazione delle onde elettromagnetiche in un mezzo isolante (nel quale la permeabilità magnetica relativa è circa uguale ad uno) è data dalla relazione (1)  dalla quale segue la (2). La facile conclusione è che l’indice di rifrazione di una data sostanza è proporzionale alla radice quadrata della sua costante dielettrica relativa.

          Ebbene, proprio poco tempo dopo che Maxwell ebbe pubblicato questo risultato, L. Boltzmann (1873) mostrò sperimentalmente la sua correttezza.

        Riguardo poi all’effetto Faraday, nel 1875, il fisico britannico J. Kerr mostrò sperimentalmente che anche un campo elettrostatico agisce sulla propagazione della luce: alcuni corpi trasparenti, sia solidi che liquidi, se sottoposti ad un campo elettrico acquistano la proprietà della doppia rifrazione (effetto Kerr).

        Ma, al di là di queste conferme, che via via si andavano accumulando a sostegno della teoria elettromagnetica della luce, rimaneva un dubbio di fondo (oltre alle polemiche vere e proprie) e questo dubbio era ben espresso da Kelvin quando sosteneva di non comprendere i ragionamenti di Maxwell e di non capire bene l’utilità della teoria elettromagnetica della luce. Sembrava inoltre ben chiaro che l’insieme delle equazioni di Maxwell andava ben al di là dell’eventuale riconosciuta identità di luce ed onde elettromagnetiche.

        La teoria di campo era certamente stata l’idea conduttrice di tutti i lavori di Faraday, ma quest’ultimo non era stato in grado di portare alcun nesso deduttivo formale che legasse le sue scoperte alle sue teorie e, d’altra parte, nessun esperimento di Faraday poteva essere spiegato in modo univoco a partire dalla teoria di campo. L’unico appiglio poteva essere la teoria ondulatoria della luce, ma quest’ultima era relegata in un capitolo della fisica che nulla aveva a che vedere con la meccanica della materia ordinaria. In ogni caso era possibile accettare tutti i risultati sperimentali di Faraday senza per questo doversi compromettere con l’accettazione della teoria che, in particolare, prevedeva l’abbandono della teoria newtoniana dell’azione istantanea a distanza. Con le elaborazioni di Maxwell non fu più possibile trascurare la teoria di campo ed in ogni caso sarebbe stato necessario confrontarsi con essa per un suo eventuale rigetto.

        Intanto veniva con sempre maggiore chiarezza affermandosi l’idea che luce ed onde elettromagnetiche fossero la stessa cosa, insieme al fatto che il campo elettromagnetico fosse uno stato particolare del mezzo dielettrico che aveva come caso speciale l’etere, inteso allo stesso modo di un dielettrico materiale come, ad esempio, la paraffina o il vetro ( e ciò apriva a possibili confutazioni sul piano sperimentale); quindi rimanevano aperte questioni relative a:

– come interagisce un campo con una carica e con una corrente;

– qual è il campo intorno ad una carica in moto;

– qual è il campo vicino ad una corrente variabile;

– come interagisce il campo con la materia ed in particolare

– come il campo risulta perturbato dal moto della materia nell’etere (supposto dalla teoria) in analogia con le problematiche che si ponevano nell’ottica dei corpi in movimento (il moto della Terra perturba la propagazione della luce ?);

– cos’è una carica (una perturbazione di campo – alla Faraday – o una particella ?).

– Svariati fisici del mondo anglosassone si cimentarono con questi problemi (J.J.Thomson, J.H. Poynting, G.F.Fitzgerald, O.Heaviside) ma non realizzarono passi degni di nota.

HELMHOLTZ

        Nel continente il primo a comprendere l’enorme portata della teoria di Maxwell fu Helmholtz che la elaborerà con modificazioni radicali (4), in un contesto molto più vicino alla fisica newtoniana, reintroducendo l’azione a distanza ma dovendo rinunciare allo spazio vuoto che viene rimpiazzato dall’etere.

        Il nostro, nel 1870, pubblicò una memoria dal titolo Sulle equazioni del movimento dell’elettricità per corpi conduttori in moto. In essa l’autore metteva a confronto le varie teorie elettromagnetiche fino ad allora sviluppate per fornirne una sua, concludendo che sarebbe stato necessario costruire una teoria elettrodinamica in completo accordo con le teorie di Newton, altrimenti si sarebbe rischiato di inficiare la validità di queste ultime. Ed al fine di conseguire il risultato che si prefiggeva egli fece delle ipotesi che così enunciava nell’articolo in oggetto: “si considera che le azioni elettrostatiche ed elettrodinamiche sono pure azioni a distanza, nelle quali il mezzo isolante non subisce né esercita effetti …ciò non ostante, a causa delle scoperte di Faraday, oggi sappiamo che la grande maggioranza dei mezzi materiali è magnetizzabile … La teoria più elementare del diamagnetismo si ottiene supponendo che l’etere luminifero che riempie lo spazio è magnetizzabile, ammetteremo allo stesso tempo (la qual cosa non è improbabile) la possibilità di considerarlo come un dielettrico, nel senso di Faraday.” Sulla base di queste ipotesi egli riuscì a trovare una formula che, in accordo con la meccanica newtoniana, con la conservazione dell’energia e con la teoria di Ampère per correnti chiuse (circuito senza condensatori), forniva nel modo più generale l’equazione del potenziale di un elemento di corrente che agiva su di un altro. La formula dipendeva da un parametro K (che poteva assumere i valori:-1;0,+1) e, a seconda del suo valore, essa sarebbe risultata in accordo, rispettivamente, con la teoria di Weber, di Maxwell, di Neumann.

        Diventava sempre più urgente andare ad indagare che relazione esistesse tra la teoria elettromagnetica e la polarizzazione dei dielettrici. Vari risultati negativi in questo senso convinsero Helmholtz del fatto che, qualunque teoria elettromagnetica, per essere corretta, dovesse tenere conto degli effetti elettromagnetici dei dielettrici: “sembra importante investigare cosa accade della mia legge generalizzata dell’induzione nel caso di mezzi magnetizzabili e dielettricamente polarizzabili.”(5) Ma il non essere riuscito a realizzare nessun esperimento che evidenziasse la possibilità di polarizzare un dielettrico attraverso un campo magnetico lo indusse (1879) a far bandire dall’Accademia delle Scienze di Berlino un concorso che avesse come tema, appunto, il “Trovare per via sperimentale una relazione tra forze elettromagnetiche e polarizzazione dielettrica degli isolanti – cioè , o una forza magnetica esercitata dalle polarizzazioni nei corpi non conduttori, oppure la polarizzazione del non-conduttore come effetto dell’induzione elettromagnetica”;(6) si trattava quindi, come diremmo oggi, di trovare una relazione qualunque tra materia e campo. La soluzione di questo problema avrebbe potuto essere cruciale per scegliere tra le varie teorie elettromagnetiche e quella di Maxwell.

        Come si può ben capire l’esperimento a questo punto avrebbe giocato un ruolo determinante ed in questo senso i lavori di Helmholtz in elettrodinamica non furono tanto importanti in sé, ma in quanto facevano chiarezza sui problemi ed indicavano possibili soluzioni sperimentali.

HERTZ

        Lo stesso Helmholtz avviò Hertz a cimentarsi con questo problema. Ma la questione era delicata e non così conseguente come potrebbe sembrare. Infatti Hertz conosceva inizialmente la teoria di Maxwell come caso limite della teoria di Helmholtz (K = 0); e ciò vuol dire, in poche parole, che non conosceva direttamente l’opera di Maxwell, ma solo l’elaborazione che ne aveva fatto Helmholtz.(7) E certamente ciò fu, da una parte, un grande vantaggio, poiché Hertz comprendeva meglio il contesto in cui si muoveva Helmholtz e quindi era inizialmente in grado di coglierlo in tutta la sua portata, dall’altra, una specie di handicap poiché, come osserva D’Agostino, “nella forma accettata da Helmholtz la teoria di Maxwell sarebbe stata impervia ad ogni verifica di tipo hertziano (rilevamento di onde elettromagnetiche nell’aria) perché, fra l’altro, il fatto che la polarizzabilità dell’aria … è pochissimo differente dall’unità avrebbe reso difficile, secondo la teoria di Helmholtz, un esperimento per rivelare radiazioni elettriche nell’aria. Coerentemente con la sua visione teorica Helmholtz aveva indirizzato Hertz verso un tipo di verifica che consisteva nel rivelare forti correnti di polarizzazione in dielettrici densi, come la paraffina, la pece greca, ecc., che hanno anche una relativamente alta costante dielettrica relativa.”(8) La stessa teoria di Maxwell non avrebbe poi aiutato per nulla Hertz: le esemplificazioni (scarica di un condensatore nel caso di forte smorzamento) ed i conti che si trovavano sul Trattato di Maxwell (sviluppo dell’equazione di un’onda piana che corrisponde ad una sorgente posta all’infinito) erano i meno adatti ad una verifica sperimentale.

        Allora è del tutto evidente che quanto Hertz operò non fu una semplice e lineare “verifica” della teoria di Maxwell. Egli, formatosi in un contesto di scuola continentale, dovette superare sperimentalmente questo contesto, addirittura capovolgendone le premesse, per arrivare a lavorare con dielettrici poco densi come, ad esempio, l’aria e per riuscire a sperimentare nella banda elettromagnetica di frequenze. Il processo fu lungo e travagliato tant’è vero che, quando nel 1879 fu bandito il concorso dell’Accademia di Berlino, Hertz ritenne impossibile arrivare ad una qualche conclusione e per 7 anni abbandonò, almeno pubblicamente, il problema. Anni dopo lo stesso Hertz raccontò(9): “ Ho riflettuto sul problema ed ho cercato di capire quali risultati potevo aspettarmi in condizioni favorevoli utilizzando le oscillazioni delle bottiglie di Leida e dei rocchetti d’induzione aperti. La conclusione che ne ricavai non era certamente quella che io desideravo; a prima vista non ci si doveva aspettare nessun fenomeno nitido ma soltanto un’azione al limite dell’osservabilità. Così, dunque, abbandonai l’idea di lavorare al problema.”

        Nel 1884 Hertz tornò sulla questione per affrontarla da un punto di vista teorico in una memoria dal titolo Relazioni tra le equazioni fondamentali dell’elettrodinamica di Maxwell e le equazioni fondamentali di diverse elettrodinamiche(10). In questo lavoro egli non premise alcuna ipotesi speciale e, in particolare, non postulò alcun etere o alcun meccanismo di trasmissione in esso. Rielaborò quindi le equazioni di Maxwell nel contesto della scuola continentale e, in particolare, con il metodo dei potenziali ritardati introdotto da Riemann e L. Lorenz. Egli formalmente realizzò una generalizzazione della teoria di Neumann riuscendo, alla fine, a ritrovare le equazioni di Maxwell in modo più semplice ed immediato riducendone, tra l’altro, il loro numero da 20 a 9, scrivendole in una feconda forma simmetrica, eliminando da esse i potenziali vettori e scrivendole in forma vettoriale (così come aveva fatto Heaviside in modo indipendente ed al quale Hertz riconobbe la priorità temporale). Questo lavoro permise ad Hertz di intuire la possibilità di verificare la teoria non più nella banda ottica di frequenze (come già accennato e fino ad allora fatto) ma nella banda elettromagnetica, mediante le forze che si esercitano tra due circuiti chiusi percorsi da corrente alternata ad alta frequenza.

LE PRIME ESPERIENZE

        Nel 1886, appunto 7 anni dopo il bando di concorso dell’Accademia, Hertz ritornò sulla questione con una conoscenza più profonda della teoria di Maxwell e con una maggiore pratica sperimentale, soprattutto nel campo delle correnti ad alta frequenza. E se da una parte è vero che Hertz non inventò alcuno strumento, è altrettanto vero che egli seppe utilizzare i più avanzati prodotti che la tecnologia dell’epoca era in grado di offrirgli ed al limite delle possibilità.

        Secondo la teoria di Maxwell una variazione nella polarizzazione di un dielettrico ha gli stessi effetti magnetici di una corrente di conduzione. Ebbene, nel caso della polarizzazione, si ha a che fare con un fenomeno o così rapido o così debole che risulta estremamente difficile poterlo rilevare. Hertz si rese conto che la possibilità di evidenziare il fenomeno poteva risiedere nel “moltiplicarlo” cercando di ottenere successive, rapide e periodiche polarizzazioni e depolarizzazioni.(11) Per ottenere ciò ci si poteva affidare ad una bottiglia di Leida che fornisce appunto una scarica oscillatoria.(12) Una scarica di tali caratteristiche avrebbe potuto originare gli effetti di polarizzazione e depolarizzazione annunciati, mediante un dispositivo schematizzato in figura 1.

        Ad un dato istante la scarica del condensatore (bottiglia di Leida) C va a caricare le placche metalliche A e B. In questo modo il dielettrico D risulta prima polarizzato, quindi depolarizzato ed ancora polarizzato in verso opposto. Se si accetta la teoria di Maxwell ad ogni polarizzazione corrisponde una vera e propria corrente istantanea di spostamento, alla quale dovrà associarsi un campo magnetico con linee di forza concentriche alla direzione della corrente e quindi del campo elettrico (il verso di queste linee di forza cambierà con il cambiamento di verso del campo elettrico). In definitiva, operando in questo modo, si produce un campo elettromagnetico periodicamente variabile e si ha così l’opportunità di vedere come esso agisce sul dielettrico per semplice confronto dell’effetto induttivo con e senza il dielettrico tra le armature A e B.

        Il problema era però proprio di natura strumentale: sarebbe stato possibile disporre di un apparato (bottiglia di Leida, nella prima ipotesi) che generasse oscillazioni così intense e rapide da produrre un effetto induttivo nel dielettrico tale da poter essere evidenziato? Hertz si fece i conti: gli effetti risultavano troppo deboli per poter essere misurati.(13) E fu così che, come già detto, nel 1879 egli fu costretto ad abbandonare l’impresa.

        Cos’era cambiato tra il 1879 ed il 1886 da un punto di vista strumentale? Leggiamo ciò che lo stesso Hertz scriveva nel 1889: (14) “Basandosi sui metodi tradizionali non ci si poteva aspettare alcun aiuto e a sbloccare la situazione doveva sopraggiungere una nuova informazione. Si scoprì allora che, non solo la scarica della bottiglia, ma anche quella di qualsiasi conduttore, sotto certe particolari condizioni, dà origine ad oscillazioni che possono essere molto più brevi di quelle della bottiglia.” Hertz aveva scoperto la possibilità di produrre scariche oscillanti di frequenza molto più elevata ( di circa un fattore 100, con un periodo dell’ordine di 10-5 secondi pari ad una lunghezza d’onda di 3 metri) utilizzando dei rocchetti di induzione (spirali di Riess e Knochenhauer) alimentati da accumulatori.

        Egli montò quindi l’esperienza così com’è schematicamente mostrato in figura 2a, nella quale: R1 rappresenta un rocchetto d’induzione alimentato dall’accumulatore A; B è un circuito di scarica nel quale le sfere C1 e C2 sono due conduttori metallici ivi sistemate per aumentare la capacità dei cavi; K ed R2 costituiscono il circuito secondario su cui viene indotta la corrente generata da R1; M rappresenta uno spinterometro, regolabile mediante una vite micrometrica, sul quale si producono le scintille di scarica. Così scriveva Hertz nella sua memoria del 1887, Sulle oscillazioni elettriche rapidissime, nella quale descriveva i risultati dei suoi primi lavori sperimentali (15): “L’esperienza iniziale è semplice. Un filo di rame piegato secondo un rettangolo costituisce un circuito secondario; esso è tagliato a metà di uno dei due lati da un micrometro a scintille M. Un altro filo conduttore lo collega per uno dei suoi punti P al circuito di scarica [B] di una bobina d’induzione [R1], circuito molto aperto formato da due rami paralleli, posti testa a testa, che portano alle loro estremità delle sfere [C1 e C2] che costituiscono delle capacità e separato da un intervallo regolabile [h] tra cui scoccano le scintille primarie. Quando il punto di giunzione P è posto asimmetricamente rispetto al micrometro M, ogni scintilla primaria genera una scintilla secondaria [fig. 2a]. Ma se esso è al centro del lato opposto al rettangolo [fig. 2b], se la simmetria dei due rami è completa, la scintilla secondaria scompare o quasi: si è al ‘punto di indifferenza’.”

        Riservandoci di tornare tra un istante a questo ‘punto di indifferenza‘, seguiamo ancora quel che scriveva Hertz per illustrare il sistema che aveva utilizzato per rilevare il fenomeno(16): “Poiché le scintille [nel secondario] sono estremamente piccole, di una lunghezza che raggiunge appena il centesimo di millimetro, la loro scarica non impiega neppure un milionesimo di secondo. Sembra impossibile,quasi assurdo, che esse debbano essere visibili, ma in una stanza buia sono visibili ad un osservatore attento.”

        Hertz aveva dunque a disposizione l’apparato sperimentale con il quale avrebbe potuto finalmente affrontare il tema del concorso bandito dall’Accademia di Berlino. Egli ancora si muoveva nell’ambito della verifica sperimentale della teoria elettrodinamica di Helmholtz e per questo dovette passare attraverso varie difficoltà poiché la polarizzazione alla Helmholtz è un qualcosa di diverso dalla corrente di spostamento di Maxwell; in particolare, come già accennato, secondo la teoria di Helmholtz, si trattava di rilevare forti correnti di polarizzazione in dielettrici densi, piuttosto che anche deboli correnti di spostamento in dielettrici a piccola densità come etere o aria.

        E sono proprio gli esperimenti che poco a poco fanno ribaltare in Hertz il suo quadro concettuale, fino a farlo passare dall’adesione alle teorie di Helmholtz all’accettazione della teoria di Maxwell, con un programma sperimentale finalizzato alla rivelazione dei fenomeni indotti, non più nei mezzi densi, ma nell’aria o nell’etere. Ma ritorniamo ai suoi esperimenti servendoci ancora della figura 2.

        Quando ci si trova nelle condizioni di figura 2a (il micrometro a scintilla M posto in posizione asimmetrica rispetto a P) la perturbazione elettrica generata da R1 provoca delle scintille in M. Se ci si trova invece nelle condizioni di figura 2b (M situato simmetricamente rispetto a P) in M non si osservano scintille (che invece continuano numerose nello spinterometro del primario). La spiegazione di ciò è abbastanza semplice: le scintille si originano a causa della differenza di potenziale esistente tra i punti 1 e 2 di M; quando l’oscillazione che arriva alla spira R2 si divide in due cammini di diversa lunghezza (Pabcd2 diverso da P1) per arrivare ad M, allora si ha la scintilla (situazione di figura 2a: c’è una differenza di fase, e quindi di potenziale, tra i punti 1 e 2, fra le oscillazioni che si propagano sui due cammini diversi); quando l’oscillazione che arriva in R2 si divide percorrendo due cammini uguali (Pab1 diverso da Pdc2) per arrivare ad M, allora non si ha scintilla (situazione di figura 2b: non c’è differenza di fase, e quindi di potenziale, tra i punti 1 e 2, fra le oscillazioni che si propagano su cammini di uguale lunghezza).(17)

DIFFICOLTA’ ED UN PRIMO SUCCESSO

        Hertz pensò allora di sfruttare questa proprietà per arrivare a risolvere il problema posto dall’Accademia. Infatti la proprietà di non avere scintille per una particolare disposizione simmetrica del secondario, la proprietà di avere un punto neutro, lo convinse del fatto che le oscillazioni dovessero avere una grande regolarità. Ebbene, si modifica la posizione del punto neutro interponendo un dielettrico in modo opportuno fra le sfere C1 e C2 del primario? Il risultato di questa esperienza avrebbe fornito la soluzione al quesito dell’Accademia.

        Prima di passare a ciò, Hertz volle accertarsi che gli effetti nel primario fossero dovuti essenzialmente al fenomeno dell’autoinduzione piuttosto che a fenomeni di induzione mutua con il secondario. Nel far questo scoprì che si producevano scintille nello spinterometro M del secondario anche quando quest’ultimo non era collegato mediante il conduttore K con il circuito primario; e ciò poteva essere meglio evidenziato aumentando di molto la capacità delle due sfere C1 e C2 (fig. 3a). Egli interpretò il fenomeno, in analogia con quanto Helmholtz aveva fatto nell’acustica, in termini di risonanza mostrando che gli effetti nel secondario dipendevano in modo molto stretto dalle dimensioni di quest’ultimo. Questo fatto risultò di grande importanza per lo sviluppo del programma sperimentale di Hertz: si aveva ora a disposizione uno strumento che, costruito con geometria e dimensioni opportune, avrebbe permesso la rilevazione a distanza nell’aria delle perturbazioni elettromagnetiche originate nel primario.

        Con il dispositivo di figura 3a, modificato come in figura 3b, Hertz risolse un altro dei problemi che era stato proposto da Helmholtz, anche se non immediatamente connesso con il tema del concorso: dimostrò che le correnti aperte (come quella che ‘circola’ tra k ed i) provocano effetti induttivi. Infatti, anche nel caso del montaggio di figura 3b, si osservano scintille in M e queste scintille sono più intense di quelle rilevate con il montaggio di figura 3a; Hertz interpretò il fenomeno come dovuto alla sovrapposizione degli effetti delle oscillazioni che si producevano nel secondario e della corrente aperta del primario.(18)

        Sempre con il dispositivo di figura 3a, modificato come in figura 4, Hertz si accinse all’esperienza il cui risultato gli avrebbe permesso di rispondere al quesito dell’Accademia. I bracci del circuito B di scarica sono ora piegati e terminano sempre con due conduttori C1 e C2 che, questa volta, hanno maggiore capacità e sono modificati a forma di piastre; nello spazio tra C1 e C2 viene posto un dielettrico D molto denso (un pacco di carta, della paraffina, del solfuro di paraffina, … ). Hertz si proponeva di verificare se “le correnti di polarizzazione producono effetti elettromagnetici come le correnti di conduzione”. Si trattava di provare se la presenza del dielettrico producesse una qualche perturbazione nelle correnti indotte nel secondario R2. E si poteva procedere, come già accennato, semplicemente per confronto: andando a valutare la differenza di scintillazione nel secondario quando il dielettrico fosse stato rapidamente tolto. Hertz, in accordo con la teoria di Helmholtz, si aspettava che l’effetto in R2 sarebbe stato maggiore quando il dielettrico D (solfuro di paraffina) era posto tra C1 e C2, poiché, secondo la teoria di Helmholtz, la corrente di spostamento sarebbe stata maggiore nel dielettrico denso che nell’aria, a causa del fatto che il potere induttivo del primo era molto maggiore di quello del secondo. Ebbene, la rimozione rapida del dielettrico non provocava alcun effetto, E con queste parole Hertz descriveva la situazione (19):

L’estate del 1887 trascorse in inutili tentativi di mettere in evidenza l’influenza elettromagnetica degli isolanti, con l’aiuto del nuovo tipo di oscillazioni … L’esperimento falliva sempre per l’invariabile ripresentarsi di forti scintille nel conduttore secondario, cosicché il piccolo effetto – di rafforzamento o indebolimento – prodotto dall’isolante non si lasciava sentire. Poco a poco mi resi conto che, in questo caso, non poteva essere applicata la legge che io avevo supposto alla base del mio esperimento; che, a causa della rapidità del movimento, anche le forze originate da un potenziale sono in grado di produrre scintille nel conduttore quasi chiuso; e, in generale, che, quando si applicano le idee e le leggi generali che sono alla base delle teorie elettriche usuali, bisogna procedere con somma cautela. Tutte queste leggi sono relazionate con situazioni statiche o stazionarie, mentre io stavo in realtà di fronte ad uno stato variabile.

        Il fatto che non si osservassero effetti al secondario, quando nel primario era posto e successivamente rimosso il blocco dielettrico, fu finalmente spiegato da Hertz come un effetto di sovrapposizione: quando non c’è il dielettrico concorrono al processo d’induzione sia le correnti nei fili, sia le cariche statiche presenti sulle placche C1 e C2 e quindi le cose vanno allo stesso modo di quando c’è il dielettrico (in quest’ultimo caso dovendo considerare, invece dell’effetto delle cariche statiche, l’effetto della polarizzazione del blocco dielettrico). Si trattava allora di trovare un qualche arrangiamento sperimentale che permettesse di evitare l’effetto delle forti scariche dovute al campo elettrico tra le placche C1 e C2 del primario. Ed a questo fine Hertz scoprì che, cambiando la posizione del secondario R2 (che possiamo chiamare ‘circuito rivelatore’) su differenti piani dello spazio, era possibile separare la rivelazione degli effetti elettrici da quelli magnetici. Sistemando quindi il rivelatore in modo opportuno, egli andò a studiarsi solo gli effetti magnetici riuscendo, in questo modo, a confrontarli con e senza il dielettrico.

        Finalmente l’esperienza dette i risultati previsti: quando il dielettrico era posto tra C1 e C2 si aveva un effetto nel circuito rivelatore più grande di quello che si aveva quando il dielettrico era rimosso; ponendo successivamente un blocco conduttore al posto del dielettrico ed osservando che si aveva lo stesso effetto nel rivelatore di quello che si aveva con il dielettrico, risultava dimostrato che la corrente dovuta ad una variazione di polarizzazione ha degli effetti uguali ad una normale corrente di conduzione. In questo modo era risolta la prima parte del quesito proposto dall’Accademia: Hertz aveva trovato “ una forza elettromagnetica esercitata dalle polarizzazioni nei corpi non conduttori “. Questo risultato venne comunicato all’Accademia nel novembre del 1887.(20)

LE ESPERIENZE DECISIVE

        Rimaneva da verificare la seconda parte del tema del concorso:” la polarizzazione del non-conduttore come effetto dell’induzione elettromagnetica.” Ma mentre Hertz si accingeva a farlo rifletteva sul lavoro di Helmholtz del 1870. Come lo stesso Hertz raccontò,(21) Helmholtz aveva ricavato la teoria di Maxwell introducendo tre ipotesi fondamentali all’interno della teoria elettromagnetica: le prime due erano quelle che dovevano essere verificate nell’ambito del concorso, mentre la terza consisteva nell’ammettere che, sotto l’aspetto degli effetti che possono produrre, “l’aria e lo spazio vuoto si comportano come tutti gli altri dielettrici.” Osservava allora Hertz che “ mettere alla prova tutte queste ipotesi e stabilire con ciò la fondatezza di tutta la teoria di Maxwell sembrava una richiesta non ragionevole e l’Accademia si era quindi contentata della conferma di una delle prime due.”(22) La dimostrazione delle prime due ipotesi avrebbe al massimo verificato una sola parte della teoria infatti, come osservava Hertz,(20) “ il punto cruciale della nuova teoria non stava nelle conseguenze delle prime due ipotesi. Se si dimostrava che erano corrette per un qualunque isolante, ne sarebbe discesa come conseguenza che il tipo di onde predette da Maxwell potevano propagarsi in esso, con una velocità finita che potrebbe essere forse molto diversa da quella della luce. Mi convinsi che la terza ipotesi raccoglieva in sé l’essenza e particolare importanza della teoria di Faraday e, pertanto, di quella di Maxwell, e che valeva la pena porsela come obbiettivo. Non riuscivo a vedere il modo di provare separatamente la prima e la seconda ipotesi nell’aria [o nel vuoto]; ma ambedue sarebbero state provate simultaneamente se riuscivo a dimostrare l’esistenza di onde che si propagano nell’aria con velocità finita.”(23)

        C’è da notare che questo programma di ricerca era probabilmente relazionato con quanto Hertz aveva osservato ‘di passaggio’ nel condurre le esperienze precedenti. Come egli diceva:(24) “ Il fatto che più mi sorprese era il continuo aumento della distanza a cui l’azione era rilevabile; fino allora l’idea corrente era che le forze elettriche diminuivano secondo la legge di Newton, e pertanto tendevano rapidamente a zero con l’aumentare della distanza.”

        Ed è proprio da qui che procede l’idea che condusse Hertz a realizzare le esperienze successive. Egli aveva osservato azioni fino a 12 metri di distanza dal primario; nel caso vi fossero state delle onde, “in questo raggio la fase del movimento avrebbe dovuto subire più di una inversione; si trattava solo di rilevare e provare queste inversioni.”(25) Si trattava cioè di provare la presenza di ventri e nodi.

        Per far ciò Hertz ideò (1888) un’esperienza con la quale si proponeva di confrontare la velocità di propagazione di una perturbazione elettromagnetica e nell’aria e in un cavo.(26) L’esperienza consisteva nel creare una perturbazione elettromagnetica con il solito metodo del rocchetto primario d’induzione; questa perturbazione si sarebbe propagata nell’aria così come Hertz aveva scoperto, ebbene, mediante il dispositivo mostrato in figura 5a (si osservi che le figure 5a e 5b mostrano una stessa situazione da due punti di osservazione differenti), si poteva confrontare la velocità della perturbazione che si propagava nell’aria e di quella che, simultaneamente immessa, si propagava in un cavo (tagliato ad una certa distanza dalla sorgente per motivi che ora vedremo). Per rilevare gli effetti del fenomeno, si poteva ancora usare il rivelatore a scintille precedentemente ideato da Hertz (fig. 5c). L’aggiunta della placca C1’ serve per il collegamento del cavo (accoppiamento capacitivo) e quest’ultimo è tagliato affinché l’onda che in esso viaggia possa riflettersi all’estremità del cavo (fatto già accertato a partire dai lavori di Weber e Kohlausch), interferire con l’onda entrante e quindi produrre, nel cavo stesso, un’onda stazionaria.

        La chiave dell’esperienza è la seguente: se l’onda che si propaga nell’aria ha la stessa velocità (finita) di quella che si propaga nel cavo, così come previsto dalla teoria di Maxwell, le due onde (o meglio: i due campi) interferiranno in modo che si sommeranno ed annulleranno allo stesso modo lungo tutto il cavo; se però la perturbazione che si propaga nell’aria ha velocità infinita (azione a distanza), non si avrà interferenza e l’onda risultante avrà la stessa periodicità dell’onda che viaggia nel cavo e quindi cambierà di segno ogni semilunghezza d’onda (si formerà una specie di onda stazionaria).(27) In definitiva se si osservava una inversione di fase ogni semilunghezza d’onda, la teoria di Maxwell non funzionava; se invece la fase rimaneva costante lungo tutto il cavo, l’onda si propagava con velocità finita anche nell’aria (e quindi nel vuoto o etere) e la teoria di Maxwell risultava confermata.

        Era il rivelatore che, spostato adeguatamente nello spazio,(28) avrebbe permesso, a partire dalle variazioni nella scintillazione, di individuare i ventri ed i nodi e quindi determinare la fase dell’onda risultante.

        Dai risultati di questa esperienza Hertz rimase dapprima scoraggiato: l’onda risultante cambiava di segno non alla distanza prevista di una semilunghezza d’onda, ma ad una distanza circa due volte e mezza superiore; inoltre questo cambio di segno non si ripeteva a distanze regolari, risultando più frequente nelle vicinanze dell’oscillatore. Sembrava comunque evidente, nell’interpretazione di Hertz, la presenza di onde elettromagnetiche propagantesi nell’aria a velocità finita, anche se superiore a quella della luce; e sembrava anche che questi risultati non fossero in accordo con nessuna delle teorie elettromagnetiche fino ad allora sviluppate. Riguardo alla prima questione (onde che si propagano nell’aria a velocità superiore a quella della luce), essa nasceva da un banale errore di calcolo nel periodo di oscillazione del primario (l’errore fu corretto nel 1890 da H. Poincaré);(29) La soluzione della seconda questione (disaccordo con tutte le teorie elettromagnetiche) fu intuita da Hertz quando si rese conto che le onde che si propagavano nell’aria, in accordo con la teoria di Maxwell, si riflettevano sugli oggetti, specialmente se metallici, presenti nel laboratorio.(30)

        Scriveva Hertz: “ mentre ricercavo l’azione delle mie oscillazioni primarie a grandi distanze, osservai qualcosa come la formazione di ombre dietro le masse conduttrici [presenti nel laboratorio], la qual cosa non mi causò una gran sorpresa. Poco dopo credetti di vedere un rafforzamento molto peculiare dell’azione di fronte a queste masse che formavano ombre e anche alle pareti della stanza. La prima idea che mi formai era che questo rafforzamento potesse provenire da una specie di riflessione della forza elettrica sulle masse conduttrici; però, non ostante avessi familiarità con la teoria di Maxwell l’idea mi sembrava quasi inammissibile, tanto essa contrastava con le concezioni allora correnti sulla natura della forza elettrica. Senza incertezze, dopo aver stabilito con sicurezza l’esistenza delle onde, tornai alla spiegazione che all’inizio avevo rifiutato.”(31)

        E’ così che Hertz iniziò una nuova serie di esperienze (1888) con le quali, avendo perfezionato la sua strumentazione, riuscì a dimostrare che per le onde elettromagnetiche valgono tutte le leggi dell’ottica: riflessione, rifrazione, propagazione rettilinea, polarizzazione, trasversalità delle vibrazioni, … (32) E’ importante notare che questa volta Hertz eseguì le sue misure di lunghezza d’onda direttamente nell’aria ed indipendentemente dal cavo che aveva usato in precedenza; inoltre egli assunse che la velocità delle onde nell’aria fosse uguale a quella della luce.

        A questo punto nessuno più poteva mettere in dubbio l’esistenza delle onde elettromagnetiche, della loro propagazione a velocità finita e mediante azione a contatto. La teoria di Maxwell si poneva ormai come base consolidata dell’elettromagnetismo e dell’ottica.(33)

I LAVORI TEORICI DI HERTZ

        Ma hertz non si fermò qui. Egli proseguì i suoi lavori con tre memorie di contenuto teorico (34) nelle quali cercò di precisare e sistematizzare le sue idee nel nuovo contesto teorico e sperimentale, “ in accordo con la teoria di Maxwell” alla luce però di una nuova reinterpretazione di essa.

        E’ interessante notare come ancora Hertz veda Maxwell con gli occhi di Helmholtz. Molte delle critiche che egli rivolgeva a Maxwell discendevano infatti , come già detto, dall’avere Hertz studiato l’opera del fisico britannico soprattutto attraverso i lavori di Helmholtz e, comunque, non oltre il Trattato dello stesso Maxwell. In ogni caso Hertz, nella prima di queste tre memorie teoriche, “ Le forze delle oscillazioni elettriche, trattate in accordo con la teoria di Maxwell “, con un metodo che discendeva dai già utilizzati lavori di Riemann e L. Lorenz detto dei potenziali ritardati, ricavò di nuovo le equazioni di Maxwell a partire, questa volta, dallo studio dell’irraggiamento del suo oscillatore rettilineo (che gli serviva da sorgente del campo). Egli ottenne come risultato le equazioni di Maxwell scritte nella stessa forma e con gli stessi simboli della sua ancora precedente memoria teorica, quella del 1884.(35)

        Nella seconda di queste memorie, “ Sulle equazioni fondamentali dell’elettrodinamica dei corpi in riposo “, egli sviluppò una critica al modo con cui Maxwell aveva ricavato le sue equazioni. Così scriveva Hertz:(36)

 Maxwell inizia con il postulare un’azione a distanza diretta e a ricercare le leggi con cui l’ipotetica polarizzazione dell’etere dielettrico dovrebbe variare sotto l’azione di queste forze(37) e conclude affermando che, non ostante la polarizzazione segua effettivamente questa legge, non è in realtà necessario che essa sia influenzata dall’azione a distanza.(38) Questo procedimento lascia dietro di sé una certa insoddisfazione e porta alla conclusione che vi deve essere qualcosa di errato o nel risultato finale o nel procedimento mediante il quale lo si raggiunge. Un altro effetto di questo modo di procedere è che nelle formule sono mantenuti un certo numero di concetti superflui, ed in un certo senso rudimentali che solo avevano il loro proprio significato nella vecchia teoria dell’azione a distanza. “(39)

        Hertz passò allora ad affermare che nelle equazioni che descrivono i fenomeni elettromagnetici debbono comparire solo “grandezze osservabili e non grandezze che sono soltanto utili per il calcolo “. Poiché le grandezze effettivamente osservabili sono le intensità del campo elettrico E e del campo magnetico H, la carica e la corrente, egli passò di nuovo a riscrivere le equazioni di Maxwell in termini di queste grandezze ‘osservabili’ eliminando i potenziali, vettori e scalari, che comparivano nella formulazione di Maxwell, perché non osservabili.(40)

        Altro fatto di rilevante importanza ed interesse (41) è che Hertz, sempre nel ricavare le equazioni di Maxwell, rinunciò deliberatamente ad una qualsiasi spiegazione meccanicistica. Così Hertz presentava la situazione:(42)

“ Dopo aver trovato queste equazioni non sembra più utile dedurle (in accordo con il processo storico) da ipotesi sulla costituzione elettrica o magnetica dell’etere e sulla natura delle forze agenti – essendo tutte queste cose completamente ignote. Piuttosto è utile partire da queste equazioni in cerca di tali ulteriori congetture sulla costituzione dell’etere.” E’ dunque un processo di assiomatizzazione quello che vedeva impegnato Hertz ed egli era anche cosciente che la cosa poteva non risultare gradita: (43)

 E’ vero che in conseguenza di questi tentativi la teoria acquista un’apparenza molto astratta ed incolore … Non è particolarmente soddisfacente veder presentare delle equazioni come risultati diretti dell’osservazione e dell’esperimento laddove usavamo ricevere lunghe deduzioni matematiche quali prove apparenti di esse … Se desideriamo dare più colore alla teoria, non vi è nulla che ci impedisca di aggiungere tutto ciò e di aiutare le nostre facoltà d’immaginazione con rappresentazioni concrete delle varie concezioni circa la natura della polarizzazione elettrica, della corrente elettrica, ecc. Ma il rigore scientifico ci richiede di non confondere in alcun modo la semplice e modesta immagine, qule ci è presentata dalla natura, con l’abito vivace che usiamo per rivestirla. “ In definitiva: basta con le interpretazioni meccanicistiche; il nocciolo di una qualunque teoria scientifica risiede soltanto nel suo contenuto verificabile sperimentalmente. Per questo alla domanda che Hertz si pone sul “ cos’è la teoria di Maxwell ? “, lo stesso Hertz non trova altra risposta che “ la teoria di Maxwell è il sistema delle equazioni di Maxwell “. Sono le equazioni di Maxwell verificabili e non l’impalcatura meccanicistica che le ha fatte ricavare. Ed alla base del suo modo di ritrovare le equazioni in oggetto Hertz pone “ le polarizzazioni come le sole cose realmente presenti, che sono la causa dei movimenti dei corpi ponderabili, e di tutti i fenomeni che producono i cambiamenti da noi percepibili in questi corpi. “(44)

        Come osserva D’Agostino,(45) : “nella vecchia elettrodinamica … sia la forza elettrica (nel vuoto) che la carica, venivano entrambi considerati come concetti primitivi. Ma tale concezione ha, per Hertz, significato ‘solo in quanto sia possibile rimuovere l’etere dallo spazio senza, con ciò, rimuovere la forza’. Questo è, per lui, l’assunto di fondo, implicito in tutte le teorie dell’azione a distanza. Ma se si accetta come fondamento dell’azione a contatto l’ipotesi che nessuna forza può esistere in assenza di etere allora le posizioni precedenti vanno riviste in quanto contraddittorie … Da ciò segue che non è possibile assumere come concetti primitivi in elettrodinamica la forza nel vuoto e la carica libera (nel vuoto) e poi ricavare mediante la teoria i loro adattamenti, per così dire, all’etere, come faceva Helmholtz. Il ruolo di grandezza primitiva va assegnato alla polarizzazione dell’etere: forza nell’etere e polarizzazione possono diventare ora, per Hertz, … sinonimi.” Tutto ciò significa che Hertz non riusciva più a concepire una distinzione tra materia e forza e tra etere e materia ordinaria: solo il campo è la manifestazione fisica della materia che occupa l’intero spazio; il campo va a prendere il posto dei concetti di carica, corrente e, soprattutto, forza(46) ed il campo è descritto dalla nuova formulazione delle equazioni di Maxwell. Da esse possiamo ricavare, istante per istante e punto per punto, la conoscenza del campo, poiché esse ci dicono come ogni perturbazione si propaghi nello spazio e nel tempo.

        Nell’ultima delle tre memorie teoriche, “ Sulle equazioni fondamentali dell’elettrodinamica dei corpi in movimento “, Hertz tentò di estendere quanto precedentemente trovato, andando a studiare l’influenza che il moto della materia ordinaria e dell’etere ha sui fenomeni elettromagnetici.

        A questo punto però, poiché non c’è più nessuna ragione di distinguere l’etere elettromagnetico da quello ottico, nascevano le prime conseguenze teoriche che non concordavano con i fatti sperimentali dell’ottica dei corpi in movimento (2). Hertz infatti si trovò di fronte alla difficoltà di dover descrivere l’andamento delle linee di forza, ben definite nel caso di un corpo in riposo, nell’eventualità che quello stesso corpo fosse in moto. Ebbene, come lo stesso Hertz sosteneva, queste linee di forza non possono essere intese come realtà distinta dalla materia ordinaria (47); era quindi impossibile pensare di separare materia e campo e conseguentemente assegnare il ruolo di portatore del campo al solo etere. E’ quindi la materia e non lo spazio ad essere portatrice del campo. Nel caso allora di dielettrici in movimento, le possibilità che Hertz intravede sono solo due: o queste linee di forza rimangono legate al dielettrico, seguendolo nella sua traslazione, oppure restano immobili mentre il dielettrico effettua la sua traslazione attraverso di esse. Traducendo questa alternativa in un linguaggio a noi più familiare si può dire che: o si ha trascinamento totale dell’etere oppure esso rimane in riposo.

        Hertz si schierò con la prima possibilità, assumendo che l’etere partecipi completamente al moto dei corpi. Anche se evidenze sperimentali sembravano non confermare questo punto di vista (48) egli lo adottò perché lo riteneva ricavato da fatti sperimentali studiati più a fondo di quelli ottici, quelli elettromagnetici. Inoltre egli respinse la possibilità di un etere stazionario perché, come affermava: (49)

“ se volessimo adattare la nostra teoria a questo punto di vista, dovremmo considerare le condizioni elettromagnetiche dell’etere e della materia ponderabile in ciascun punto dello spazio come se fossero in un certo senso indipendenti le une dalle altre. I fenomeni elettromagnetici nei corpi in movimento dovrebbero quindi appartenere a quella classe di fenomeni che non può essere soddisfacentemente trattata senza l’introduzione di almeno due differenti grandezze per lo stato elettrico e due per lo stato magnetico. “

        Ciò sembrava ad Hertz inaccettabile. Egli assunse, in accordo con Maxwell, che lo stato del sistema materia più etere potesse essere trattato allo stesso modo sia quando esso è fermo sia quando è in moto, poiché, come lo stesso Hertz scriveva, “ l’etere contenuto nei corpi materiali si muove con essi “. Ed in un sistema in moto uniforme le cose si svolgono come se l’etere fosse immobile; ciò vuol dire che è valido il principio di relatività di Galileo.

        Si tratta di un risultato notevole: dell’estensione del principio di relatività all’elettromagnetismo che comporta l’invarianza delle equazioni di Maxwell (scritte, si badi bene, nella forma di Hertz per i corpi in movimento!) per una trasformazione di Galileo. Ci si rende conto della portata di questo risultato se si ricorda che anche le leggi del moto di Newton sono invarianti per una trasformazione di Galileo. Così scriveva Hertz:(50) “ Il nostro metodo di deduzione delle equazioni per i corpi in moto non richiede che il sistema di coordinate usato debba rimanere assolutamente fisso nello spazio. Possiamo quindi,senza mutamenti formali, trasformare le nostre equazioni dal sistema di coordinate scelte inizialmente ad un sistema di coordinate che si muove in qualsiasi modo nello spazio, prendendo a, b, g per rappresentare le componenti della velocità dell’etere in riferimento al nuovo sistema di coordinate … Da ciò segue che il moto assoluto di un sistema rigido di corpi non ha alcun effetto su un qualsiasi processo elettromagnetico svolgentesi al suo interno, purché tutti i corpi in considerazione, compreso l’etere, partecipino realmente al moto. “

        In definitiva, i punti salienti della concezione di Hertz dell’elettrodinamica dei corpi in movimento possono essere ben riassunti con Petruccioli e Tarsitani: (51)

“ a) concezione dei ‘campi’ come ‘cambiamenti di stato’ di un’unica sostanza materiale che può essere dielettrica o conduttrice a seconda del valore di alcune costanti caratteristiche. Etere e materia ponderabile costituiscono ‘modificazioni’ di un’unica sostanza;

b) principio di unità dei campi;

c) rifiuto dell’autonomia del concetto newtoniano di forza;

d) …

e) ipotesi di trascinamento totale dell’etere;

f) conciliazione della teoria di Maxwell con il principio di relatività. “

        A questo livello di elaborazione era giunta la teoria di Hertz. Ma, nonostante l’ampiezza del programma, le importanti novità di carattere metodologico, il risultato ottenuto particolarmente nel conseguimento del punto f, ci volle ben poco a soppiantare questa visione dei problemi: le difficoltà della teoria di Stokes sul trascinamento totale dell’etere si ripresentavano interamente e, in ogni caso, bisognava rendere conto del trascinamento parziale di Fresnel-Fizeau.

        Per parte sua Hertz non ebbe altre possibilità di ricerca: si spense (1894) giovanissimo, a soli 37 anni.

      4 – L’OTTICA DEI CORPI IN MOVIMENTO. IL PROBLEMA DELL’ETERE E L’ESPERIENZA DI MICHELSON – MORLEY.

         Verso la metà degli anni ’70, come abbiamo già visto nel paragrafo 6 del capitolo III, la situazione nell’ambito dell’ottica ed in particolare  relativamente all’ottica dei corpi in movimento era la seguente:

– la teoria ondulatoria della luce aveva avuto il suo riconoscimento ufficiale;

 – la teoria dell’etere immobile spiegava bene il fenomeno dell’aberrazione ma non riusciva a spiegare tutta una serie di fenomeni diversi come, ad esempio, l’esperienza di Arago e quella di Airy;

– la teoria del trascinamento totale dell’etere (Stokes, 1845) incontrava delle difficoltà nella spiegazione del fenomeno dell’aberrazione (si veda la nota 313);

– la teoria del trascinamento parziale dell’etere riusciva a spiegare, almeno al prime ordine di v/c, tutti i fatti sperimentali noti ed in più aveva un grosso sostegno nell’esperienza di Fizeau (misura della velocità della luce in un mezzo trasparente in movimento);

– il problema della determinazione delle proprietà di questo etere e dei suoi rapporti con la materia in moto si faceva sempre più pressante ed un invito ad indagare in questo senso fu anche rivolto ai ricercatori dall’Accademia delle Scienze di Parigi.

         Per altri versi gli sviluppi dell’elettromagnetismo avevano definitivamente stabilito che la luce ha una natura elettromagnetica, rendendo l’ottica un paragrafo dell’elettromagnetismo. Anche in questo campo di ricerca si cercava di capire quali fossero le proprietà dell’etere che, anche qui, serviva da sostegno alle ‘vibrazioni’. Risultato, allora, della scoperta identità tra luce ed onde elettromagnetiche fu la fusione dell’etere ottico con quello elettromagnetico. Da questo momento si avrà a che fare semplicemente con l’etere ed il problema della ricerca delle sue proprietà riguarderà da ora tutta la fisica. (541)

        Nel 1879 moriva Maxwell e nel 1880 veniva pubblicata postuma su Nature una sua lettera a D.P. Todd. In questa lettera, tra l’altro, Maxwell affermava: (542)

“Se  fosse  possibile  misurare  la  velocità  della  luce  in  un  solo  senso  fra  due stazioni terrestri in ciascuno dei due casi [nel primo caso la Terra si muove nello stesso senso della luce, nel secondo caso in senso contrario], la differenza tra i due tempi di transito dovrebbe dipendere in modo lineare dal rapporto tra la velocità v della Terra e la velocità c della luce rispetto all’etere. Si tratterebbe quindi di un effetto del primo ordine … Ma nei metodi terrestri per la determinazione della velocità della luce, la luce stessa torna indietro sempre lungo la stessa traiettoria, così che la velocità della Terra rispetto all’etere dovrebbe alterare il tempo necessario per il doppio passaggio di una quantità che dipende dal quadrato del rapporto tra la velocità della Terra e quella della luce [effetto del secondo ordine]: il quale è un valore troppo piccolo per poter  essere osservato.”

Per capire meglio quanto qui sostenuto facciamo un esempio semplice. Supponiamo di voler calcolare il tempo necessario affinché un battello, che parte da un certo punto A, risalendo la corrente di un fiume, raggiunga un altro punto B e, quindi, col favore della corrente, da B torni ad A, avendo percorso una distanza 2d (figura 29). Supponiamo che il battello sia dotato di una velocità u rispetto all’acqua del fiume e che la corrente dello stesso fiume abbia una

velocità v.

        Il tempo t AB    necessario per andare da A a B (per percorrere la distanza d controcorrente) sarà dato da:

tAB     =  d/(u-v)

in accordo con il principio classico di relatività (essendo v-u la velocità del battello rispetto alla riva del fiume).

        Il tempo tBA   per tornare da B ad A (per percorrere la distanza d a favore di corrente) sarà allora: 

  tBA    =   d/(u+v) 

sempre in accordo con il principio classico di relatività (essendo v+u la velocità del battello rispetto alla riva del fiume).

        Il tempo totale t1   necessario a completare il tragitto di andata e ritorno sarà dato da:

Come si vede questo tempo dipende dal secondo ordine in v/u, cioè da v2/u2. Ora, nel caso del battello e del fiume, le velocità sono dello stesso ordine di grandezza e pertanto la quantità v2/u2 è grande tanto da dare un contributo significativo al calcolo di t1 (se il battello ha una velocità di 50 km/h e la corrente di 10 km/h, segue che v/u = 1/5 da cui v2/u2 = 1/25).

        Supponiamo ora di voler fare lo stesso conto per il tempo impiegato dalla luce a fare un percorso di andata e ritorno sulla Terra (mediante, ad esempio, uno specchio). Se disponiamo i nostri strumenti in modo che il percorso della luce abbia la stessa direzione del moto orbitale della Terra, quando la luce marcerà in un verso sentirà un vento d’etere che si opporrà al suo movimento, quando marcerà in verso opposto il vento d’etere l’aiuterà nel suo movimento. E’ chiaro che il vento d’etere è quello prodotto dal moto della Terra in mezzo ad esso (l’analogo del vento d’aria che si sente andando in moto, che ha la stessa velocità della moto ma verso opposto). Ora, la velocità della Terra, rispetto all’etere, nel suo moto orbitale, è di circa 30 km/sec, mentre la velocità della luce, sempre rispetto all’etere, è di circa 300.000 km/sec. Il tempo t1  di andata e ritorno per un raggio di luce che debba percorrere un certo tratto d sulla Terra (nella direzione del moto orbitale di quest’ultima), analogamente al caso del battello, sarà:

dove 2d è la lunghezza del tragitto totale percorso dalla luce, v la velocità del vento d’etere, c la velocità della luce. Quanto vale v2/c2 ?

Questo era dunque il ragionamento di Maxwell: effetti cosi piccoli non si sarebbero potuti rilevare con nessuno strumento conosciuto. Egli allora proponeva di cercare il vento d’etere su altre esperienze, ma questa volta di carattere astronomico (in particolare suggeriva una versione modificata della misura fatta da Römer).

         Il problema era dunque quello di rilevare un moto assoluto della Terra rispetto all’etere ed, in ogni caso, di individuare la presenza e le proprietà di questa  sostanza.

         Proprio nell’anno della pubblicazione della lettera di Maxwell su Nature, il guardiamarina A.A. Michelson (1852-1931), docente di fisica al Nautical Almanac Office di Washington, si trasferiva dagli Stati Uniti in Europa per perfezionare i suoi studi, principalmente nel campo dell’ottica.

         Michelson già aveva lavorato in ottica riuscendo tra l’altro a realizzare (l873) un importante perfezionamento al metodo di Foucault per la misura della velocità della luce (sostituzione dello specchio concavo con uno specchio piano; la qual cosa permetteva di misurare c su qualsiasi distanza ed inoltre rendeva il costo dello strumento estremamente basso). Ma fatto interessante è che egli venne a conoscenza, in anteprima, della lettera di Maxwell a Todd, poiché quest’ultimo era suo collega al Nautical Almanac Office. Inoltre egli aveva già lavorato su esperienze utilizzanti metodi interferometrioi ed andò a proseguire i suoi studi dapprima a Berlino, nel laboratorio di Helmholtz, quindi ad Heidelberg, nei laboratori di Quincke e Bunsen, infine a Parigi, nei laboratori di Mascart, Cornu e Lippmann. (543)

        Già alla fine del 1880 egli aveva comunicato al direttore del Nautical la sua intenzione di riuscire ad individuare il moto della Terra attraverso l’etere; della cosa aveva già informato Helmholtz il quale non aveva avuto nulla da obiettare. (544)

        Michelson cominciò ad ideare lo strumento che riteneva necessario per eseguire l’esperienza che aveva in mente; da una ditta tedesca comprò un polarimetro ottico e ne sostituì la parte ottica piana con quella utilizzata nell’interferometro di Jamin (le due lastre uguali di vetro mostrate in figura 20) acquistata da una ditta di Parigi. Lo schema di funzionamento di questo primo interferometro di Michelson è mostrato in figura 30.

Figura 30

S è una sorgente di luce (dapprima monocromatica per la taratura dello strumento e quindi bianca); A e B sono le due lastre di vetro dell’interferometro di Jamin; M1 ed M2  sono due specchi piani; O è un oculare su cui è riportata una scala graduata. Il raggio di luce prodotto da S, interagendo con la lastra A, viene separato in due fasci che marciano tra loro ad angolo retto: il fascio 2, dopo aver attraversato A, essersi riflesso su M2  ed aver riattraversato A, va all’oculare O; il fascio 1, dopo aver attraversato B, essersi riflesso su M1 , aver riattraversato B ed essersi riflesso su A, va anche esso all’oculare O (si noti che: i due fasci si originano nel punto P; che la lastra B – lastra compensatrice – è utilizzata per rendere perfettamente uguali i due percorsi ottici; che i tratti PM1  e PM2  sono chiamati bracci dell’interferometro).

        L’idea guida dell’esperienza è ben espressa dallo stesso Michelson in apertura dell’articolo del l861 che ne fa un resoconto: (545)

“La  teoria  ondulatoria  della  luce  ipotizza  resistenza  di  un  mezzo  chiamato etere, le cui vibrazioni producono i fenomeni del calore e della luce e che si suppone riempia tutto lo spazio. Secondo Fresnel, l’etere che è racchiuso nei mezzi ottici condivide il moto di questi ultimi in una misura che dipende dai loro indici di rifrazione … Supponendo quindi che l’etere sia in quiete e che la Terra si muova in esso, il tempo necessario alla luce per passare da un punto all’altro della superficie terrestre dovrebbe dipendere dalla direzione lungo la quale essa si muove.”

Dunque si tratta di questo: quando la Terra si muove nello spazio con una velocità v, essa provocherà un vento d’etere con la stessa velocità v ma in verso contrario (si veda la figura 3l). Se si considera un raggio di luce che faccia un

percorso PM1P nella direzione del moto della Terra, esso impiegherà un dato tempo t1 diverso dal tempo t2  necessario ad un raggio di luce per percorrere una ugual distanza PM2P in direzione perpendicolare al moto della Terra. Ritornando all’esempio del fiume, incontrato un poco indietro, vediamone il perché riferendoci alla figura 32.

        Abbiamo già visto che il tempo t1  necessario ad un battello, che marci a velocità u, a percorrere il tragitto ABA in direzione della corrente è dato da:

Calcoliamoci ora il tempo t2  necessario allo stesso battello a percorrere una stessa distanza 2d ma, questa volta, in direzione perpendicolare alla corrente (tragitto ACA).

        Innanzitutto il pilota del battello, se  vuole arrivare da A a C, dovrà puntare la prua verso C”, in accordo con la composizione vettoriale delle velocità: la velocità risultante vR del battello sarà la somma vettoriale della velocità u , del battello rispetto all’acqua, e v della corrente rispetto alla riva (si veda la figura 33a). Analogamente al ritorno; se il pilota vuole arrivare da C ad A, dovrà puntare la prua verso C” e la sua velocità risultante sarà la medesima vR (si veda la figura 33b).

             E’ ora abbastanza facile calcolarci vR  (velocità del battello rispetto alla riva); basta applicare il teorema di Pitagora per avere:                    

Il tempo necessario a percorrere il tragitto ACA sarà allora:

            Come si può vedere i tempi t1 e t2 , forniti rispettivamente dalle (1) e (2), sono differenti.

            Ora, nel caso della luce illustrato in fig. 31, le cose vanno esattamente allo stesso modo a patto di sostituire alla velocità della corrente v la velocità del vento d’etere v, alla velocità del battello u la velocità della luce c, ai percorsi ABA e ACA i percorsi PM1P e PM2P.

            E questa era l’idea base di Michelson, il quale voleva evidenziare la differenza tra i due tempi t1 e t2, fatto che gli avrebbe permesso di mostrare l’esistenza dell’etere dal suo vento e conseguentemente il moto assoluto della Terra rispetto a quella misteriosa sostanza.

            In definitiva i tempi t1 e t2 necessari alla luce per percorrere rispettivamente i  tratti PM1P e PM2P erano teoricamente dati da:  (546)

avendo assunto che d è la lunghezza di ciascun braccio dell’interferometro. Calcoliamo ora quanto vale la differenza Dt fra questi due tempi:

Per poter procedere al calcolo conviene fare una approssimazione lecita solo se  v<<c, cosa senz’altro verificata. Allo scopo ricordiamo la formula binomiale che permette lo sviluppo del binomio di Newton:

Applichiamo questo sviluppo ai due termini dell’ultimo membro della (3):

Facciamo ora l’approssimazione annunciata. Poiché v<<c e, conseguentemente, v/c<<1, la quantità v2/c2 è certamente molto piccola e, a molto maggior ragione, v4/c4 è completamente trascurabile. Con tale assunzione si ha:

avendo trascurato i termini in v/c di ordine superiore al secondo.

            In questo modo la (3) che ci forniva Δt diventa:

avendo indicato con  Δs il tragitto percorso dalla luce nel tempo  Δt.

            Tutto ciò che abbiamo detto era nell’ipotesi implicita che i bracci dell’interferometro fossero perfettamente uguali e lunghi d. Ora, mentre nel caso del battello metro più o metro meno, su percorsi di centinaia di metri, non crea alcun problema, in questo caso, dato il piccolissimo effetto da rilevare, anche una piccolissima ed inevitabile differenza tra i due bracci può essere fatale alla validità dell’esperienza (essendo tal piccola differenza quantomeno dell’ordine di grandezza dell’effetto da misurare). Per rimediare a questo inconveniente Michelson pensò di effettuare la misura, una prima volta con i bracci dell’interferometro sistemati come in fig. 30 e quindi, una seconda volta con i bracci ruotati di 90° sul piano orizzontale, di modo che il braccio prima disposto nella direzione del vento d’etere fosse ora perpendicolare ad esso (e viceversa per l’altro braccio). Operando in questo modo l’inconveniente veniva eliminato: i due bracci invertivano il loro ruolo e la seconda lettura, fatta per differenza con la prima, compensava gli effetti (anche analiticamente). (547) Nella seconda lettura si otteneva una differenza di tragitto analoga alla prima ma di segno contrario cioè, in totale, una differenza doppia della precedente.

            Rifacciamoci allora i conti, nell’ipotesi di bracci con lunghezza diversa: PM1 = d1 e PM2 = d2. Ripartendo dalla (3) si ha:

Invertendo ora i bracci dell’interferometro, la relazione precedente diventa:

La differenza tra questi due tempi sarà:

avendo, come prima, indicato con  Δs il cammino percorso dalla luce nel tempo Δt. Ora si tratta di andare a sostituire i valori numerici ricavati dalla struttura dell’apparato sperimentale; ed ora, e solo ora, possiamo supporre, nei limiti degli errori di misura, che  d1 ~ d2 = d e scrivere:

E questo risultato è in accordo con quanto anticipato: abbiamo ottenuto una differenza doppia e ciò vuol dire che gli effetti si sono compensati.

            In ultima analisi, l’esperienza di Michelson, per la prima volta, ci pone di fronte ad una dipendenza del secondo ordine in v/c. la differenza Ds di cammino ottico è quella che nell’oculare O dovrebbe originare frange di interferenza. (548) Considerando gli ordini di grandezza in gioco, cerchiamo di vedere se ciò è sperimentalmente realizzabile. Nell’esperienza di Michelson del 1881 si aveva  d1  ~  d2  = 120 cm ed allora  Ds ~ 2,4.102.10-8 cm = 2,4.10-6 cm. Se si confronta questa differenza di cammino ottico dei due raggi con la lunghezza d’onda della luce (l = 57.10-6 cm), si trova:

E ciò significa che, dopo aver fatto la prima misura con l’interferometro sistemato in una data posizione, quando si va a fare la seconda misura con l’interferometro ruotato di 90°, si dovrebbe osservare, nella figura d’interferenza, uno spostamento di 4/100 di frangia. E lo strumento a disposizione di Michelson era in grado di apprezzare spostamenti di frange di questo ordine di grandezza.

        Nonostante ciò, Michelson concluse la sua memoria del 1881 affermando: (549)

” L’interpretazione dei risultati ottenuti è che non esiste alcuno spostamento delle frange d’interferenza. Si mostra in tal modo che è errato il risultato dell’ipotesi dell’etere stazionario, e ne consegue la necessaria conclusione secondo cui l’ipotesi stessa è sbagliata.

Questa conclusione contraddice direttamente la spiegazione fino ad ora generalmente accettata per i fenomeni di aberrazione: spiegazione che presuppone che la Terra si muova attraverso l’etere e che quest’ultimo rimanga in quiete.”

E ciò vuol dire che la teoria di Fresnel, che prevede un etere immobile nello spazio, etere nel quale la Terra si infila senza creare alterazioni, a parte un piccolo trascinamento nei corpi trasparenti, va rivista. Le cose sembrano andare d’accordo con la teoria di Stokes; infatti, poiché la teoria prevede un trascinamento totale dell’etere sulla superficie della Terra, quest’ultima non e’ animata di moto relativo rispetto all’etere.

        Le condizioni in cui Michelson aveva lavorato in questa sua prima esperienza non erano delle migliori. Molti problemi si erano posti, legati soprattutto alle condizioni fisiche del luogo dove lo strumento era posto. Ad   esempio egli dovette trasferirsi da Berlino ai sotterranei dell’Osservatorio di Potsdam, poiché troppe erano le vibrazioni dovute al traffico cittadino che, di fatto, gli impedivano di far misure. Un altro grave inconveniente, ricordato dallo stesso Michelson nel suo lavoro con Morley del 1887, era legato alle difficoltà incontrate per ruotare manualmente lo strumento. Insomma, questo primo lavoro lasciò molti dubbi e sollevò molte critiche; lo stesso Michelson lo considerò un insuccesso.

        Dopo la realizzazione dell’esperienza, Michelson rimase ancora un anno in Europa. Passò prima ad Heidelberg dove, tra l’altro, ebbe modo di stare a contatto con Quincke il quale nel 1867 aveva introdotto la tecnica dell’argentatura di una delle superfici delle lastre di vetro di Jamin. In questo modo, dosando la quantità di argento che si faceva depositare sulla superficie, si potevano ottenere specchi semitrasparenti, con il risultato che le frange risultavano molto più nitide. (550)

         Una lettera scritta a Nature in questo periodo, per criticare una misura di velocità della luce eseguita di recente da Young e Forbes, gli valse l’amicizia di Lord Hayleigfa (1842-1919) che condivideva le sue opinioni su quella misura.

         Prima di tornare negli Stati Uniti, Michelson soggiornò qualche tempo a Parigi. Qui, come già detto (si veda la nota 546), scrisse una memoria nella quale riconosceva e correggeva il suo errore nella non valutazione del vento d’etere sul cammino ottico perpendicolare ad esso.

         Ripresa la sua attività negli Stati Uniti, per lungo tempo, Michelson non fece più riferimento all’esperienza di Potsdam. Egli si dedicò a svariati lavori di ottica e, in particolare, alla misura della velocità della luce ed alla ripetizione (l886) dell’esperimento di Fizeau, (551) fatto quest’ultimo ritenuto importante da molti, ora che si disponeva di apparati in grado di rilevare effetti al secondo ordine in v/c. Quest’ultima esperienza la condusse insieme al chimico E.W. Morley (1838-1923). (552)  Dopo 65 serie di misure (!)  con uno strumento che era una variante dell’interferometro di Michelson, i due  ricercatori trovarono per il coefficiente di trascinamento di Fresnel in acqua  il valore di 0,434 ± 0,03, che era in ottimo accordo con quello previsto teoricamente da Fresnel (0,438). Questo valore migliorava quello trovato da Fizeau  (0,5 ± 0,1) che, mentre era in buon accordo con quello previsto dal lavoro teorico di J.J. Thomson (cui abbiano fatto cenno alla nota 541), che aveva tentato di ricavare il coefficiente di trascinamento dalla teoria elettromagnetica, non lo era molto con quello previsto da Fresnel. In ogni caso il risultato era  in accordo e con la teoria di Fresnel e con l’esperimento di Fizeau, di modo che i due ricercatori statunitensi conclusero il loro lavoro affermando che “l’etere  luminifero  è  completamente  insensibile  al  moto  della  materia  che esso permea.” Ed in definitiva le cose sembravano svolgersi in accordo con la teoria di Fresnel: etere stazionario e trascinamento parziale.

        E’ a questo punto (l886) che viene pubblicata una memoria del fisico olandese H.A. Lorentz (1653-1928) nella quale si discuteva l’influenza del moto della Terra sui fenomeni luminosi. (553)  L’articolo in oggetto si apriva   con una frase che aveva il sapore di un programma: (554)

l’esame  di  questa  questione  non  interessa  soltanto  la  teoria  della  luce,  esso ha acquistato una importanza molto più generale da quando è diventato probabile che l’etere giochi un ruolo nei fenomeni elettrici e magnetici.”

Fatta questa premessa Lorentz passò ad esporre la sua teoria che prendeva le mosse da quella sviluppata da Stokes nel 1845 (555) e si integrava con quella   di Fresnel. Egli però, dopo aver dimostrato l’inconciliabilità delle due ipotesi di Stokes (l’etere dotato di velocità potenziale e l’etere totalmente trascinato dai corpi materiali: è impossibile che l’etere sia un fluido incompressibile e che si muova alla stessa velocità della superficie della Terra senza che in esso si producano vortici – questa era l’ipotesi di Stokes che  Lorentz dimostra non in accordo con i principi della meccanica -), optò solo per la prima, accettando quindi che l’etere sia dotato di una velocità potenziale (in questo modo si rendeva possibile la conciliazione di Stokes con Fresnel). Più in dettaglio, (556)  secondo Lorentz: l’etere è dovunque immobile nello spazio vuoto; la materia è completamente trasparente all’etere il quale rimane immobile anche quando è attraversato da un corpo materiale in movimento; poiché l’etere è immobile e la Terra è dotata di una certa velocità, l’etere che è a contatto con la Terra risulta in moto rispetto alla sua superficie ed è inoltre dotato di una velocità potenziale; sulla superficie della Terra i moti relativi dell’etere e della Terra stessa possono essere differenti a seconda delle situazioni particolari; nei corpi trasparenti c’è trascinamento parziale dell’etere secondo il coefficiente di Fresnel che dipende dall’indice di rifrazione del mezzo.

            Con questa elaboratissima ipotesi Lorentz ridusse la teoria di Fresnel ad un caso particolare della sua (si ha trascinamento di Fresnel quando la velocità potenziale dell’etere è uguale a zero) e dimostrò che, ad eccezione dell’effetto Doppler prodotto dalla luce delle stelle, non si poteva in alcun modo rilevare il moto della Terra da fenomeni ottici. C’è solo da notare che queste conclusioni Lorentz le ricavò facendo delle approssimazioni, a mio giudizio, non più lecite a questo livello di elaborazione teorica e sperimentale: egli trascurò termini in v/c d’ordine superiore al primo. In ogni caso questa teoria era in ottimo accordo con le conclusioni di Fresnel e spiegava allo stesso modo tutti i fatti sperimentali fino ad allora conosciuti. Inoltre, proprio in quello stesso anno, l’esperienza di Michelson e Morley, ripetizione di quella di Fizeau, aveva mostrato un completo accordo della teoria di Fresnel con l’esperimento.

               Il lavoro di Lorentz, a questo punto, proseguiva andando a discutere i supposti rapporti tra etere e materia ponderabile anche perché, nella seconda delle sue ipotesi iniziali, egli aveva ammesso che “alla superficie della Terra i moti di questa e dell’etere possono essere differenti” ed una questione di tal portata non si poteva lasciare in sospeso. Cosi scriveva Lorentz: (557)

Comunque stiano le cose, sarà bene, a mio avviso, non lasciarsi guidare, in una questione cosi importante, da considerazioni sul grado di probabilità o di semplicità dell’una o dell’altra ipotesi, ma indirizzarsi verso l’esperimento per arrivare a conoscere lo stato, di riposo o di movimento, nel quale si trova l’etere sulla superficie terrestre.”

E, secondo Lorentz, l’esperienza di Michelson del 1881 sembrava indicare che l’etere fosse immobile rispetto alla superficie della Terra, anche se questo esperimento non era sufficientemente preciso (e qui Lorentz faceva riferimento all’errore di sopravvalutazione degli effetti fatto da Michelson accennato nella nota 546) ed in ogni caso non in grado di fornire dati sulle velocità relative della Terra e dell’etere. Insomma il problema dell’etere si poneva come problema di rapporto tra etere e materia (preludio questo alla teoria degli elettroni di Lorentz della quale parleremo nel prossimo paragrafo).

        Rayleigh, anch’egli convinto che il problema centrale fosse di stabilire il rapporto esistente tra etere e materia, scrisse a Michelson mettendolo al corrente dell’articolo di Lorentz e facendogli presente che era diventato urgente ripetere l’esperienza di Potsdam.

        Nel marzo del 1887 Michelson rispose a Rayleigh (558) confidandogli anche la propria insoddisfazione per l’esperienza del l88l e che, per la verità, si era sentito molto scoraggiato quando i suoi stessi amici scienziati non gli avevano prestato attenzione sull’argomento. In ogni caso ringraziava Rayleigh per averlo incoraggiato e, dopo essersi impegnato a ripetere l’esperimento, gli chiedeva dei consigli che potrebbero oggi far sorridere ma che ben rendono conto delle problematiche complesse che c’erano dietro la vicenda dell’etere. Michelson si preoccupava di sapere se la sua esperienza poteva essere inficiata dalla particolare geometria del laboratorio se, ad esempio, una parete potesse ostacolare il vento d’etere. Così scriveva Michelson: (559)

” Supponiamo, per esempio, che le irregolarità della superficie della Terra siano schematicamente rappresentate da una figura come questa:

Se la superficie della Terra fosse in movimento nel verso della freccia, l’etere che si trova in 00 sarebbe trascinato con essa ? [e, cosa accadrebbe] in una stanza di questa forma?

        Immediatamente, ancora insieme, Miohelson e Morley si misero al lavoro realizzando uno strumento di misura che aveva superato tutti i difetti di quello di Potsdam.  (560)  Innanzitutto l’intero stramento era montato solidalmente con una grossa base di arenaria (figura 34a) la quale a sua volta era montata su di un galleggiante di legno sistemato in una vasca di ferro contenente mercurio (una sezione dell’intero apparato e’ mostrata in figura 34b). II tutto aveva una grossa 

stabilità e contemporaneamente poteva venir ruotato sul piano orizzontale intorno al suo asse (x), con facilità e senza provocare distorsioni (anzi l’apparato veniva manualmente messo in rotazione e continuava a ruotare per inerzia in modo cosi lento che le letture potevano essere fatte quando esso era in moto).

        L’altra questione riguardava la sensibilità dello strumento che era al limite della misura da effettuare: a Potsdam lo strumento era in grado di porre in evidenza uno spostamento delle frange pari ad un centesimo di frangia; ora, con un sistema di riflessioni multiple (figura 34c), si aumentava, moltiplicandolo per circa 10, il tragitto della luce ed in questo modo si aumentava di circa un fattore 10 l’effetto previsto; ora lo strumento, se l’effetto previsto si fosse verificato, avrebbe dato una risposta più grande (lo strumento era reso 10 volte più sensibile). Ci possiamo rendere conto di quest’ultima cosa se riprendiamo per un momento in esame la relazione (4) incontrata più indietro e sostituiamo  i valori ora a disposizione , che differiscono dai precedenti solo perché ora d ~ 11 m = 1,1.103 cm, si ha:        

e, come si vede, si è amplificato di un fattore 10 l’effetto previsto: ora, mentre si è in grado sempre di apprezzare lo spostamento di un centesimo di frangia,  l’effetto previsto è di ben circa mezza frangia.

        Con questo apparato, con estrema cura, venne eseguita l’esperienza nel mese di luglio del 1887: non si osservò nessun effetto. Nell’articolo che descrive l’esperienza,  (561)  tutto impostate per rispondere alle critiche di Lorentz sulla non attendibilità del lavoro del 1881, Michelson e Morley dicevano: (562)

si è deciso di ripetere l’esperimento con modifiche tali da assicurare un risultato teorico il cui valore numerico sia talmente elevato da non poter essere mascherato da errori sperimentali … Da tutto quanto precede [discussione dei risultati sperimentali] sembra ragionevolmente certo che, se esiste un qualche moto relativo tra la Terra e l’etere luminifero, allora esso deve essere molto piccolo; talmente piccolo da farci rifiutare la spiegazione dell’aberrazione data da Fresnel. Stokes ha elaborato una teoria dell’aberrazione nella quale si ipotizza che l’etere alla superficie della Terra sia in quiete rispetto a quest’ultima: in tale teoria si richiede solamente, inoltre, che la velocità relativa abbia un potenziale; ma Lorentz ha dimostrato che queste condizioni sono tra loro incompatibili. Lorentz ha quindi proposto una variante nella quale si combinano alcune idee di Stokes e di Fresnel, e si assume l’esistenza di un potenziale insieme al coefficiente di Fresnel. Se, sulla base del presente lavoro, fosse lecito concludere che l’etere è in quiete per quanto riguarda la superficie della Terra, allora, secondo Lorentz, non potrebbe esistere un potenziale della velocità; ed in tal caso la teoria dello stesso Lorentz fallisce.”

L’esperienza aveva così fornito un risultato del tutto negativo e la spiegazione immediata e più spontanea , nel contesto della fisica di fine Ottocento, era che l’etere che circonda la Terra fosse trascinato da essa cosicché esso risultasse in quiete rispetto alla superficie della Terra stessa. Di nuovo sorgeva la difficoltà rispetto al fenomeno dell’aberrazione; l’ipotesi di un etere trascinato dalla superficie della Terra e quindi in riposo rispetto ad essa non si conciliava con la spiegazione di questo fenomeno. Di nuovo la teoria di Fresnel non era in accordo con questo fatto sperimentale, non lo era quella di Lorentz e tantomeno quella di Stokes, che Lorentz aveva dimostrato essere inconsistente.

        In definitiva, a questo punto ci troviamo di fronte all’aberrazione che si spiega con l’etere immobile; alla costanza dell’aberrazione per differenti mezzi che si spiega con il trascinamento parziale; all’esperienza di Michelson-Morley che si spiega con un trascinamento totale. Sono conseguenze di differenti fatti sperimentali, tutte in disaccordo tra di loro.

        Per altri versi l’idea che sempre più andava facendosi strada era che questo etere non sembrava in grado di fornirci un sistema di riferimento privilegiato né per i fenomeni ottici né per quelli elettromagnetici. In particolare, non si era in grado di evidenziare il moto della Terra rispetto all’etere e,  d’altra parte,  lo  stesso etere  sfuggiva ad  ogni  rilevamento  sperimentale. (564)

                Cosa concludere da tutto ciò?  

                 Certamente occorreva mettersi al lavoro per raccordare con una sola teoria i vari fatti sperimentali. Bisognava inventare cose nuove poiché non era possibile rimettere in discussione né l’ottica in quanto tale, né l’elettromagnetismo, né, tantomeno, la meccanica che ci fornisce la composizione delle velocità, e questo per il semplice motivo che questi capitoli della fisica erano molto  ben  strutturati,   mirabilmente  formalizzati,   spiegavano  una  mole  notevolissima di fatti sperimentali e fornivano una tal base di certezze che sembrava, impossibile rimettervi le mani.

                 Da dove cominciare ?

                 Intanto da ciò che sembrava più semplice: cercare di ricondurre alla ragione quel pazzo interferometro. Quindi cercando di modificare l’elettromagnetismo (di cui l’ottica è ormai un capitolo) in qualche sua parte. Ma la meccanica no: essa era davvero intoccabile.

                 Non c’è dubbio che questo era un periodo di grande travaglio all’interno di quella parte del mondo scientifico che lavorava su questi problemi in modo diretto. Il resto della comunità scientifica non era toccata dalla cosa; la specializzazione crescente, la divisione del lavoro, la richiesta di efficienza (tutti e tre come portato del mondo esterno che imponeva i suoi ritmi ad una scienza che era buona in quanto presto o tardi sarebbe servita al mondo della produzione – e molto presto della guerra -), tutto ciò faceva sì che problemi complessivi non si ponessero e che un ripensamento sui fondamenti non venisse preso molto sul serio. Ma di questo torneremo a parlare nel paragrafo 6 di questo capitolo. E’ ora molto importante andare a vedere quali furono le immediate elaborazioni teoriche che seguirono il lavoro di Michelson-Morley.

NOTE

(541) Nel 1881 J.J. Thomson fece il tentativo di dedurre il coefficiente di trascinamento di Fresnel dalla teoria elettromagnetica estendendo le equazioni di Maxwell al caso di un dielettrico in movimento, ottenendo un risultato che, secondo Thomson, era in accordo con l’esperienza di Fizeau. Nel 1882 G.F. Fitzgerald si occupò per primo degli effetti che il moto della Terra dovevano produrre sui fenomeni elettromagnetici, trovando che questi effetti si devono cancellare l’un l’altro simultaneamente (bibl.124, pagg. 23-24).

(542) Bibl. 123, pagg. 132-133. Gli stessi concetti sono espressi da Maxwell nella voce Etere che egli scrisse per l’Enciclopedia Britannica.

(543) G.H. Quincke (1834-1924) aveva lavorato con metodi interferenziali sia in ottica che in acustica (tubo di Quincke). R.W. Bunsen (l8ll-l899) aveva lavorato, come già accennato, in spettroscopia con Kirchhoff, in fotometria ed in vari altri campi. A. Cornu (1841-1902) aveva lavorato in spettroscopia e a misure di c (migliorando il metodo di Fizeau). G. Lippmann (1845-1921) stava lavorando in tecniche avanzatissime di fotografia ed una sua realizzazione del 1893 gli valse il premio Nobel del 1908.

(544) Per questa ed altre interessanti notizie sulla storia delle esperienze di Michelson (e Morley) si vedano bibll.120 e 121. Questa prima esperienza di Michelson era stata finanziata da A.G. Bell (colui che nel 1876 aveva brevettato il telefono) ed iniziata a Berlino e quindi realizzata a Potsdam.

(545) A.A. Michelson, The Relative Motion of the Earth and the Luminiferous Ether, in American Journal of Science, S. 3, 22, l88l; pagg. 120-129. La traduzione qui riportata è tratta da bibl. 123, pagg. 134-139.

(546) Nella memoria di Michelson del 1881, il calcolo di questo tempo era errato, poiché Michelson non aveva tenuto conto del fatto che il vento d’etere si faceva sentire anche in questo caso. Egli dava quindi per t2 il valore 2d/c. L’errore, come lo stesso Michelson afferma nella sua memoria con Morley del 1887, gli fu fatto notare dal fisico francese M. A. Potier nell’inverno del 1881. Esso fu subito corretto ed i risultati furono pubblicati su Comptes Rendus, 94, 520; 1882. Ma le cose ancora non andavano bene e fu Lorentz nel 1886 a far notare che con i conti fatti da Michelson l’effetto da attendersi era sopravvalutato di un fattore 2.

(547) Con questa rotazione di 90° dello strumento viene eliminato anche un altro effetto: il fatto che non siamo ben sicuri della direzione del vento d’etere anche se possiamo sospettare che sia tangente alla traiettoria della Terra intorno al Sole.

(548) Si noti che in assenza di vento d’etere e nell’ipotesi di bracci perfettamente uguali, in O non si dovrebbe avere nessuna frangia d’interferenza, ma solo una interferenza costruttiva che darebbe il massimo di illuminazione. Ancora in assenza di vento d’etere l’inevitabile disuguaglianza della lunghezza dei due bracci provoca inrterferenza. Qualora ci fosse il vento d’etere queste frange d’interferenza dovrebbero spostarsi quando l’apparato viene ruotato di 90°. Questo era il risultato che si aspettava.

(549) Bibl. 123, pag. 139. Si tenga conto che le difficoltà nell’interpretazione dell’esperimento di Michelson sono di gran lunga maggiori di quanto qui si è discusso. Allo scopo si può consultare il saggio di Holton, Einstein, Michelson y el experimento crucial, riportato in bibl. 127. In particolare si veda la pag. 209.

(550) Per questa ed. altre notizie qui riportate rimando a bibl. 120.

(551) La richiesta di ciò era venuta da Rayleigh e Kelvin direttamente a Michelson mentre i due fisici britannici si trovavano negli Stati Uniti per un giro di conferenze (1884).

(552) A.A. Michelson, E.W. Morley, Influence of Motion of the Medium on the Velocity of Light, Amer. Journ. Sci., 31;  1886; pagg. 377-386.

(553) H.A. Lorentz, De l’influence du mouvement de la terre sur les phénomènes lumineux, Arch. néerl., 21; 1887; pagg. 103-176 (già pubblicata in tedesco nel 1886).

(554) Ibidem, pag. 103.

(555) Si riveda la nota 313. Si noti che verso la fine del secolo la teoria di Stokes fu ripresa e perfezionata da Planck con l’ammissione di un etere compressibile,  irrotazionale e con un piccolo scorrimento rispetto ai corpi gravitanti massicci, intorno ai quali è altamente condensato. Per una riproposizione, oggi, della teoria di Stokes-Planck si può vedere: AA.VV., Esperimenti di ottica classica ed etere, Scientia, Vol. III, fasc. 3°, 1976

(556) Per quanto qui dirò, mi sono servito di bibl. 124 e 128.

(557) H.A. Lorentz, De l’influence …, citata, pag. 162.

(558) Si veda bibl. 120, pag. 29.

(559) Ibidem.

(560) Tra l’altro la lastra di vetro P di figura 30 era ora sostituita da una lastra con la faccia posteriore leggermente argentata (cosa imparata da Michelson ad Heidelberg) in modo da ottenere uno specchio semitrasparente che forniva una figura d’interferenza molto più chiara. Per questo strumento e per le misure che esso permetteva, Michelson ebbe il premio Nobel nel 1907.

(561) A.A. Michelson, E.H. Morley, On the Relative Motion of the Earth and the Luminiferous Ether, Amer. Journ.Sci., S.3, 34; 1887; pagg. 331-345. Ed anche su Phil. Mag., S. 5, 24; 1887; pagg. 449-463.

(562) Phil. Mag. pag. 451 e pagg. 458-459. La traduzione qui riportata è tratta da bibl. 123, pag. 140 e pagg. 144-145.

(563) Si osservi che la conclusione dei due ricercatori statunitensi, per essere completamente corretta, doveva prevedere almeno un’altra misura in un periodo diverso dell’anno (meglio a 6 mesi di distanza). Supponendo infatti che, nel dato periodo dell’anno in cui l’esperienza fu fatta, l’etere e la Terra fossero l’uno relativamente all’altra immobili perché, ad esempio, l’etere riempiente tutto lo spazio si muoveva con la stessa velocità orbitale della l’erra con il verso della tangente alla traiettoria in quel momento, ebbene una misura a sei mesi di distanza, con la Terra dotata di velocità in verso opposto, avrebbe evidenziato un effetto doppio. Ebbene, anche se questa esperienza era preventivata, non fu mai eseguita da Michelson-Morley, contrariamente a quanto si legge su molti libri.

(564) L’esperienza di Michelson-Morley, sempre con gli stessi risultati, fu ripetuta dallo stesso Michelson ad una differente altezza dal livello del mare (Michelson continuava con i dubbi che aveva espresso a Rayleigh)^ nel 1897, quindi da Morley e Miller tra il 1902 ed il 1904 e poi da svariati altri ricercatori, almeno fino al 1958 con tecniche sempre più sofisticate. Si noti che furono anche ideate diverse varianti dell’esperienza: quella di Trouton e Noble (1903), di Trouton e Rankine (l908), e così via; anche qui il risultato fu sempre negativo.

5 – TENTATIVI SI CONCILIARE LA TEORIA CON I FATTI SPERIMENTALI SENZA RINUNCIARE ALL’ETERE. I PRIMI LAVORI SI LORENTZ.

        Nel lasso di tempo che va, da 1880 al 1890, l’ottica e l’elettrodinamica dei corpi in movimento acquistano rilevanza nell’ambito della ricerca fisica.

        Le esperienze di Hertz fornivano una base sperimentale alla teoria di Maxwell, al campo elettromagnetico, alla teoria elettromagnetica della luce, all’azione a contatto propagantesi con velocità finita. Le stesso Hertz aveva mostrato che, nel suo modo di derivare le equazioni di Maxwell, queste ultime risultavano invarianti rispetto ad una trasformazione di Galileo.

        Per altri versi la teoria del trascinamento parziale dell’etere elaborata da Fresnel sembrava rendere conto dei vari fatti sperimentali, pur ponendosi in contrasto con l’ipotesi del trascinamento totale riproposta da Hertz sulle orme di Stokes.  Ma la teoria di Fresnel era in grado di rendere ragione solo di effetti al primo ordine del rapporto v/c (altrimenti detto costante di aberrazione).

        Gli esperimenti di Michelson, al secondo ordine del rapporto v/c, sembravano contraddire l’ipotesi di un trascinamento parziale ed affermare l’ipotesi del trascinamento totale che a sua volta si trovava in gravi difficoltà nella spiegazione del fenomeno dell’aberrazione. Oltre a ciò il trascinamento totale di Stokes risultava inconsistente ad una attenta analisi fattane da Lorentz.

        In definitiva, da una parte la teoria elettromagnetica aveva mostrato la sua capacità di spiegare e predire vari fatti sperimentali, dall’altra proprio l’elaborazione della teoria in connessione con nuovi fatti sperimentali faceva sorgere il problema di un inquadramento in una teoria più generale che rendesse conto di quanto di nuovo emergeva e di quanto era solo postulato nelle teorie precedenti. Era ancora l’indeterminatezza logica della teoria di Maxwell che apriva ampi spazi all’elaborazione teorica.

        In questo contesto e nell’ambito della scuola continentale iniziò a lavorare il fisico olandese H.A. Lorentz.

         Già nella sua tesi di dottorato, Riflessione e rifrazione della luce nella teoria elettromagnetica (1875), il cui argomento gli era stato suggerito da Helmholtz, egli mostrò uno spiccato interesse per la teoria di Maxwell che, allo stesso modo di Hertz, egli aveva appreso dai lavori di Helmholtz. Il problema che Lorentz affrontava non era privo di difficoltà; si trattava di ricavare le leggi della riflessione e rifrazione non più dalle teorie elastiche dell’ottica (Cauchy, Poisson, …), teorie che si presentavano come elaborazioni nell’ambito della meccanica, ma dalla teoria di Maxwell-Helmholtz. Le teorie elastiche, per rendere conto dei fenomeni di riflessione e rifrazione della luce, dovevano ricorrere a 6 condizioni le quali potevano essere soddisfatte solo ammettendo che, a lato delle vibrazioni trasversali, vi fossero anche vibrazioni longitudinali. Lorentz dimostrò che, ricavando quelle leggi dalla teoria elettromagnetica (con la sola ipotesi che la costante di polarizzazione del dielettrico fosse un numero molto grande), occorre tener conto solo di 4 condizioni i due per il campo elettrico e due per il campo magnetico. Queste condizioni possono essere soddisfatte con la sola ammissione di onde trasversali. In fin dei conti Lorentz mostrò che è più agevole ricavare le leggi dell’ottica dalla teoria elettromagnetica che non dalla meccanica (egli diceva che la teoria di Maxwell deve essere preferita alla vecchia teoria ondulatoria) riuscendo in questo modo a ridurre l’ottica, anche in modo analitico, ad un capitolo dell’elettromagnetismo.

        In questa fase Lorentz era ancora un sostenitore dell’azione a distanza (il Trattato di Maxwell era stato pubblicato da poco ed ancora mancavano più di 10 anni alle esperienze di Hertz). In ogni caso, per sua stessa ammissione, la sua adesione all’azione a distanza non era un dogma intoccabile. Egli affermava che la teoria discende dalle equazioni e non dall’azione a distanza: si trattava di scrivere queste equazioni cosicché esse descrivessero nel modo migliore la realtà e quindi arrivare a dedurle direttamente dalla considerazione di forze molecolari.

        Lorentz quindi già annunciava un ben chiaro programma: ricavare le equazioni di Maxwell in forma microscopica annettendo inoltre alle stesse equazioni un dato che trascendeva le modalità del loro conseguimento.

        In conclusione del suo lavoro del 1875 egli affermava (565) che “lo studio di altri fenomeni attraverso questa teoria si prospetta ugualmente fecondo per l’allargamento delle nostre conoscenze” e, passando ad esemplificare, Lorentz faceva riferimento: ai fenomeni della dispersione e della rotazione del piano di polarizzazione (effetto Faraday), al probabile rapporto tra forze meccaniche e fenomeni luminosi, all’influenza esercitata sulla luce dalle forze esterne e dal movimento del mezzo, ai fenomeni di emissione e di assorbimento, al calore raggiante.

             Come si vede si trattava di un ben vasto programma, ma quello che è più interessante per gli sviluppi futuri è che Lorentz si proponeva qui di stabilire “il modo in cui questi fenomeni sono connessi alla struttura molecolare” ed in particolare di ricercare un probabile legame tra emissione di luce e vibrazione di molecole, sede di oscillazioni elettriche. (566) E così Lorentz concludeva:

Lungi dall’avere acquisito una forma definitiva, la teoria di Maxwell indica piuttosto la necessità di giungere al chiarimento dei numerosi punti oscuri dei quali oggi non si può fornire che una spiegazione inadeguata.”

Rimane ancora da segnalare il ruolo giocato dall’etere in questo primo lavoro di Lorentz: esso comincia a venir separato dalla materia mediante l’ammissione che i corpi ponderabili non lo perturbano e che solo i corpi elettrizzati modificano le forze elettromotrici in esso presenti.

        Si comincia cosi ad intravedere la futura teoria di Lorentzt particellare da una parte e di campo dall’altra. Occorrerà però fare ancora molta strada, continuando a ricavare dalla teoria di Maxwell le leggi che regolavano altri, diversi fenomeni.

        Nella sua memoria Sulle relazioni tra la velocità di propagazione della luce e la densità e composizione dei mezzi (1878), egli tornò ad occuparsi ancora della riduzione dell’ottica all’elettromagnetismo, con il tentativo di elaborare una teoria delle proprietà ottiche della materia come conseguenza della teoria elettromagnetica. Egli trovà oosì la prima giustificazione teorica alla formula della dispersione della luce (che era fino ad allora completamente non spiegata dalla teoria di Maxwell) e poiché allo stesso risultato era pervenuto (l869) anche il fisico danese L.Lorenz (del quale ci siamo occupati nel paragrafo 3 del capitolo III) la formula della dispersione in oggetto fu chiamata di Lorenz-Lorentz.   (567)

         Ma, al di là di questo successo, che pur sempre più lo sosteneva a proseguire sulla strada dell’interpretazione dei vari fenomeni fisici mediante la teoria di Maxwell-Helmholtz, occorre sottolineare il modo con cui Lorentz riuscì a conseguirlo. Egli non considerava più allo stesso modo il comportamento dielettrico dell’etere e della materia ponderabile, così come faceva Maxwell. Ora il solo vero dielettrico era l’etere. E, poiché “lo spazio fra le molecole deve essere considerato pieno di etere“, di cui le stesse molecole sono imbevute, allora il comportamento dielettrico dei corpi ponderabili diventava una conseguenza dell’interazione tra i campi nell’etere e le particelle materiali cariche che facevano parte del corpo ponderabile in considerazione. Quando un’onda luminosa entra in un corpo ponderabile essa pone in oscillazione le particelle cariche ivi presenti. Queste particelle vibreranno con una frequenza propria originando, ciascuna, una piccola onda. L’interferenza di tutte queste onde elementari tra di loro e con l’onda incidente origina una onda risultante che risulta modificata rispetto a quella incidente. In modo ancora più preciso, si può dire che Lorentz supponeva la materia come costituita da molecole e che cambiamenti sullo stato elettrico di queste molecole influivano sulla polarizzazione dell’etere. Se ora una molecola è dotata di un momento elettrico di dipolo, essa indurrà una polarizzazione in ciascun punto dell’etere che a sua volta indurrà una forza elettromotrice. A questo punto Lorentz supponeva che all’interno di ogni molecola vi fosse una particella carica dotata di massa. La luce che interagisce con la materia genera un momento elettrico di dipolo nelle molecole, mettendo in moto le masse delle particelle. Una forza elastica di richiamo tende poi a riportare le particelle cariche nelle loro posizioni di equilibrio. E così il processo continua fin quando la luce interagisce con la materia. Ed ecco, in conclusione,che le particelle cariche che si trovano sulla materia hanno influito sulla propagazione della luce ma solo mediante un meccanismo che vede la materia oggetto di azioni che si svolgono principalmente nell’etere. In questo modo i ruoli delle particelle materiali cariche e dell’etere venivano ad essere separati con un procedimento del tutto nuovo rispetto alle teorie precedentemente sviluppate. Oltre a ciò, si iniziava a parlare di campi microscopici, in qualche modo originati dalle vibrazioni di minuscole particelle cariche (quindi da particelle cariche accelerate). (568)    Infine l’etere, continuando a rimanere sede dei fenomeni elettromagnetici, iniziava a perdere le sue caratteristiche materiali poiché Lorentz faceva l’ipotesi che  “le proprietà dell’etere, ad eccezione che nelle immediate vicinanze delle particelle, sono le stesse del vuoto.” (569)

        A questo punto e per circa dieci anni, gli interessi di Lorentz si indirizzarono verso altri campi e principalmente verso problemi di teoria cinetica dei gas e termodinamica che, proprio in quegli anni, erano arrivate ad un elevatissimo grado di maturazione e completezza (si veda il paragrafo 7 del capitolo III). (570)  Si può avanzare l’ipotesi che proprio i successi che l’interpretazione microscopica in termini di corpuscoli aveva permesso di conseguire indussero Lorentz a sempre più convincersi, se non altro, dell’utilità della rappresentazione di altri fenomeni fisici in termini di particelle. D’altra parte, anche un suo illustre collega, Maxwell, pur avendo sostenuto nella sua opera principale, il Trattato, la teoria di campo con l’annessa azione a contatto, aveva poi lavorato con notevole successo in questioni di teoria cinetica. Oltre a ciò, certamente, un grosso influsso su Lorentz lo ebbe quella scuola continentale, che faceva capo ad Ampère, dei Weber,  Riemann, Clausius, L. Lorenz ed Helmholtz, e che sostituì ai fluidi elettrici le particelle cariche di elettricità positiva e negativa, fluenti in versi opposti con uguali densità e velocità. Già abbiamo visto infatti come fin dal suo primo lavoro Lorentz insisteva su particelle cariche presenti nella materia ponderabile, e questo fatto si andrà sempre più precisando negli anni successivi, soprattutto a partire dalla sua importante memoria del l892. (571)

        In questo lavoro, che segna la definitiva conversione di Lorentz all’azione a contatto e quindi più pienamente alla teoria del campo elettromagnetico di Maxwell ed Hertz, (572) comparve la prima elaborazione di Lorentz di quella teoria che più tardi sarà chiamata “teoria degli elettroni“. (573) Varie erano le motivazioni che il fisico olandese portava a sostegno del suo cambiamelo di punto di vista, ma i fatti che più influirono su di lui erano state certamente le esperienze di Hertz del 1888 (con le quali non solo si dimostrava l’esistenza delle onde elettromagnetiche ma anche che esse si comportavano esattamente come la luce dalla quale differivano solo per la frequenza) che, tra l’altro, gli confermavano l’idea, già precedentemente elaborata in embrione nel suo lavoro del 1886, di onde elettromagnetiche generate da cariche elettriche oscillanti (e quindi accelerate) e da Lorentz applicata nell’ambito microscopico.

         Ma Lorentz aveva anche ben presente l’elaborazione teorica di Hertz  e non ne era soddisfatto poiché in essa

Hertz non si preoccupa di stabilire una analogia tra le leggi elettomagnetiche e le leggi della dinamica … [mentre] si è sempre tentati di ritornare alle spiegazioni meccaniche

(si ricordi che in Hertz le cariche elettriche erano quasi sparite per lasciar posto al solo campo). Oltre a ciò egli trovava insufficienti le teorie di Hertz poiché si fondavano su quel trascinamento totale dell’etere, alla Stokes, da lui stesso dimostrato inconsistente.

        Per altri versi molte lacune si presentavano nella stessa teoria di Maxwell. Ad esempio, in essa, senza alcuna spiegazione di carattere teorico, venivano introdotte delle costanti (costante dielettrica, permeabilità magnetica, conducibilità elettrica) che non si capiva bene da dove nascessero e che ruolo fisico o teorico giocassero (oltre al fatto che, alla fine, avevano la loro corretta sistemazione nelle equazioni).

         Secondo Lorentz, quindi, certamente “le concezioni di Maxwell possono servire di fondamento per la teoria cercata“, ma sarebbe stato necessario fare qualche cambiamento. Leggiamo direttamente il brano originale in quei passi in cui viene stabilita la teoria degli elettroni nelle sue ipotesi fondamentali: (574)

Mi è sembrato utile sviluppare una teoria elettromagnetica fondata sull’idea che la materia ponderabile fosse perfettamente permeabile all’etere e potesse spostarsi senza comunicare a quest’ultimo il minimo movimento … Purtroppo una difficoltà si presenta fin dall’inizio. Come farsi un’idea precisa di un corpo che, spostandosi in seno all’etere ed essendo conseguentemente attraversato da questo mezzo, è allo stesso tempo la sede  di una corrente elettrica o di un fenomeno dielettrico ?

La risposta a questo quesito seguiva immediatamente:

Per superare la difficoltà ho cercato, per quanto possibile, di ricondurre tutti i fenomeni ad uno solo, il più semplice di tutti, e cioè al movimento di un corpo elettrizzato … Sarà sufficiente ammettere che tutti i corpi ponderabili contengano un gran numero di particelle di carica positiva e negativa e che i fenomeni elettrici siano prodotti dallo spostamento di queste particelle.

Seguendo questo punto di vista una carica elettrica è dovuta ad un eccesso di particelle di un dato segno, una corrente elettrica è un reale flusso di questi corpuscoli e negli isolanti ponderabili ci sarà ‘spostamento elettrico’ quando le particelle elettrizzate che essi contengono sono allontanate dalla loro posizione di equilibrio.”

E’ tutto così chiaro da risultare superflua ogni ulteriore spiegazione. E’ invece interessante notare che per la prima volta veniva fornito un quadro esplicativo ed unitario dei diversi fenomeni elettrici. Certo che, come anche lo stesso Lorentz riconosceva subito dopo, varie volte ed isolatamente erano state avanzate delle ipotesi simili alle sue; per questo motivo egli sosteneva che:

nella nuova forma che sto per darle, la teoria di Maxwell si avvicina alle vecchie idee [di Weber e Clausius].”

Subito dopo Lorentz affermava che però si poteva anche prescindere dal modo con cui le equazioni erano state ottenute: l’importante era il risultato e cioè le equazioni stesse. Passando poi ad un confronto della sua con le teorie di Weber e Clausius, egli scriveva:

Weber e Clausius consideravano le forze di interazione tra due atomi come dipendenti dalla posizione relativa, dalle velocità e dalle accelerazioni che questi atomi possedevano nel momento in cui si considerava la loro azione reciproca. Al contrario le formule a cui perverremo esprimono da una parte i cambiamenti di stato determinati nell’etere dalla presenza e dal movimento delle particelle elettrizzate; dall’altra esse indicano la forza con cui l’etere agisce su una qualsiasi particella.”

Il capolavoro di Lorentz si andava realizzando: egli riuscì a sintetizzare in un modo mirabile e semplice (almeno nella formulazione modellistica) le due principali teorie dell’elettromagnetismo, quella particellare della scuola continentale e quella di campo della scuola britannica; alle cariche elettriche veniva assegnato il ruolo di sorgenti del campo, la sede di quest’ultimo era l’etere (anzi l’etere sembra essere esso stesso campo), il campo così creato agiva a sua volta proprio sulle cariche che lo avevano generato, l’etere, pur rimanendo come indispensabile riferimento, scompariva come entità materiale: erano le grandezze elettromagnetiche del campo ad acquistare una realtà fisica.

        Ma come avveniva l’interazione tra etere (campo) e materia (cariche elettriche) ?

        Scriveva Lorentz:

Se la forza [con cui l’etere agisce su una qualsiasi particella] dipende dal movimento delle altre particelle è perchè tale movimento ha modificato lo stato dell’etere; in questo modo, il valore della forza, in un dato istante, non è determinato dalla velocità ed accelerazione che i corpuscoli posseggono in quello stesso istante; essa dipende piuttosto dai movimenti che hanno già avuto luogo. In termini generali si può affermare che le perturbazioni eccitate nell’etere dal movimento di una particella elettrizzata, si propagano con una velocità uguale a quella della luce,

e quindi con una velocità finita, conseguenza dell’accettazione dell’azione a contatto.

          Tra le ipotesi fondamentali alla base della sua teoria Lorentz poneva:

Le particelle cariche saranno considerate come appartenenti alla ‘materia ponderabile’ che può subire l’azione di forze; tuttavia supporrò che in tutto lo spazio occupato da una particella ci sia anche l’etere, ed inoltre che uno spostamento dielettrico ed una forza magnetica, prodotti da una causa esterna, possano esistere come se la ‘materia ponderabile’ non ci fosse affatto. Quest’ultima è dunque considerata come perfettamente permeabile all’etere.

          II fatto poi che lo spostamento di particelle materiali cariche costituisce una corrente elettrica era ritenuto ragionevole dal nostro a seguito dell’esperienza di Rowland che aveva appunto dimostrato che il trasporto meccanico di una carica elettrica equivale ad una corrente.

         Con tutto questo apparato concettuale, Lorentz iniziò a lavorare applicando le equazioni di Maxwell (si badi bene: nella forma semplificata che gli aveva dato Heaviside, con alcune notazioni introdotte da Fitzgerald, con l’introduzione dei potenziali ritardati ed usando di alcuni risultati nel calcolo integrale ottenuti l’anno prima da Poincaré) alle supposte particelle cariche.

         Alle equazioni di Maxwell, ora ridotte a quattro, che descrivevano la situazione del campo e quindi dell’etere, Lorentz dovette aggiungerne una quinta che rendesse conto di un fenomeno impensabile nella teoria di Maxwell, dell’interazione elementare tra campo elettromagnetico e carica elettrica. Questa equazione, risultato di grande importanza e ancora oggi nota come forza di Lorentz (575) con simbolismo moderno si scrive:

dove F  rappresenta la forza che si esercita su una carica q in moto con velocità  v  all’interno di un campo elettromagnetico E e B con una direzione formante un angolo a con quella del campo magnetico B [nel caso in cui a risulti uguale a 90°, cioè la direzione del moto di q risulti perpendicolare a quella del campo B allora la formula diventa F = q(E + vB)]. Ed in pratica ciò vuol dire che le cariche q in moto sono sorgenti di forze dipendenti dalla velocità.

         L’applicazione di queste cinque equazioni alle particelle cariche in moto permise a Lorentz di conseguire risultati di notevole importanza tra i quali emerge in modo particolare la deduzione teorica del coefficiente di trascinamento di Fresnel proprio come conseguenza delle equazioni del campo elettromagnetico. Cerchiamo di capire la strada seguita da Lorentz per arrivare a questo risultato.

        Innanzitutto consideriamo un mezzo trasparente investito da una radiazione luminosa. Queste mezzo sarà costituito da tante particelle cariche di segno opposto in modo che una data molecola sarà formata, nell’ipotesi più semplice, da una carica positiva ed una negativa (un dipolo) legate insieme da una forza elastica. Con un meccanismo già descritto qualche riga più su, quando un’onda luminosa interagisce con la nostra molecola-dipolo la mette in vibrazione: le due cariche si allontaneranno e riavvicineranno alternativamente. Conseguenza di ciò è che la forza elettrica cambierà alternativamente di direziono. Il nostro dipolo emetterà allora onde elettromagnetiche elementari che andranno ad interferire e con le altre onde elettromagnetiche elementari generate dalle altre molecole-dipolo e con l’onda primaria incidente. Questa interferenza che si produce all’interno del mezzo trasparente provoca un rallentamento nella velocità dell’onda incidente (in accordo con quanto sappiamo sulla rifrazione nel passaggio da un mezzo meno ad uno più denso). Bisogna ora osservare che il grado di vibrazione del dipolo dipenderà dal valore della forza elastica di richiamo, dipenderà cioè dall’intensità del legame tra cariche positive e negative nella molecola. Ora, la forza di legame tra le molecole è strettamente connessa al grado di polarizzazione che, a sua volta, è relazionato all’indice di rifrazione del mezzo trasparente in considerazione.

        In definitiva la velocità dell’onda risultante w sarà minore di quella dell’onda incidente c di una quantità dipendente dall’indice di rifrazione del nostro mezzo trasparente:   w = c/n. E tutto ciò nell’ipotesi che il nostro mezzo trasparente dielettrico sia immobile rispetto all’etere.

        Supponiamo ora di mettere in moto il nostro mezzo con una velocità v (è quello che accade per ogni oggetto che, trovandosi sulla Terra, è in moto rispetto all’etere considerato immobile). Le onde luminose che lo attraversano mettono in vibrazione i dipoli ivi presenti. Mentre questi dipoli vibrano, emettendo onde elettromagnetiche, sono soggetti ad un moto d’insieme rispetto all’etere con la velocità v, la stessa, del mezzo trasparente che li contiene. Poiché i dipoli sono delle cariche elettriche e poiché si muovono ciascuno rispetto all’etere con velocità v debbono originare un campo magnetico, un qualcosa di più rispetto alle onde elettromagnetiche che, nel frattempo, vanno emettendo. Questo campo magnetico così originato va ad interagire con i dipoli che stanno vibrando (si tratta di un campo magnetico che agisce su delle cariche elettriche) alterando la loro vibrazione e, conseguentemente, le onde elementari da essi emesse. In questo modo l’onda risultante, dovuta all’interferenza delle onde elementari tra loro e con l’onda primaria, ne risulterà modificata di una quantità che dipende, come Lorentz dimostrò, dalla velocità v di traslazione dei dipoli stessi e ancora dall’indice di rifrazione del mezzo trasparente. E così se indichiamo con c/n la velocità  dell’onda luminosa primaria nel mezzo trasparente, con w la velocità dell’onda risultante, con v la velocità di traslazione dei dipoli rispetto all’etere e con n l’indice di rifrazione del mezzo trasparente, si ha che la velocità w di propagazione della nostra onda risultante rispetto alla materia ponderabile è data da:

    w = c/n – v/n2

In questa relazione v/n2  rappresenta il rallentamento dell’onda risultante a causa dei meccanismi d’interazione tra la vibrazione dei dipoli, il campo magnetico generato dalla loro traslazione e l’interferenza tra onde elementari ed onda primaria (si tenga conto che la relazione in oggetto era stata ricavata da Lorentz trascurando termini del secondo ordine in v/c).

        Se la velocità w, anziché riferirla alla materia ponderabile (che è in moto con velocità v), la riferiamo all’etere immobile, alla relazione precedentemente vista dobbiamo aggiungere la velocità v di traslazione della materia ponderabile rispetto all’etere (composizione galileiana delle velocità), cioè:

w = c/n – v/n2          =>   w = c/n + v (1  – 1/n2)

che è la ben nota relazione ricavata per altra via da Fresnel e dimostrata sperimentalmente da Fizeau.

         Era questo un grande successo della teoria di Lorentz che, per via elettromagnetica, dimostrava che tutto andava come se vi fosse un trascinamento parziale, ma che in realtà si trattava di una interazione tra campo nell’etere immobile e cariche in moto.

         Siamo nell’anno 1892. Lorentz aveva elaborato una brillante teoria che si accordava e spiegava numerosi fatti sperimentali. L’unico neo era la non spiegazione dell’esperienza di Michelson-Morley del 1887 che, ormai, non poteva più essere messa in dubbio. D’altra parte tutto funzionava poiché l’intera teoria era stata ricavata al primo ordine di v/c fatto, a questo punto, non più sostenibile.

         Lorentz era ben cosciente di tutto ciò, anzi ne sembrava angosciato.

         Il 18 agosto del 1892 scrisse a Rayleigh per chiedergli chiarimenti sull’esperienza di Michelson-Morley. Dopo aver ricordato che il coefficiente di trascinamento di Fresnel rendeva conto di tutti i fatti sperimentali ad eccezione dell’esperimento di Miohelson-Morley, Lorentz scriveva: (576)

Sono talmente incapace di rimuovere questa contraddizione e malgrado ciò ritengo che se dovessimo abbandonare la teoria di Fresnel, non avremmo nessuna teoria adeguata, poiché le condizioni imposte dal Sig. Stokes sul moto dell’etere sono inconciliabili tra loro.

Potrebbe esserci qualche aspetto nella teoria dell’esperimento del Sig. Michelson che sia stato fino ad ora trascurato ?

        Nel frattempo, il 16 giugno del 1892, veniva pubblicato su Nature un articolo del fisico britannico O.J. Lodge (1851-1940). (577) Lodge, dopo un’ampia rassegna dello stato delle problematiche dei rapporti tra etere e materia, sosteneva che l’esperimento di Michelson non riusciva ad essere spiegato in alcun modo a meno di ammettere un trascinamento totale dell’etere; inoltre egli faceva riferimento ad una sua recente esperienza dalla quale sembrava risultare “che l’etere non risente del moto della materia contigua almeno per una quantità pari ad 1/200 della velocità della materia“; ebbene, qualora si fosse accettata la spiegazione del trascinamento totale per rendere conto dell’esperienza di Michelson, quest’ultimo fatto sarebbe restato del tutto inspiegato.

         L’esperienza a cui Lodge faceva riferimento consisteva nel far passare un raggio di luce nello spazio interposto tra due dischi d’acciaio affacciati e ruotanti ad alta velocità. Nel caso in cui la materia in moto avesse trascinato con sé l’etere, la velocità della luce misurata sarebbe dovuta risultare modificata. Lodge non osservò nessun effetto.

         Insomma, le due esperienze, quella di Lodge e quella di Michelson, erano,  allo stato delle conoscenze, in conflitto.

        Subito dopo questo resoconto Lodge portava una testimonianza molto importante: egli affermava che per rendere conto dei fenomeni in oggetto ” il prof. Fitzgerald ha suggerito un modo per uscire dalla difficoltà supponendo che le dimensioni dei corpi siano una funzione della loro velocità attraverso l’etere.” (578)

        E’ la famosa ipotesi della contrazione; un oggetto si contrae nella direzione del moto di una quantità tanto maggiore quanto maggiore è la sua velocità.

        Non è ben certo se Lorentz conoscesse o meno l’ipotesi di Fitzgerald  (579) e questo è comunque poco importante (non sarebbe la prima volta che in fisica si realizzano scoperte simultanee in connessione con la maturazione di un determinato problema); resta il fatto che Lorentz elaborò quantitativamente questa ipotesi in un lavoro che fu comunicato all’Accademia di Amsterdam il 26 novembre del 1892  (580)   ed, in modo più accurato, in una successiva, grande memoria del 1895  (581)  (quando dovremo riferirci a quest’ultima memoria lo faremo indicandola con la prima parola del suo titolo Versuch).                                                                             

         A cosa serviva questa ipotesi ?

         Se ricordiamo l’esperienza di Michelson, la luce, per percorrere tragitti uguali nei due bracci dell’interferometro, nell’ipotesi di esistenza di un vento d’etere, dovrebbe impiegare tempi diversi: il tempo impiegato per il tragitto andata e ritorno nel braccio perpendicolare alla direziono del moto dovrebbe essere diverso dal tempo impiegato per il tragitto andata e ritorno nel braccio parallelo alla direziono del moto. Questa differenza di tempi dovrebbe originare interferenza in un dato oculare. L’esperimento, fatto con somma cura,  non dava indicazione alcuna di tempi diversi necessari alla luce per percorrere i due bracci dell’interferometro.

        Nella memoria del 1892 Lorentz scriveva: (582)

Questo esperimento è stato per me un rompicapo per molto tempo ed alla fine sono riuscito a trovare un metodo per riconciliare il suo risultato con la teoria di Fresnel. Esso consiste nel supporre che la linea che unisce due punti di un corpo solido secondo la direziono del moto della Terra, non conserva la medesima lunghezza quando il corpo ruota di 90°.”

E ciò vuol dire che un corpo rigido di una data lunghezza, quando è situato in direzione perpendicolare alla direzione del moto della Terra, assume una lunghezza diversa (minore)  di quella che assume quando esso è situato in direzione parallela al moto della Terra. In definitiva un oggetto si contrae se si muove in direzione parallela al moto della Terra o, che è lo stesso, in direzione parallela al vento d’etere.

        Così proseguiva Lorentz: (583)

Così come io vedo le cose, non è inconcepibile che la lunghezza dei bracci dell’esperimento di Michelson subisca delle variazioni. Che cos’è che determina la forma e le dimensioni di un corpo solido ? Evidentemente l’intensità delle forze molecolari: qualunque causa che la modificasse influirebbe anche sulla forma e le dimensioni. A tutt’oggi si può supporre, senza timore di sbagliare, che le forze elettriche e magnetiche agiscono attraverso l’etere. E non sembra gratuito supporre che la stessa cosa avviene per le forze molecolari. In questo caso però sarebbe molto diverso che la linea di unione tra le due particene, che si spostano insieme nell’etere, si trovi parallela o perpendicolare alla direzione dello spostamento.

       Non è impossibile contraddire questa ipotesi poiché non conosciamo bene la natura delle forze molecolari. Possiamo solo calcolare – e solo con l’aiuto di alcune ipotesi più o meno plausibili – l’influenza del moto della materia ponderabile sulla forza elettrica e magnetica. Forse vale la pena di dire che il risultato ottenuto nel caso di forze elettriche, fornisce, nel caso di forze molecolari, il valore esatto … della quantità di contrazione di uno dei bracci che è necessaria per spiegare l’esperimento di Michelson.”

      Ecco allora come è spiegato il risultato negativo dell’esperienza di Michelson:  il  braccio  dell’interferometro  che  si  muove  parallelamente  alla  direzione del moto della Terra si è contratto di una quantità tale da rendere nulla la differenza dei tempi necessari alla luce per percorrere i due bracci.

      La teoria comporta che se la Terra viaggiasse più velocemente, maggiore sarebbe la contrazione del braccio che si trova parallelo al suo moto e sempre tale da uguagliare perfettamente i tempi necessari alla luce per percorrere i due tragitti. Ciò vuol dire che l’esperienza di Michelson non può che dare risultati nulli e che, in ogni caso, nessuna altra esperienza sarebbe in grado di evidenziare un moto assoluto della Terra rispetto all’etere immobile.

             Scriveva Lorentz nella Versuch: (584)

Al fine di semplificare il problema supporremo di lavorare con il dispositivo impiegato nel primo esperimento e che in una delle posizioni principali il braccio P [ dell’interferometro] giaccia esattamente nella direzione del moto della Terra. Sia v la velocità di questo moto, L la lunghezza di entrambi i bracci e , quindi,  2L il cammino percorso dai raggi di luce. Secondo la teoria, la rotazione dell’apparato per un angolo di 90° fa si che il tempo durante il quale un raggio viaggia in andata e ritorno lungo P sia maggiore del tempo impiegato dall’altro raggio per completare il proprio cammino; la differenza è pari a:

 Lv2/c2

La stessa differenza si avrebbe se la traslazione non esercitasse alcuna influenza ed il braccio P fosse più lungo del braccio Q  per una quantità pari a:  

Lv2/2c2

Lo stesso vale per la seconda posizione principale. Vediamo quindi che le differenze di fase previste dalla teoria potrebbero anche sorgere qualora, durante la rotazione dell’apparato, prima un braccio e poi l’altro fossero rispettivamente il braccio più lungo. Me segue che le differenze di fase possono essere compensate da variazioni contrarie delle dimensioni. Se ipotizziamo che il braccio giacente nella direzione del moto della Terra è più corto dell’altro per una quantità  

Lv2/2c2

e che, nello stesso tempo, la traslazione abbia l’effetto previsto dalla teoria di Fresnel, allora il risultato dell’esperimento di Michelson è completamente spiegato. Pertanto si dovrebbe immaginare che il moto di un corpo solido … attraverso l’etere in quiete eserciti un’influenza che varia in funzione dell’orientamento del corpo stesso rispetto alla direzione del moto. Per sorprendente che possa apparire tale ipotesi a prima vista, pure dobbiamo ammettere che essa non è affatto artificiosa qualora si assuma che anche le forze molecolari vengono trasmesse attraverso l’etere, analogamente per quanto accade per le forze elettriche e magnetiche a proposito delle quali siamo attualmente in grado di accettare definitivamente tale assunzione. Se esse sono trasmesse in questo modo, la traslazione sarà molto probabilmente capace di influenzare l’azione tra due molecole o atomi in modo analogo a ciò che si ha nell’attrazione o nella repulsione tra particelle cariche. Ora, poiché la forma e le dimensioni di un corpo solido sono in ultima istanza condizionate dall’intensità delle azioni molecolari, non può mancare il prodursi di una variazione di dimensioni.

        Lorentz, già nel 1892, aveva ricavato che il campo di forze creato da una carica in movimento era uguale al campo generato da una carica ferma, ma contratto della quantità

nella direzione del moto della carica. (585) E questa contrazione è proprio quella che deve aversi per rendere conto dell’esperienza di Michelson, ora, nella Versuch del 1895, questo risultato veniva riaffermato. (586)

        Consideriamo infatti la relazione (3) che avevamo ricavato nel paragrafo precedente e relativa alla differenza complessiva Dt dei tempi necessari alla luce per percorrere i due bracci (supposti uguali e lunghi d) dell’interferometro di Michelson:

Ora, nelle ipotesi di Lorentz, il tempo t1, necessario alla luce per percorrere andata e ritorno il braccio parallelo al moto della Terra, sarà dato da:

a seguito del fatto che la lunghezza di questo braccio si è ora contratta ed è diventata d.(1 – v2/c2)1/2; il tempo t2 è invece rimasto invariato. Di conseguenza la (3) diventa:

Ecco allora che, in mancanza di tempi di percorrenza, l’esperimento di Michelson non può che dare risultato nullo.

        Ma possiamo estendere questo risultato anche al caso in cui i due bracci dell’interferometro non abbiano la stessa lunghezza d, ma siano lunghi rispettivamente d1 e d2. In questo caso più generale, la relazione che ci forniva la differenza dei tempi era la (3 bis) del paragrafo precedente:

dove  Δt’ era la differenza dei tempi che si aveva quando il braccio PM1 = d1  si trovavaparallelo alla direzione del moto della Terra ed il braccio PM2 = d2 si trovava perpendicolare a questa direzione, mentre  Dt” era la differenza dei tempi che si aveva quando i bracci erano ruotati di 90°, invertendo le loro posizioni.

        Introducendo la contrazione, durante la misura relativa a  Δt’, sarà d1 che si contrarrà, diventando d1(1 – v2/c2)1/2. Quando l’interferometro è ruotato di 90° sarà d2 che subirà la contrazione diventando d2 (1 – v2/c2)1/2. La (3 bis) diventa allora:

Ed anche qui, come si vede, la differenza dei tempi risulta nulla, con l’ovvia conseguenza del risultato nullo dell’esperienza di Michelson.

        Come si può notare, l’ipotesi della contrazione è in qualche modo conseguenza della teoria che già in precedenza aveva elaborato Lorentz e non propriamente un’ ipotesi ad hoc.   (587)

        In ogni caso l’elaborazione di Lorentz rappresenta la prima vera estensione dei fenomeni elettromagnetici ai fenomeni meccanici; un grande passo avanti sulla strada che tendeva, in quegli anni, all’unificazione di tutti i fenomeni fisici attraverso l’elettromagnetismo. Ma su quest’ultimo aspetto torneremo tra poco mentre è ora interessante fare una considerazione ed andare a cogliere gli altri importanti contributi di Lorentz nella Versuch del 1895.

        L’ipotesi della ‘contrazione‘ non è propriamente, almeno nella prima formulazione, quella di una contrazione. Spiego subito questo bisticcio riferendomi ad un brano dei paragrafi 90 e 91 della Versuch  (588)  che precedono quello, il 92,  (589)  in cui viene formulata la teoria delle forze che dovrebbero esercitarsi tra molecola e molecola nel caso di un corpo in movimento. Lorentz affermava che ambedue i bracci dell’interferometro di Michelson potrebbero subire una variazione di lunghezza tale da fornire risultato nullo all’esperimento. In realtà non si sa bene che cosa accade; potrebbe contrarsi il braccio che si muove parallelamente alla direzione del moto della Terra, mentre l’altro mantiene invariata la sua lunghezza; al contrario, potrebbe dilatarsi questo secondo braccio, mentre il primo mantiene invariata la sua lunghezza; potrebbe contrarsi un poco il primo e dilatarsi di un poco il secondo. E’ soltanto nel paragrafo 92 che il dubbio viene sciolto in favore della contrazione, ma non con un procedimento arbitrario, bensì facendo ricorso proprio alla teoria delle forze molecolari. (590)

        Ma qual è il valore di questa contrazione ? Di quanto si contrae, ad esempio,una sbarra posta parallelamente alla direzione del moto della Terra ?

        Lo stesso Lorentz ne fornisce una valutazione nel paragrafo 91 della Versuch:  (591)

Le contrazioni in questione sono straordinariamente piccole … La contrazione del diametro della Terra dovrebbe ammontare a circa 6,5 cm. La lunghezza di una sbarra di un metro [posta parallelamente alla direzione del moto della Terra dovrebbe diminuire] di circa 1/200 micron.”

        Come evidenziare queste variazioni di dimensione ?

        Solo con metodi interferometrici, affermava Lorentz,e noi siamo in grado di rendercene conto grazie proprio al risultato nullo dell’esperienza di Michelson. D’altra parte, osserviamo noi, è puramente illusorio pensare di riuscire a dare una valutazione di queste variazioni di lunghezza, ad esempio, con un regolo graduato. Se, infatti, pensiamo di eseguire questa misura, ad esempio di una sbarra, ci troviamo nella grave difficoltà che anche il nostro  regolo subisce le variazioni di lunghezza che subisce la sbarra. Rispetto alla direzione del moto della Terra, in qualunque posizione sistemiamo la sbarra da misurare, nella stessa posizione dovremo sistemare il regolo per la misura; il risultato è che in alcun modo possiamo renderci conto di una qualche variazione di lunghezza poiché esse risultano simultanee.  (592)

        Quanto detto è ciò che per ora c’è da dire su questa ipotesi della contrazione che da ora chiameremo di Lorentz-Fitzgerald.

        Ma vediamo in breve quali sono gli altri argomenti trattati nella Versuch. (593)

        In questo lavoro si segue un procedimento analogo a quello seguito da Hertz nella sua memoria del 1890, Sulle equazioni fondamentali dell’Elettrodinamica per i corpi in riposo; (594)  ora le equazioni di Maxwell non vengono più ricavate, ma vengono postulate prescindendo da ogni proprietà meccanica del supposto etere (quest’ultima essendo una caratteristica sempre presente nell’opera di Lorentz). Queste equazioni vengono per la prima volta date microscopicamente e quindi, con un processo di media tra i campi, (595) estese ai fenomeni macroscopici. Ora Lorentz aveva in mano uno strumento di calcolo più potente con il quale affrontò, un problema ormai ineludibile. Infatti tutti i corpi che si trovano sulla Terra sono trasportati da essa nel suo moto attraverso l’etere immobile; è chiaro allora che tutti i fenomeni ottici ed elettromagnetici, che avevano trovato una loro spiegazione nell’ipotesi che essi si verificassero in un sistema di riferimento immobile (la Terra) rispetto ad un etere in moto, dovevano ora trovarla nell’ipotesi che quel riferimento (la Terra) fosse in moto rispetto ad un etere immobile (il primato dell’ipotesi di etere immobile era già stato dimostrato da Lorentz quando, proprio con questa ipotesi, aveva ricavato, nella precedente memoria, il coefficiente di trascinamento di Fresnel da ipotesi puramente elettromagnetiche). Si trattava, in definitiva, di dimostrare che in un sistema in moto i fenomeni ottici ed elettromagnetici vanno come in un sistema in riposo.

        Noi conosciamo, ad esempio, la legge dell’induzione elettromagnetica che si esercita tra due correnti rettilinee. Ebbene, questa legge è stata ricavata nell’ipotesi che le due correnti fossero immobili rispetto all’etere. E se le due correnti, invece, sono considerate in moto rispetto al riferimento etere ? Analogamente per la forza elettrostatica che si esercita tra due cariche, per l’effetto Faraday, per la riflessione, per la rifrazione, …

        Per risolvere questa questione, che avrebbe generalizzato la sua teoria, Lorentz formulò un teorema detto degli stati corrispondenti:  (596)

Se per un sistema di corpi in riposo si conosce uno stato nel quale:

  Dx, Dy, Dz, Ex, Ey, Ez, Hx, Hy, Hz

  sono delle date funzioni di x, y, z e t, allora, se lo stesso sistema si muove con velocità v, può esistere uno stato in cui

  D’x, D’y, D’z, E’x, E’y, E’z, H’x, H’y, H’z

  sono le stesse funzioni di x’, y’, z’ e t’ “,

  dove D è lo spostamento elettrico, E è la forza elettrica ed H la forza magnetica.

         Rimane solo da dire che, nel passaggio da uno stato all’altro, alle variabili x, y, z si applicano le ordinarie trasformazioni di Galileo, alle quali Lorentz aggiunge anche l’equazione di trasformazione per il tempo. (597) Infatti, come si ricorderà, le trasformazioni di Galileo prevedevano che nel passaggio da un sistema ad un altro in moto rettilineo uniforme rispetto al primo, il tempo non subisse modificazioni e pertanto si aveva t  = t’. Ora Lorentz fornisce per il tempo l’equazione di trasformazione che egli ricava da un cambiamento di coordinate che effettua nel corso del suo lavoro:

                      t’ = t – (1/c2) (vx.x + vy .y + vz .z)

che, nell’ipotesi di uno spostamento con velocità v lungo l’asse x, diventa:

 (1)                                                                       t’ = t – (v/c2).x                                                

(in questo case infatti sono nulle le componenti della velocità lungo gli assi y e z, cioè vy = vz = 0). A questo tempo t’ Lorentz dà il nome di tempo locale. Supponendo di avere una particella che si muove con velocità v rispetto all’etere immobile,  egli  scriveva: (598)

La variabile t’ può essere considerata come un tempo misurato ad un dato istante che dipende dalla posizione della particella in questione. Questa variabile può quindi essere chiamata il tempo locale di questa particella in contrasto con il tempo generale t.”

        Soffermiamoci un poco a capire il senso che Lorentz assegnava a questa trasformazione, che ci fa passare dal tempo generale ad un tempo locale per un sistema in moto rettilineo uniforme con velocità v rispetto ad un sistema di riferimento in riposo.  

       Lorentz supponeva di disporre di un sistema di riferimento S solidale con l’etere immobile a cui associava le coordinate spaziali x, y, z e la coordinata temporale t (tempo generale, che non si discosta dal tempo assoluto di Newton). Ora, nell’ipotesi di avere una particella carica che si muove lungo l’asse X con velocità v rispetto all’etere immobile, egli associava a questa particella un altro sistema S’, con coordinate spaziali x’, y’, z’, e coordinata temporale t’ (tempo locale). Nella nostra ipotesi di particella che si muove lungo l’asse X, possiamo fare a meno di prendere in considerazione gli assi Y e Z.

        Supponiamo ora che ad un dato istante (t = 0), quando la nostra particella si trova ad una distanza h (ascissa x) dall’origine O del sistema di riferimento S (oppure OX) in riposo rispetto all’etere, essa cominci ad emettere onde elettromagnetiche (che, come sappiamo, si muovono con velocità c rispetto all’etere). La figura 35 serve a visualizzare la situazione.

Le onde emesse a t = 0  raggiungeranno l’origine O del sistema S in un tempo   t = h/c. Prendiamo ora in considerazione un sistema di riferimento S’ (oppure O’X’) che si muova rispetto al sistema S con una velocità v, in direzione parallela ad OX. Questo sistema S’ è solidale con la particella in moto e di conseguenza questa particella è in riposo rispetto ad S’. I due sistemi S ed S’ siano situati in modo che, al tempo t = 0, le loro origini O ed O’ coincidano, allo stesso modo che le loro ascisse x ed x’ (figura 36).

Riprendendo in considerazione quanto detto prima (e relativo alla figura 35) le onde elettromagnetiche, emesse a t = 0 dalla particella che si trova in X≡X’, raggiungeranno l’origine O del sistema di riferimento immobile rispetto all’etere nello stesso tempo t = h/c visto prima, mentre impiegheranno un tempo minore t’ =  h/(c + v)  per raggiungere l’origine O’ del sistema di riferimento in moto con velocità v rispetto all’etere immobile (e ciò perché mentre le onde elettromagnetiche si propagano dalla particella con velocità c, O’ si avvicina ad esse con velocità v: vale quindi la composizione galileiana delle velocità). Va sottolineato che quanto detto è conseguenza del fatto che la velocità delle onde elettromagnetiche è c rispetto all’etere immobile.

        Questa differenza di tempi, per i due sistemi in moto con velocità v l’uno rispetto all’altro, può essere interpretata come se i fatti che si svolgono in x’ nel sistema in moto avessero luogo in un tempo precedente nel sistema in riposo. E da qui nasce il concetto di tempo locale: ogni posizione occupata dal sistema mobile ha un tempo proprio; esso non coincide con quello misurato da un osservatore immobile e non coincide neppure con nessun altro dei tempi relativi agli altri punti del sistema in moto; in definitiva esso varia al variare della posizione del sistema in moto [infatti in un tempo t = t1 ≠ 0, la particella si troverà non più ad una distanza h, ma ad una distanza d > h dall’origine e, a parità di velocità v, si avrà  t’ = d/(c + v)]. (599)  In definitiva un osservatore che si trovi in O’ vedrà fenomeni che si svolgono in x’ tanto prima rispetto ad O quanto più grande è h.

         Vediamo di ritrovare la formula che Lorentz fornisce per il tempo locale (1) a partire dalle considerazioni ora svolte.

         Ponendo h = x, abbiamo trovato che:

(2)          t = x/c                                                       e                                      (3)           t’ = x/(c + v)

dove t è il tempo generale (o assoluto) misurato da un osservatore immobile rispetto all’etere, e t’ è il tempo locale misurato da un osservatore solidale con il sistema di riferimento in moto con velocità c,

         Trasformiamoci opportunamente la (3):

t’ = x/(c + v) = (x/c).[1 + v/c]-1

ed applichiamo la ormai nota formala che permette lo sviluppo del binomio di Newton; si ha:

t’ = (x/c).[1 + v/c]-1 = (x/c).[1 + (-1)(v/c) + (-1)(-2)/2.(v/c)2 + … ]

Trascurando termini in v/c, dal secondo ordine in poi, si trova:

t’ = (x/c).[1 – v/c] = x/c – (v/c2).x

e, ricordando la (2), si ha:

t’ = t – (v/c2).x

che è proprio la relazione che Lorentz presenta per il tempo locale. Occorre sottolineare che, come qui fatto, anche Lorentz trovò questa equazione di trasformazione trascurando termini del secondo ordine in v/c.

        Questa trasformazione permetteva a Lorentz di dare la stessa forma alle equazioni del campo elettromagnetico sia in un sistema solidale con l’etere, sia in un sistema in moto con velocità v rispetto ad esso.

        Con queste procedimento Lorentz poté enunciare il teorema secondo il quale, se si trascurano termini del secondo ordine in v/c, allora le equazioni del campo elettromagnetico hanno la stessa forma in due sistemi di riferimento che si muovono con velocità relativa e costante v rispetto all’etere immobile. (600)

        E’ utile far presente che nelle intenzioni di Lorentz non c’era alcuna volontà di porre in discussione il tempo assoluto; il tempo locale era una utile variabile ausiliaria che gli permetteva di scrivere nella stessa forma le equazioni del campo elettromagnetico per due sistemi in moto relativo. (601)

        In questo modo, al 1° ordine di v/c, le equazioni di trasformazione di Lorentz (nel caso in cui si abbia a che fare con due sistemi di riferimento unidimensionali che si muovono l’uno rispetto all’altro facendo scorrere parallelamente i loro assi x, come nell’esempio della particella che emetteva onde elettromagnetiche, discusso precedentemente) possono essere scritte:

dove le grandezze con apice sono relative al sistema in moto e dove per le coordinate spaziali valgono le trasformazioni di Galileo.

        Passando ora ad un’altra questione trattata nella Versuch, oome conseguenza della teoria che prevede che la luce sia emessa dalla vibrazione delle particene cariche all’interno della materia, dovrebbe accadere che, se si dispone una sorgente luminosa all’interno di un intenso campo magnetico, la vibrazione degli elettroni risulterà modificata di modo che lo spettro emesso da questa sorgente dovrebbe essere diverso da quello che si ha in assenza di campo. In particolare, osservando con uno spettroscopio la luce emessa dalla sorgente in oggetto, si dovrà» osservare: uno sdoppiamento di ogni riga spettrale, nel caso si osservi nella direzione delle linee di forza del campo; la formazione di tre righe (tripletto) per ogni riga spettrale ordinaria, nel caso si osservi in direzione perpendicolare alle linee dì forza del campo.

       La previsione di questo effetto fu confermata sperimentalmente dal fisico olandese P. Zeeman (1865-1943), allievo ed amico di Lorentz, appena un anno dopo (1896). Il fenomeno, noto come effetto Zeeman normale, (602) diede la prima evidenza sperimentale della struttura elettromagnetica delle supposte particelle costituenti la materia e la sua scoperta valse sia a Zeeman che a Lorentz il premio Nobel per la fisica dell’anno 1902.

        La scoperta dell’effetto Zeeman risultò di gran sostegno alla teoria di Lorentz e, per altri versi, permise anche di avanzare l’ipotesi che i raggi catodici, all’epoca molto studiati, potessero essere costituiti dalle stesse particelle ipotizzate da Lorentz.

        Ma, al di là dei successi, pur così rilevanti, la teoria di Lorentz presentava almeno un punto di grande debolezza: risultava, almeno in questa formulazione, antinewtoniana. Il fatto era già stato segnalato da Helmholtz nel 1892, in uno dei suoi ultimi articoli. Di fatto già abbiamo osservato che Lorentz respingeva 1’azione a distanza per aderire all’azione a contatto; oltre a ciò, in un modo analogo alle teorie di Weber, le forze si trovano a dipendere dalla velocità ed, in questo senso, proprio la forza di Lorentz è emblematica. Tutto questo non rientra in un quadro esplicativo newtoniano anzi ne risulta fortemente in contrasto. Ma vi è di più. L’ammissione di un etere perfettamente immobile, qualunque fosse il fenomeno fisico che si svolgesse in esso, risultava in ulteriore disaccordo non tanto con il quadro esplicativo di Newton quanto, addirittura, con una delle sue leggi fondamentali: il principio di azione e reazione. L’etere, infatti, sede del campo, agisce sulla materia ponderabile ma, al contrario, nessuna  azione è possibile da parte di quest’ultima sul supposto etere proprio perché, appunto, esso è comunque immobile: le tensioni di Maxwell ora non possono più avere luogo.

        Lorentz commentava questa situazione nelle prime pagine della Versuch, affermando:  (603)

“… La cosa più semplice sarebbe il supporre che una forza non agisce mai sopra un elemento di volume dell’etere, considerato come un tutto, o anche che mai deve impiegarsi il concetto di forza sopra tale elemento, che mai si sposta dalla sua posizione. Una simile concezione nega di fatto l’uguaglianza dell’azione e della reazione, perché in realtà dobbiamo affermare che, fondamentalmente, la forza dell’etere agisce sulla materia ponderabile; ma, fin dove io riesco a vedere, non c’è niente che ci obblighi ad elevare questa proposizione al rango di legge fondamentale di validità illimitata. Una volta decisi in favore della concezione che abbiamo appena illustrato, dobbiamo anche abbandonare dal principio le azioni ponderomotrici attribuibili alle tensioni dell’etere….Questo equivarrebbe ad accettare la forza tra distinte parti dell’etere, e come tali, se vogliamo essere conseguenti, non possiamo continuare ad accettarle.”

Lorentz decise quindi per una rottura clamorosa con la fisica di Newton. L’immobilità di un etere che serviva alla propagazione del campo e che, nelle intenzioni, doveva essere riguardato come lo spazio assoluto di Newton (anche se quest’ultimo non identificava le due cose), faceva respingere uno dei principi basilari della fisica newtoniana. (604)     Arrivati a questo punto probabilmente ci si sarebbe aspettati ben presto la messa in discussione del principio d’inerzia e del secondo principio della dinamica, dopodiché nulla sarebbe rimasto della meccanica. Si apriva la strada ad una interpretazione e costruzione elettromagnetica dell’intera meccanica sulla quale ci soffermeremo nel prossimo paragrafo. E’ ora interessante andare a cogliere gli  aspetti  salienti dell’inserimento nella problematica dell’elettrodinamica dei corpi in movimento del grande matematico e fisico-matematico francese Henry Poincaré  (1853-1912).                                                               

NOTE

(565) I brani qui riportati sono tratti da bibl. 84, pagg. 159-160.

(566) Su questi argomenti Lorentz tornerà nel discorso inaugurale da lui tenuto, il 25 gennaio 1878, all’atto di prendere possesso della cattedra di fisica teorica presso l’Università di Leiden. 

(567) La formula della dispersione di Lorenz-Lorentz è:

(n2 + 2)/(n2 – 1) = (A – B/l2)/(C/l2 – D)

dove n è l’indice di rifrazione, A, B, C, D sono delle costanti e l  la lunghezza d’onda della luce nel vuoto.  

(568) Un qualcosa di analogo era stato sostenuto da L. Lorenz nel 1867 (si veda il paragrafo 3 del capitolo III).

(569) Citato in Hirosige, bibl. 114, pag. 175.

(570) Elaborò (l880) una teoria cinetica della propagazione del suono; confermò (l88l) la validità dell’equazione di Van der Waals per i gas reali (che era stata messa in discussione da Maxwell); si occupò (l886) dell’effetto termoelettrico da un punto di vista termodinamico; completò (1887) il famoso teorema H di Boltzmann, che stabiliva l’unidirezionalità del tempo nei processi descritti dalla teoria cinetica, in modo analogo a quanto la termodinamica aveva ricavato per l’entropia.  

(571) H.A. Lorentz: La théorie électromagnetique de Maxwell et son application aux corps mouvants, Arch. neerl., 25; l892; pag. 363.

Occorre qui ricordare che, prima del 1892, Lorentz aveva scritto un’altra memoria, quella del 1886 (della quale abbiamo già parlato diffusamente alla fine del paragrafo precedente), nella quale si discuteva della Influenza del moto della Terra sui fenomeni luminosi e con la quale si andavano ampliando i suoi interessi in direzione dell’elettrodinamica dei corpi in movimento. E’ questa la memoria nella quale si sviluppava la teoria dell’interazione tra etere e materia, dell’immobilità dell’etere e del suo trascinamento parziale in alcune condizioni, dopo una discussione nella quale si dimostrava l’inconsistenza della teoria di Stokes e si metteva in discussione l’attendibilità dei risultati dell’esperimento di Michelson del l88l. In questa memoria l’etere e la materia giocavano ancora ruoli diversi; la materia costituita da cariche elettriche particellari e l’etere che, nei fatti, è esso stesso campo. In questa costruzione è sempre la carica elettrica, che con le sue oscillazioni origina il campo, l’elemento di unione tra l’etere e la materia.

(572) Occorre notare che la stesso Lorentz annunciò la sua conversione in una conferenza, Elettricità ed etere, che egli pronunciò al Congresso Olandese di Fisica e Medicina nell’aprile del 1891;  in questa conferenza egli addusse anche le ragioni per le quali la teoria di Maxwell era preferibile a quelle della scuola continentale. Si deve inoltre notare che Lorentz fu aiutato a modificare le sue concezioni anche dalla lettura di un lavoro di Poincaré: Électricté et optique. I.   Les théories de Maxwell et la théorie électromagnetique de la lumière, Parigi, 1890.

(573) In questa memoria e soprattutto in quella successiva del 1895 Lorentz parla di ioni. Solo nella memoria del 1899 si  introduce il termine elettrone. L’idea di una struttura discontinua della carica elettrica che portò poi alla scoperta dell’elettrone cominciò a porsi in relazione agli esperimenti di Faraday sull’elettrolisi del 1833. Questi esperimenti, come già accennato, rivelarono alcuni fatti inattesi e peraltro non spiegati dallo stesso Faraday, perché ad un elettrodo si liberi un grammo-atomo di un elemento di valenza Z, facente parte del composto in questione, la soluzione elettrolitica deve essere attraversata sempre da una quantità di elettricità pari a Z volte 96.522 Coulomb. La spiegazione di questo fenomeno fu data nel l874 dall’irlandese G.J. Stones (1826-1911). Egli mostrò che se la materia e l’elettricità sono considerate discontinue e formate di tante piccole particelle, allora tutti gli esperimenti di Faraday diventano semplici da spiegare. Se ciascun atomo di materia nel passare attraverso la soluzione elettrolitica porta con sé una quantità di carica definita e ben determinata, allora la quantità di materia depositata su di un elettrodo sarà direttamente proporzionale a questa quantità di carica. Ora, un grammo-atomo di materia contiene un numero di atomi pari a N (numero di Avogadro) e quindi ciascun atomo trasporta una carica q pari a:  

                       q = Z. (96.522/N) coulomb.

Così la carica che ogni ione elettrolitico di qualsiasi tipo esso sia, trasporta è sempre multipla di 96.522/N, che quindi  risulta essere la carica elementare (e). Il lavoro di Stoney fu pubblicato solo nel 1881 (Phil. Mag. 11, 384; 1881) anno in cui anche Helmholtz era diventato un fervente sostenitore dell’esistenza di questa carica elementare (J. Chem. Soc. 39, 277;1881). E’ importante sottolineare l’adesione di Helmholtz a questa teoria poiché il prestigio di cui egli godeva permise una più rapida propagazione dell’idea. Fu comunque ancora Stoney che ne1 1891 diede alla supposta carica elementare il nome di elettrone.

Va comunque notato che, come osserva Wittaker (bibl.112, Vol.1, nota 3 di pag. 392), al di là di uno stimolo concettuale, l’elettrone in quanto tale, così come era postulato dai lavori di Stoney ed Helmholtz, non ebbe alcuna influenza sullo sviluppo della teoria elettromagnetica. Anche la stessa scoperta sperimentale dell’elettrone, fatta da J.J. Thomson ne1 1897, non modificò in nulla l’elettromagnetismo classico. L’unica conseguenza che ebbe fu il fornire una solida base alla teoria di Lorentz. La ragione di ciò risiede nel fatto che, per l’elettromagnetismo classico, è poco importante che esistano delle particelle che possiedono la stessa carica. L’importante è che si abbiano delle cariche particellari, infatti  “l’uguaglianza o la disuguaglianza di queste cariche non fa differenza per le equazioni. Per fare un esempio dalla meccanica celeste, non vi sarebbe alcuna differenza nelle equazioni se le masse dei pianeti fossero tutte uguali“. Il fatto però che si fosse riusciti ad individuare ima carica elementare per altri versi ebbe una ricaduta enorme nella fisica: nello sviluppo della fisica dei quanti e della fisica atomica.

(574) Nella memoria citata in nota 571. La traduzione dei brani riportati è tratta da bibl. 84, pag. 167-174.  

(575) II primo che aveva dedotto questa formula in modo corretto era stato Heaviside nel 1889; J.J. Thomson vi si era avvicinato nel l88l. Come si può vedere la relazione che fornisce la forza di Lorentz è composta dalla somma di due termini; uno rappresenta l’azione sulla carica da parte del campo elettrico E, l’altro l’azione sulla carica in moto da parte del campo magnetico B. Si può subito ricavare che,  nel caso di carica ferma (v = 0), l’unica forza che agisce è la ben nota relazione elettrostatica F  = qE. In assenza poi di campo elettrico (E = 0) e nelle condizioni corrispondenti ad  a=90°, si trova F  = qvB. 

(576) Bibl. 120, pag. 32.

(577) O.J. Lodge: On the present state of our knowledge of the connection between ether and matter: an historical summary, Nature, 46, 165; 1892; pagg. 164-165. Si veda. bibl. 122.        

(578) La prima volta che Fitzgerald pubblicò i suoi risultati in proposito fu nel 1902, nel Vol. 34 dei suoi Scritti scientifici pubblicati a Dublino dalla University Press.         

(579) Nella nota 2 a pag. 121 di bibl. 134, Vol. 5, in un lavoro di Lorentz del 1895, quest’ultimo affermò che non conosceva l’ipotesi di Fitzgerald. Conoscendo l’onestà intellettuale di Lorentz c’è da crederci.

(580) H.A. Lorentz: The  Relative Motion of the Earth and the Ether, Arch. Néerl. Sci., 25, 363; 1892. Riportato su bibl. 134, Vol.4, pagg. 219-223.

(581) H.A. Lorentz: Versuch einer Theorie der elektrischen und optischen Erscheinungen in bewegten Körpen, pubblicata su bibl. 134, Vol 5, pagg. 1-137. La parte di questa memoria relativa all’esperienza di Michelson è stata tradotta in inglese e pubblicata in bibl. 131, pagg.3-7. Una sintesi di questa parte è anche tradotta in italiano in bibl.123, pagg. 145-148.

(582) Bibl. 134, Vol. 4, pagg. 221-222.

(583) Ibidem.

(584) Bibl.131, pagg. 4-6. Si veda anche bibl. 123, pagg. 146-148, dalla quale è stata ripresa la traduzione di questo brano.  

(585) Allo stesso risultato e nello stesso periodo era arrivato anche Heaviside.

(586) E’ utile notare che nel 1892 Lorentz aveva fornito per la contrazione il valore approssimato 1 – v2/2c2, che si ottiene dal valore dato  nel 1895, (1 – v2/c2)1/2 sviluppato in serie secondo il binomio di Newton e fermandosi al secondo ordine in v/c (come abbiamo visto nel paragrafo precedente).

(587) Quanto qui sostenuto è in accordo con quanto dice D’Agostino. Allo scopo si veda bibl.113, pag.35 e bibl.l5, fasc. Xl(c), pagg.11-12. Anche in bibl.54, pag.163 ed in bibl. 132, pag.58 è sostenuta la stessa tesi. L’eventuale ipotesi ad hoc starebbe nell’estensione delle forze elettriche e magnetiche alle forze molecolari.

(588) Bibl. 131, pagg. 5-6.

(589) Ibidem, pagg. 6-7.

(590) Si confronti anche con bibl. 113, pag. 135.

(591) Bibl. 131, pag. 6.

(592) Sulla questione della  simultaneità, che ora sembra scontata, dovremo tornare in seguito.

(593) Anche se non ne farò cenno nel testo, va ricordato che in questa memoria Lorentz ricaverà, in modo più semplice ed in un caso più generale, il coefficiente di trascinamento di Fresnel.

(594) Si veda la nota 524.

(595) La possibilità di operare in questo modo era stata mostrata dal fisico statunitense J. W.  Gibbs (1839-1903) nel 1882-1883. Allo scopo si veda bibl. 112, vol.I, pag. 396, nota 4.

(596) Bibl. 134, Vol.V, pag. 84. Si osservi che questo enunciato differisce leggermente da quello di Lorentz per il simbolo utilizzato per la velocità v e per gli apici sulle funzioni e sulle variabili.

(597) Lorentz aveva già introdotto un’equazione di trasformazione per la variabile tempo, come risultato di un cambiamento di coordinate, nella sua memoria del 1892:  t’ =  t – v/[c2(1 – v2/c2]1/2 (supponendo uno spostamento lungo l’asse x di un sistema in moto con velocità v rispetto ad un sistema in riposo).

(598) Ibidem, pag. 50. Citato in bibl. 114, pag. 207.

(599) E’ interessante riportare il modo con cui Kottler introduce il tempo locale (bibl.l46, pagg.240-24l):

Consideriamo al tempo t un’onda luminosa emessa al tempo zero da una sorgente di luce in movimento; essa si trova su una superficie sferica di raggio ct, e la sorgente luminosa si è allontanata dal centro di questa superficie della distanza vt nel verso del moto. I cammini percorsi dalla luce durante il tempo t appaiono allora come delle lunghezze disuguali, minima nella direziono del moto (c – v)t, e massima nella direzione contraria (c + v)t. Di conseguenza è estremamente scomodo il tenerne conto nel calcolo, poiché, per ogni direzione, bisogna considerare un’altra velocità. Il tempo locale di Lorentz fornisce un mezzo di calcolo comodo. Per esempio, invece di rappresentarci, nel verso del moto, un moto della luce di velocità c – v, avente luogo nel tempo t, possiamo rappresentarci un moto di velocità invariabile c, ma avente luogo durante un tempo più breve t’1, tale che il tragitto della luce resti lo stesso: ct’1 = (c – v)t . In modo analogo, per il verso opposto si ha in luogo della velocità più grande c + v > c, un tempo t’ più lungo: ct’2 = (c + v)t. In modo del tutto generale, per una qualunque direzione r, si ha, in luogo della velocità variabile c – vr, dove vr è la componente del moto della Terra per la data direzione, si considera il tempo variabile t’, dato che il tragitto della luce ct’  =  (c – vr)t resta invariabile. Da questo si ricava t’  =  (ct – vrt)/c [= t – vrt/c  = t – vrc t/c2]  =  t – vr r/c2, dove r = ct è il raggio dell’onda sferica.”

(600) Anche questo argomento, oltre a quelle relativo all’ipotesi della contrazione, fa concludere a Lorentz che è impossibile rilevare il moto della Terra rispetto all’etere, almeno al primo ordine di v/c.

(601) E’ interessante notare, con D’Agostino (bibl.113, pag.34), il modo con cui Lorentz costruisce la teoria  “per passi successivi, a partire da formulazioni matematiche a cui si attribuisce progressivamente significato fisico”.

(602) La spiegazione dell’effetto Zeeman si può ricavare solo dalla fisica quantistica. Per una fortunata coincidenza la teoria di Lorentz riusciva a renderne conto nel caso in cui l’effetto era normale. Nel caso più generale e più frequente, l’effetto Zeeman è anomalo, le righe che si producono formano uno spettro molto complicato, ed in nessun modo è riconducibile alla teoria di Lorentz. Si noti che la spiegazione teorica completa dell’effetto Zeeman normale fu elaborata e pubblicata da Lorentz nel 1897 (Phil. Mag., Vol. 43, pag. 232; 1897). Alla fine dello stesso anno T. Presten scoprì l’effetto anomalo.

(603) Bibl. 134, pag. 28. Citato in bibl. 111, pagg. 334-335.

(604) Anche Heaviside (1886 e 1891) si era scontrato con questo problema ed aveva percorso tutte le possibili strade per portarlo a soluzione, ma mai aveva ipotizzato il rigetto del principio di azione e reazione.

5 bis – L’INTERVENTO DI POINCARÉ E ANCORA LORENTZ

        Già abbiamo avuto modo di accennare (si veda la nota 572) che la lettura di alcuni brani della prima edizione (1890) del libro di Poincaré, Electricité et optique, aveva aiutato Lorentz nella sua conversione all’azione a contatto. In questo primo lavoro sulle problematiche dell’elettromagnetismo, Poincaré metteva a confronto le varie teorie fino ad allora sviluppate.  Sullo stesso argomento il nostro ritornò nel 1895 con la memoria A proposito della teoria del Sig. Larmor.  (605)  La bontà di una qualunque teoria elettromagnetica,  secondo Poincaré, era legata al soddisfare o meno i seguenti tre requisiti:

    1) essa deve riuscire a spiegare il trascinamento parziale di Fresnel evidenziato dall’esperimento di Fizeau;  

    2) essa deve essere compatibile con il principio di conservazione dell’elettricità e del magnetismo;

    3) essa deve accordarsi con il principio di azione e reazione.

E tutte le teorie fino ad allora elaborate, quella di Helmholtz, quella di Hertz e quella di Lorentz non rispondevano contemporaneamente ai requisiti richiesti. Mentre la teoria di Helmholtz rende conto dei requisiti 1 e 3, non è compatibile con il 2. La teoria di Hertz è in accordo con i requisiti 2 e 3 ma non con l’1. Infine, la teoria di Lorentz possiede i requisiti 1 e 2 ma è completamente carente per quel che riguarda il 3.  Secondo Poincarè, però, le tre teorie non potevano essere rigettate in blocco;  occorreva mantenere quella che presentava meno difetti e spiegava più cose e cioè la teoria di Lorentz (“ciò che abbiano di più soddisfacente …; quella che rende meglio conto dei fatti conosciuti, che mette in luce il più gran numero di rapporti veri…“). Si trattava però di lavorarvi sopra per migliorarla e, possibilmente, eliminare da essa i riconosciuti difetti (“si dovrà probabilmente modificarla, ma non distruggerla“). Era questo, in definitiva, il programma di Poincaré: accettazione della teoria degli elettroni di Lorentz e necessità di lavorarvi per portarla a compimento senza contraddizioni esterne ed interne, senza contraddizioni cioè con i fatti sperimentali e con i principi accettati, da una parte, e con una coerenza logica interna, dall’altra.

        E poincaré iniziò subito con il cercar di capire come sia possibile accordare la teoria di Lorentz con il principio di azione e reazione. Prendendo in esame la teoria e confrontandola con i fatti sperimentali fino ad allora accumulati, egli notava questa sequenza:

    1°) I fatti sperimentali ci dicono che “è impossibile evidenziare il moto assoluto della materia ponderabile o, meglio, il moto relativo della materia ponderabile rispetto all’etere. Tutto ciò che si può riuscire ad evidenziare è il moto della materia ponderabile rispetto alla materia ponderabile”. (606)                                                                                

    2°) L’esperienza di Michelson ha mostrato che quanto detto sopra sembra essere vero almeno al secondo ordine di v/c.

    3°) La teoria di Lorentz rende conto di quanto detto al punto 1° solo al primo ordine di v/c.

     4°) II non accordo della teoria di Lorentz con il principio di azione e reazione ed il fatto che essa non rende conto di termini in v/c superiori al primo ordine, sono “due buchi che debbono … essere riempiti insieme”. (607)

Ed, in definitiva, Poincaré pensava che il sanare una delle lacune della teoria di Lorentz avrebbe permesso di sanare contemporaneamente anche l’altra.

        Sul problema del principio di azione e reazione non in accordo con la teoria di Lorentz, Poincaré tornò in una memoria del 1900, La teoria di Lorentz ed il principio di reazione.  (608) In essa Poincaré osservava che la teoria di Lorentz non solo violava il principio di azione e reazione ma anche la conservazione della quantità di moto. Infatti, perché un elettrone emetta onde elettromagnetiche, è necessario che esso oscilli. La non esistenza di reazione da parte dell’etere fa si che esso rallenta perdendo quantità di moto. E neanche a pensare che la reazione possa avvenire da parte degli altri elettroni, almeno per due motivi: primo, perché essi sono distanti e, poiché l’onda arriva loro dopo un certo tempo, la reazione avverrebbe in ritardo di modo che, nel frattempo, il primo elettrone avrebbe perso quantità di moto; secondo, perché non tutta la radiazione emessa da un elettrone viene assorbita dagli altri elettroni. (609)

        Per accordare queste contraddizioni con la teoria di Lorentz, Poincaré fece l’ipotesi che in un sistema isolato l’energia elettromagnetica possa essere assimilata ad un fluido particolare dotato di una data velocità. E ciò che deve essere costante è la somma delle quantità di moto degli elettroni e del fluido elettromagnetico. Da questa costanza, anche nelle trasformazioni della energia del fluido in altre forme di energia di tipo non elettromagnetico, Poincaré risale alla validità del principio di azione e reazione nella teoria di Lorentz.

        Certamente l’ipotesi è artificiosa ma in ogni caso rispondente a quei criteri di comodità e di semplicità più volte richiamati dallo stesso Poincaré. (610)

        Si era quindi provvisoriamente riempito uno dei due buchi che il fisico-matematico francese aveva evidenziato nella teoria di Lorentz. Si trattava ora di passare a ciò che sembrava ormai inevitabile: la teoria doveva rendere conto della non osservazione di effetti del 2° ordine in un modo più generale di quanto fino allora fatto con l’ipotesi della contrazione (il colpo di pollice di Poincaré).

        Nel 1904 vide la luce una nuova importantissima memoria di Lorentz, Fenomeni elettromagnetici in un sistema in moto con una velocità minore di quella della luce, (611)  in cui, essenzialmente, la teoria veniva estesa a termini d’ordine superiore in v/c (sulle linee già annunciate alla fine di una memoria del 1899 – si veda la nota 608) e ampiamente migliorata in vari punti, soprattutto in seguito alla scoperta di nuovi fatti sperimentali ed alla critica di Poincaré sull’artificiosità di certe ipotesi che sono di volta in volta introdotte per spiegare il presentarsi di fatti nuovi (nota 608).  

             La prima esperienza che doveva trovare una spiegazione all’interno di un quadro di riferimento complessivo era ancora quella di Michelson-Morley.

            Altre esperienze, di diversa concezione ma sempre centrate a cercare di rilevare il moto della Terra rispetto all’etere, erano state pensate ed eseguite in quegli anni. Abbiamo già accennato all’esperienza di Rayleigh (1902) realizzata indipendentemente anche da D.B. Brace (1859-1905) nel 1904. L’idea guida di questa esperienza era che, nell’ipotesi di un etere immobile e di una contrazione dei corpi materiali nella direzione del moto, i corpi trasparenti nei quali si osserva normalmente una ordinaria rifrazione sarebbero dovuti diventare   doppiamente    rifrangenti.    Sia   Rayleigh che    Brace    non   osservarono    alcun effetto. (612) 

            Vi fu poi l’esperienza di F.T. Trouton (1863-1922) e H.R. Noble eseguita nel 1903. (613)   Anche qui, partendo dall’ipotesi di etere immobile e di contrazione dei corpi materiali nella direzione del moto, si cercava di evidenziare l’effetto delle ipotesi mediante il moto di un condensatore attraverso l’etere. Supponiamo vere le ipotesi e disponiamo un condensatore piano, libero di muoversi, in modo che le sue armature formino un certo angolo con la direzione del suo moto con la Terra attraverso l’etere. Secondo la teoria,   (614) l’effetto della contrazione deve creare delle asimmetrie nei campi elettrici e magnetici tali da far agire sul condensatore una coppia di forze: l’effetto di questa coppia dovrebbe tendere ad allineare il condensatore con il vento d’etere. (615)  Trouton e Noble non osservarono alcun effetto.

            In questo modo Lorentz commentava la situazione, (616)  in riferimento anche alle critiche sulle ‘ipotesi’ avanzate da Poincaré (che tra l’altro suggeriva anche di accordare la teoria con il principio di relatività – si veda la nota 608):

Gli esperimenti di cui ho parlato non costituiscono la sola ragione per cui è desiderabile un nuovo esame dei problemi connessi con il moto della Terra. Poincarè ha mosso una obiezione contro le esistenti teorie dei fenomeni elettrici ed ottici nei corpi in moto, sostenendo che, al fine di spiegare il risultato negativo di Michelson, è stata necessaria l’introduzione di una nuova ipotesi e che la medesima necessità può aversi ogni volta che fatti nuovi sono messi in luce. Indubbiamente questo ricorso all’invenzione di ipotesi speciali di fronte a ciascun nuovo risultato sperimentale è, in certo modo,  artificioso.  Sarebbe ben più  soddisfacente di poter mostrare, per mezzo di alcune assunzioni fondamentali e senza trascurare termini di questo o quell’ordine di grandezze, che molte azioni elettromagnetiche sono del tutto indipendenti dal moto del sistema. Alcuni anni or sono ho già tentato di elaborare una teoria di questo genere. Credo sia ora possibile trattare l’argomento con risultati migliori. La sola restrizione sulla velocità consiste nella richiesta che essa sia inferiore a quella della luce.”  

        Quindi Lorentz aderisce al programma di Poincaré, ma non completamente. Quest’ultimo infatti richiedeva che tutti i fenomeni elettromagnetici obbedissero al principio di relatività; il primo poteva solo garantirne molti.

        Lorentz, nella sua memoria, dopo aver ancora una volta riscritto le equazioni di Maxwell più la sua (la forza che agisce su un elettrone in moto in un campo elettromagnetico), cominciò subito con il considerare “un sistema che si muove nella direziono dell’asse x con velocità costante v” rispetto all’etere immobile. Egli indicò poi con u “una qualunque velocità di cui sia dotato un punto dell’elettrone in aggiunta alla precedente “, di modo che valgono le trasformazioni di Galileo per le velocità:

  vx = v + ux;                  vy = uy;                    vz = uz.

Lorentz passò allora a riscriversi le equazioni di Maxwell-Lorentz per un sistema di riferimento con gli assi solidali al sistema in moto, trasformando (617) poi le equazioni ottenute mediante il seguente cambiamento di variabili:

dove le variabili così introdotte erano considerate variabili artificiali e non vere. In queste relazioni g rappresenta un fattore numerico da determinarsi: “esso va considerato come una funzione di v il cui valore è 1 per v=0 e che, per piccoli valori di v, differisce dall’unità per quantità del secondo ordine“.  ( 618)

        Per quel che riguarda la variabile t’, essa “può essere chiamata tempo locale; infatti, quando … [v=0] e g = 1, tale variabile diventa identica a quella che precedentemente già avevo indicato con questo nome” (619) (si veda la relazione 1 del paragrafo 5).

        Occorre osservare che le trasformazioni (5) non sono ancora quelle che conosciamo come ‘trasformazioni di Lorentz‘ (alle quali si arriverà dopo una correzione apportata da Poincaré nel 1905, come vedremo). (620) Con queste trasformazioni, Lorentz cercava di esaudire la richiesta di Poincaré: trovare, appunto, delle trasformazioni che lasciassero invariata la forma delle leggi dell’elettromagnetismo ed in definitiva le equazioni di Maxwell-Lorentz, per qualsiasi traslazione a velocità costante del sistema di riferimento. Con questo insieme di sostituzioni, a cui Lorentz ne aggiunse altre per lo spostamento elettrico D e per il campo magnetico H, egli era in grado di trattare i fenomeni elettromagnetici che si svolgono in un sistema in moto, in modo formalmente equivalente alla loro trattazione in un sistema in quiete. Risolto il problema, la soluzione reale di esso, per Lorentz, si otterrà risostituendo di nuovo le variabili vere a quelle artificiali.  

        Lorentz era confortato sulla correttezza del suo procedimento dal fatto che, come egli diceva,  “le formule per un sistema che non si muova di moto traslatorio sono implicite in quanto precede. Infatti, per un tale sistema, le quantità con apice diventano identiche alle corrispondenti senza apice“; basta solo porre zero in luogo di v nelle (5) per rendersene conto. Tra l’altro questa sostituzione comincia a fornirci una condizione su g: quando v = 0 deve risultare g = 1.

        Si deve osservare che, data l’artificialità delle sostituzioni proposte, non esiste alcuna relazione fisica tra i due sistemi, quello legato all’etere e quello che si muove rispetto a questo con velocità v. Di conseguenza, fino a questo punto, Lorentz non aveva ancora risolto l’altro problema che si era proposto: trovare una spiegazione dell’inosservabilità del moto della Terra rispetto all’etere, per ordini superiori al primo in v/c.

        Per riuscire nel suo scopo, Lorentz introdusse a questo punto tutta una serie di ipotesi che condizionavano con una grossa ipoteca l’intera sua teoria.

       La prima ipotesi era così formulata:   (621)

Supponiamo ora che gli elettroni, che io considero come sfere di raggio R quando sono in quiete, cambino le loro dimensioni per effetto di una traslazione, cosicché le dimensioni nella direzione del moto diventino g/(1- v2/c2)1/2 volte più piccole e quelle nella direzione perpendicolare g volte più piccole.”

Nella trattazione lorentziana compare qui una novità rispetto ai lavori precedenti; ora l’ipotesi macroscopica della contrazione è interpretata come effetto della contrazione microscopica di ciascun elettrone. E proseguiva Lorentz: (622)

La nostra ipotesi equivale ad affermare che in un sistema  elettrostatico S, in moto con velocità v, tutti gli elettroni sono degli ellissoidi schiacciati, con i loro assi più piccoli nella direzione del moto.”

Introducendo la sostituzioni di variabili già data, per un sistema immaginario S ‘ immobile, l’elettrone diventa di nuovo sferico.

A questo punto si passava alla seconda ipotesi: (623)

Supponiamo che le forze che si esercitano tra particelle prive di carica, così come quelle tra tali particelle e gli elettroni, siano influenzate da una traslazione nello stesso identico modo delle forze elettriche in un sistema elettrostatico.”

E ciò vuol dire che se i centri di tutte le particelle costituenti il sistema S sono in una data configurazione di equilibrio, la stessa configurazione di equilibrio (per i centri delle particelle) si avrà anche in S’. L’effetto del moto sarà la deformazione degli elettroni, le coordinate dei cui centri saranno quelle date dalle variabili artificiali (5), senza ulteriori modificazioni. In altre parole ancora, “se animiamo di velocità v il sistema S‘, esso diventerà da sé il sistema S ” (624)    e quindi la traslazione produrrà una deformazione macroscopica.

        L’introduzione di queste prime due ipotesi permetteva a Lorentz di concludere: (625)  

Si potrà facilmente vedere che l’ipotesi che avevo avanzato in passato in connessione con l’esperimento di Michelson, è implicita in quella che è stata ora affermata. Comunque la presente ipotesi è più generale, perché la sola limitazione imposta sul moto è che la sua velocità sia inferiore a quella della luce.” 

        Con le posizioni fatte, il nostro andava a calcolarsi la quantità di moto elettromagnetica di un elettrone , trovando per essa l’espressione:

e, poiché  “ogni cambiamento nel moto del sistema comporterà un corrispondente cambiamento nella quantità di moto elettromagnetica, sarà quindi necessaria una certa forza data in verso ed intensità da: (626)

Lorentz osservava però che l’espressione di questa forza, a seguito delle ipotesi sulle deformazioni elettroniche causate dal moto, diventava molto complicata se si consideravano moti variabili con rapidità. Era quindi necessario supporre moti che variavano in modo sufficientemente lento per poter applicare agevolmente la (6). Diceva Lorentz:   (627) 

L’applicazione della (6) ad una tale traslazione quasi-stazionaria, come è stata chiamata da Abraham, (628)  è un problema molto semplice. Sia, ad un dato istante, a1 l’accelerazione nel verso della traiettoria, ed a2   l’accelerazione perpendicolare ad essa. Allora la forza F sarà data da due componenti aventi i versi di queste accelerazioni e date da:

Quindi, nei fenomeni in cui si ha a che fare con una accelerazione nella direzione del moto, l’elettrone si comporta come se avesse una massa m1 ; in quelli in cui l’accelerazione è normale alla traiettoria, come se avesse una massa m2 . Queste quantità m1 ed m2  possono quindi essere propriamente chiamate le masse elettromagnetiche  longitudinale e trasversale dell’elettrone. Suppongo che non vi sia alcuna altra massa, né veramateriale.”         

Ecco quindi l’introduzione di una terza ipotesi: la massa è puramente elettromagnetica, almeno la massa degli elettroni.

       Come vedremo più in dettaglio nel prossimo paragrafo, il distacco dalla fisica newtoniana comincia a diventare enorme; pur di rimanere in un quadro esplicativo, in ultima analisi, di carattere newtoniano, via via si demolivano le premesse concettuali di questo programma. Ma c’è di più: venivano introdotti i concetti di masse diverse a seconda della direzione del moto, con in più il fatto che la massa dipende dalla velocità di traslazione del sistema.

 Lorentz così proseguiva: (629)

Quando 1/(1 – v2/c2)1/2  e g differiscono dall’unità per quantità dell’ordine di v2/c2 per  piccole  velocità  troviamo:

m1 = m2 = k                                                                (con il solito valore di k)                                                                  

Questa è la massa con cui abbiamo a che fare se ci sono piccoli moti vibratori degli elettroni in un sistema non dotato di moto traslatorio.”

        Con l’introduzione di queste ipotesi, alle quali, come vedremo, se ne aggiungeranno delle altre, e con le conseguenze analitiche che da esse derivavano, Lorentz fu in grado di mostrare che dalla teoria discende l’inosservabilità del moto della Terra mediante fenomeni elettromagnetici.

        Leggiamo ancora da Lorentz:  (630)

Passiamo ora ad esaminare l’influenza del moto della Terra sui fenomeni ottici in un sistema di corpi trasparenti … Per ragioni di semplicità supponiamo che, in ciascuna particella, la carica è concentrata in un certo numero di elettroni separati, e che le forze elastiche che agiscono su uno di questi e che, in connessione con le forze elettriche, determinano il suo moto, sono originate all’interno dei confini dello stesso atomo. Mostrerò che, se partiamo da un dato stato di moto in un sistema non dotato di traslazione, da esso possiamo dedurre uno stato corrispondente che può esistere nello stesso sistema quando esso è in moto di traslazione.

Dall’elaborazione di questa ulteriore ipotesi introdotta, Lorentz trovò un’altra espressione per la massa longitudinale m1  (la massa trasversale m2  rimaneva invece invariata):

Questa eventualità fornisce finalmente l’opportunità di calcolare quanto vale il fattore g; infatti la massa longitudinale m1  deve risultare la stessa indipendentemente dal modo con cui si è ricavata.

        Confrontando la prima delle (7) con la (8), deve risultare:  

Confrontando questo risultato con il  secondo membro della (9), si vede subito che, perché essi siano uguali, deve risultare dg/dv = 0, da cui si può facilmente stabilire che g deve essere una costante (g = cost).

        Ricordando che altrove avevamo visto che, per v = 0, doveva risultare g = 1, il valore di g è determinato (g = 1).  

         Per proseguire però sulla strada della dimostrazione della non osservabilità degli effetti del moto della Terra sui fenomeni elettromagnetici, Lorentz dovette i ntrodurre un’ulteriore ipotesi: (631)

Dobbiamo  ora  supporre  che l’influenza di una traslazione sulle  dimensioni (dei singoli elettroni e di un intero corpo ponderabile) è limitata a quelle che hanno la direzione del moto, diventando queste 1/(1 – v2/c2)1/2  volte più piccole di quelle che sono allo stato di quiete. Se aggiungiamo quest’ipotesi a quelle fatte più su, possiamo essere sicuri che due stati, l’uno nel sistema in moto e l’altro nello stesso sistema in quiete, … possono esistere contemporaneamente.

Se cioè alcune grandezze elettromagnetiche possono essere definite in un sistema in quiete come determinate funzioni del tempo, nello stesso sistema posto in movimento (e quindi deformato) si possono definire le stesse grandezze come funzioni del tempo locale. E ciò si può facilmente mostrare applicando tutte le ipotesi e le equazioni di trasformazione che Lorentz aveva fin qui dedotte. In particolare, affermava Lorentz:  (632)

Se in due punti di un sistema si propagano nella stessa direzione raggi di luce aventi lo stesso stato di polarizzazione, si può mostrare che il rapporto fra le ampiezze [di queste onde elettromagnetiche] in questi punti non è alterato da una traslazione … [e cioè] fornisce una spiegazione del risultato negativo di Michelson … e mostra anche perché Rayleigh e Brace non hanno trovato traccia di doppia rifrazione prodotta dal moto della Terra.

Allo stesso modo diventa chiaro il risultato negativo dell’esperimento di Trouton e Noble se ammettiamo l’ipotesi … [della contrazione degli elettroni, già affermata]. Si può dedurre da questa e dall’ultima ipotesi fatta … che il solo effetto della traslazione deve essere stata una contrazione dell’intero sistema di elettroni, delle altre particelle che costituivano il condensatore carico … [e di tutto il sistema di misura]. Una tale contrazione non doveva dare origine ad un sensibile cambiamento di direzione [del condensatore] .” 

E quanto fin qui affermato è ora vero per qualunque ordine del rapporto v/c.  (633)     

         La memoria di Lorentz si concludeva con una discussione relativa ai moti molecolari.  (634)     Questa parte è interessante perché dalla sua discussione emerge bene il senso assegnato da Lorentz al tempo locale. Abbiamo già detto che ogni posizione occupata dal sistema in moto ha un suo tempo proprio (tempo locale) e che esso non coincide con quello misurato da un osservatore immobile (rispetto all’etere) e non coincide neppure con nessun altro dei tempi relativi agli altri punti del sistema in moto.

        Ora, data una molecola che appartiene ad un sistema in moto, il suo equilibrio è assicurato dalle forze che ad un dato istante t’ (tempo locale) le altre molecole esercitano su di essa. Ebbene, i tempi reali, a cui corrispondono tempi locali t’ per molecole differenti, non sono simultanei per Lorentz. Questa simultaneità di tempi la si può ritrovare solo nel sistema in quiete. Ed allora Lorentz si trovò costretto ad introdurre l’ulteriore ipotesi che

” queste forze [che agiscono tra molecole] abbiano effetto a così piccola distanza che, per particelle agenti l’una sull’altra, la differenza dei tempi locali può essere trascurata.” (635)

Con questa approssimazione la simultaneità era garantita anche nel sistema in moto, in quello delle variabili artificiali. E così, in questo sistema, è possibile ancora lo stato di equilibrio di una molecola, data la simultaneità delle azioni che le altre molecole esercitano su di essa. La non simultaneità dei tempi locali nel sistema in moto non deve evidentemente introdurre il sorgere di forze risultanti che tirino la molecola in oggetto da una parte o dall’altra. Conseguenza di ciò è che (636)

” ognuna, di queste particelle, insieme a quelle ad essa legate nella sfera di attrazione o repulsione, formerà un sistema che subirà la deformazione spesso ricordata.”

Ed in definitiva, (636)

le  tipiche relazioni tra  forze ed  accelerazioni  esisteranno   [sia  nel   sistema in quiete che in quello dotato di moto traslatorio] se supponiamo che le masse di tutte le particelle sono influenzate da una traslazione allo stesso modo delle masse elettromagnetiche degli elettroni.

        E con questa ennesima ed ultima ipotesi (complessivamente Lorentz ne ha fatte 11), che va a generalizzare i risaltati della teoria degli elettroni, Lorentz portò a compimento il suo programma che rappresenta la massima espressione degli sviluppi della fisica classica agli inizi del XX secolo.  

        Alcune considerazioni possono essere fatte. (637)

        Innanzitutto l’intera teoria di Lorentz è basata sull’esistenza di un etere immobile. Questo etere, assimilabile allo spazio assoluto di Newton, gioca il ruolo di riferimento privilegiato. Moto e quiete non hanno un valore meramente relativo, per Lorentz; la quiete è quella assoluta del riferimento dell’etere} rispetto a questo riferimento ha senso considerare moti assoluti. Come si vede, non ostante le critiche di Poincaré, si rimane ancorati ad una concezione che solo formalmente abbisogna di equazioni di trasformazione; in realtà le coordinate vere sono quelle del sistema in quiete. Lorentz, insomma, non contempla nel suo programma l’estensione del principio classico di relatività ai fenomeni elettromagnetici (tant’è vero che le sue trasformazioni non sono reciproche). (638)

        In questo senso le equazioni di trasformazione sono artificiali e la contrazione assume significato fisico solo per rendere conto dell’inosservabilità del moto della Terra attraverso l’etere. D’altra parte è proprio l’etere che origina le deformazioni che impediscono l’osservazione del moto della Terra attraverso di esso: era davvero una grande impresa quella che affrontò e per molti versi risolse Lorentz.

        Ed il tutto nell’ambito di un tentativo di unificazione delle due principali scuole di fisica; quella corpuscolare e quella di campo, quella dell’azione a distanza e quella dell’azione a contatto.

        Come abbiamo già detto, per portare a compimento il suo programma, Lorentz fu costretto ad introdurre delle ipotesi che andavano ad ipotecare pesantemente i risultati ottenuti e che per altri versi negavano le premesse concettuali della fisica newtoniana.

        Forze dipendenti dalla velocità, deformazione degli elettroni, contrazione delle lunghezze, dipendenza della massa dalla velocità, masse differenti a seconda della direzione del moto, natura elettromagnetica dell’elettrone, … : l’insieme di tutte queste assunzioni e/o risultati doveva comportare una profonda revisione di tutti i fondamenti della fisica. E tutto ciò sarà tentato e fatto proprio in quegli anni, ma di questo ci occuperemo nel prossimo paragrafo.  

        Andiamo ora a cogliere il senso dell’ulteriore intervento di Poincaré proprio su questa memoria di Lorentz.

        Per quanto ci servirà, riscriviamoci le equazioni (5) di trasformazione, sostituendo alla g che vi compare il valore 1 determinato da Lorentz:

avendo semplificato l’espressione per il tempo locale con la riduzione del secondo membro allo stesso denominatore.

        E’ a questo punto opportuno fare alcune considerazioni.

        Per Lorentz, indubbiamente, le equazioni di trasformazione di Galileo sono indiscutibilmente valide. Tra l’altro, come abbiamo visto, egli le usa all’inizio del suo lavoro per la composizione delle velocità degli elettroni con quella del sistema di riferimento. Scriviamoci quindi l’equazione galileiana di trasformazione della posizione di un elettrone nel passaggio da un sistema di riferimento (quello dell’etere immobile) all’altro (quello in moto con velocità v rispetto all’etere).  (639)

       Supponiamo che S sia il sistema in quiete (quello dell’etere) e che S’ sia il sistema in moto con velocità v e riferiamoci alle figure 37 e 38.

Al tempo t = 0  i due sistemi saranno situati come in figura 37 e cioè con le origini coincidenti. Dopo un tempo t ≠ 0

i due sistemi saranno situati, sempre l’uno rispetto all’altro, come in figura 38 e cioè con le origini O ed O’ spostate

 di un tratto d (e poiché i due sistemi sono animati, l’uno rispetto all’altro, di moto traslatorio uniforme, si avrà d = vt). A questo punto supponiamo che P rappresenti un elettrone che a t = 0 (figura 37) inizi a muoversi in S, nel verso positivo del riferimento, con velocità u. Dopo un tempo t ≠ 0 (lo stesso di figura 38) l’elettrone occuperà su S la posizione x0; la posizione x che esso occuperà rispetto ad S’ sarà data da (figura 39):

    x0 = x + d      ->        x = x0 – d        ->          x = x0 – vt.

Quanto detto, esteso alla prima delle trasformazioni (10), ci fa ottenere:

e, più in generale, cambiando opportunamente i simboli adottati:

E’ importante rendersi conto che questi passaggi non sono stati fatti esplicitamente da Lorentz; è solo una ricostruzione a posteriori che permette di farli, tenendo conto, tra l’altro, di un lavoro di Lorentz del 1909, La teoria degli elettroni, (640) nel quale è sostenuto un qualcosa del genere. Ora è di gran rilievo il fatto che le trasformazioni (l0) che Lorentz ha introdotto possono essere scritte, al massimo, con l’introduzione di quanto appena ricavato nella sola prima equazione, in modo da ottenere le equazioni (11) di trasformazione.

Ciò vuol dire che Lorentz non esegue la medesima sostituzione nelle due x che compaiono nelle (10). In particolare, egli non esegue la sostituzione della trasformazione di Galileo per la posizione, nella x che compare nell’espressione del tempo locale. E ciò è in accordo con quanto sostenuto altrove: il tempo locale è diverso per coordinate diverse del sistema in moto; esso varia al variare della posizione del sistema in moto; per esso non può essere stabilita simultaneità; ogni posizione occupata dal sistema in moto ha un suo tempo proprio.

           Passiamo ora ad occuparci del lavoro di Poincaré, Sulla dinamica dell’elettrone, (641) del giugno 1905, appena tre mesi prima del lavoro di Einstein sull’ Elettrodinamica dei corpi in movimento (settembre 1905), del quale ci occuperemo ampiamente nel paragrafo 2 del Cap. V.

           Poincaré, che in varie occasioni si era espresso in modo molto favorevole riguardo al lavoro di Lorentz del 1904, sentì la necessità di intervenirvi sopra. Egli sosteneva:  (642)

L’importanza del problema mi ha spinto a riprenderlo in esame; i risultati che ho ottenuto sono in accordo con quelli trovati dal Sig. Lorentz su tutti i punti importanti; io sono stato solamente condotto a modificarli ed a completarli in qualche punto di dettaglio; si vedrà più avanti che le differenze sono d’importanza secondaria.”

Passando ad un confronto della teoria di Lorentz e delle sue trasformazioni (che egli chiama trasformazioni di Lorentz) con quelle sviluppate da altri, ed in particolare  da  P.  Langevin  (1872-1946),  egli  optò  per  la teoria di Lorentz, poiché, l’altra, risultava incompatibile con il postulato di relatività (anche questa è una denominazione introdotta da Poincaré) che avrebbe dovuto permettere di scrivere le equazioni di Maxwell esattamente nella stessa forma per due sistemi di riferimento in moto traslatorio uniforme l’uno rispetto all’altro (ed il lavoro di Lorentz si avvicinava molto a questa possibilità, anche se non completamente).

         Poincaré si proponeva quindi di ritrovare i risultati di Lorentz “per altra via, facendo ricorso ai principi della teoria dei gruppi“, (645)  tenendo conto di un elemento molto importante,di natura più fisica,così introdotto da Poincaré:

se  si  vuole  conservare [la  teoria  di  Lorentz]  ed evitare  delle  contraddizioni intollerabili, bisogna supporre una forza speciale che spieghi contemporaneamente e la contrazione e la costanza di due degli assi.” (644)

Qui Poincaré si rendeva conto che l’elettrone deformabile di Lorentz poteva arrivare ad esplodere e pertanto era necessario tener conto di una sorta di tensione interna dell’elettrone, di origine sconosciuta, che impedisse il disintegrarsi dell’elettrone.

        Inoltre Poincaré  introduceva un problema nuovo in connessione con l’elettrodinamica: che tipo di influenza hanno tutte le nostre teorie sulle leggi della gravitazione ? Egli diceva: (645)

non possiamo accontentarci di formule semplicemente giustapposte e che vanno d’accordo solo per una felice coincidenza; occorre, per così dire, che queste formule arrivino a compenetrarsi mutuamente.”

Una strada sembrava essere individuata da Poincaré quando affermava:  (646)

se noi ammettessimo il postulato di relatività, [le leggi dei fenomeni fisici sono le stesse per un osservatore in quiete e per un osservatore che si muove di moto traslatorio uniforme], troveremmo nella legge di gravitazione e nelle leggi dell’elettromagnetismo un numero comune che sarebbe la velocità della luce; e lo ritroveremmo ancora in tutte le altre forze di origine qualunque.”

E ciò si può spiegare o ammettendo che questo fatto non è che una apparenza, un qualcosa che dipende dal nostro sistema di misura, o ammettendo che tutti i fenomeni sono di origine elettromagnetica.  

        Fatte queste premesse, Poincaré iniziò la sua memoria riscrivendo le equazioni di Maxwell ed avvertendo che il sistema di unità di misura da lui usato è tale che la velocità c della luce risulta uguale ad 1 (numero puro). Ora, secondo Poincaré, le equazioni di Maxwell possono essere semplificate mediante l’introduzione di una notevole trasformazione introdotta da Lorentz. E questa trasformazione è interessante per il nostro poiché spiegava il perché certe esperienze che volevano evidenziare il moto della Terra rispetto all’etere ci fornivano risultato nullo. Quindi l’attenzione andava a centrarsi su queste trasformazioni che Poincaré riscrisse cambiando le posizioni iniziali (5) di Lorentz nel modo seguente:

dove g ed e sono due costanti qualunque, da determinarsi. Ed in base alle proprietà dei ‘gruppi‘, studiati dal matematico norvegese S. Lie (1842-1899), Poincaré trovò che g doveva risultare uguale ad 1, mentre e = v/c  (dal punto di vista algebrico della teoria dei  gruppi,  e  non può  essere che un numero puro). Con queste sostituzioni le (l2) diventano:

Queste trasformazioni non sono però corrette da un punto di vista dimensionale. Occorre dare significato fisico a quanto ottenuto per via matematica. Per rendere omogenee dimensionalmente le (l3) occorre; moltiplicare per c la quantità (v/c).t che compare a numeratore della prima delle (l3); dividere per c la quantità (v/c).x che compare a numeratore dell’ultima delle (l3). E ciò è corretto anche da un punto di vista algebrico perché, come si ricorderà, si era supposto c = 1. Si ottiene così:

e questo risultato ottenuto da Poincaré è quello che è oggi noto come il gruppo di trasformazioni di Lorentz, (648) quello che, per via completamente diversa, fu ricavato da Einstein nella sua memoria del 1905. Ora, finalmente, le equazioni dell’elettromagnetismo risultano invarianti rispetto a questo gruppo di trasformazioni.

        E’ interessante mostrare che se , nelle trasformazioni ricavate da Lorentz scritte nella forma (11), si esegue la trasformazione di Galileo oltre che nella prima anche nella quarta equazione (quella per il tempo locale), si ottiene il medesimo risultato (14) trovato da Poincaré.

        Scriviamoci allo scopo la quarta delle (11)  e sostituiamo alla x la quantità x – vt ottenuta, come abbiamo visto, mediante una trasformazione di Galileo:

Lo stesso Lorentz, la cui onestà intellettuale deve essere sottolineata con forza in tempi come quelli in cui viviamo, riconobbe posteriormente che le sue trasformazioni erano incomplete; dirà Lorentz: (649)

Si noterà che in questo lavoro le equazioni di trasformazione della Relatività di Einstein non sono state ottenute del tutto … Io non sono stato capace di far sparire il termine – vu’x/c2  nella equazione [di Maxwell per lo spostamento elettrico] e di porre questa equazione..nella forma che vale per un sistema a riposo.”

        Ritornando a Poincaré, pur non stando qui a soffermarci sull’importanza e complessità del suo contributo, occorre sottolineare che esso non può essere banalmente considerato come correttivo; “basti solo notare che con Poincaré si assiste ad un capovolgimento del programma di Lorentz: mentre per quest’ultimo si trattava di ricercare una spiegazione dell’inosservabilità del moto della Terra attraverso l’etere, per Poincaré questa inosservabilità è conseguenza del postulato di relatività che egli assume all’inizio della sua trattazione. E’ in questo quadro di riferimento che la teoria di Lorentz viene accolta da Poincaré: come egli stesso dimostra,

l’ipotesi di Lorentz è l’unica che sia compatibile con l’impossibilità di mettere in evidenza il moto assoluto; se si ammette questa impossibilità, bisogna ammettere che gli elettroni in moto si contraggono così da diventare degli ellissoidi di rivoluzione, due degli assi dei quali rimangono costanti; bisogna dunque ammettere … l’esistenza di un potenziale supplementare proporzionale al volume dell’elettrone.”    (650)

E’ così dunque che l’ipotesi della contrazione, ritenuta in precedenza dallo stesso Poincaré come artificiosa, viene ora pienamente accolta. Inoltre, all’interno della trattazione del fisico-matematico francese, diverse delle ipotesi che Lorentz era stato precedentemente costretto ad introdurre, divengono semplici conseguenze della teoria che ha come presupposti il principio di relatività e la contrazione dell’elettrone.  

        Ci sono altri contributi di Poincaré che meritano di essere ricordati, anche per quanto dovremo discutere in seguito. Il primo è relativo al problema, che per la prima volta viene posto, della sincronizzazione di due orologi,           nell’ ipotesi di esistenza del tempo locale. (651)

        In una conferenza tenuta a St Louis (USA) nel 1904, Poincaré, riferendosi ai risultati dei lavori di Lorentz, diceva: (652)

L’idea più ingegnosa [di Lorentz] è stata quella del tempo locale. Immaginiamo due osservatori che vogliano sincronizzare i loro orologi mediante segnali luminosi. Si scambiano i segnali ma, poiché sanno che la trasmissione della luce non è istantanea, nell’intercettarli adottano delle precauzioni. Quando la stazione B avverte il segnale della stazione A, il suo orologio non deve segnare la stessa ora di quello della stazione A al momento della emissione del segnale, ma questa ora aumentata di una costante che rappresenta la durata della trasmissione. Supponiamo, per esempo, che la stazione A invii il suo segnale quando il suo orologio segna l’ora zero e che la stazione B l’avverta quando il suo orologio segna l’ora t. Gli orologi risultano sincronizzati se il ritardo, uguale a t, rappresenta la durata della trasmissione. Per verificarlo la stazione B manda a sua volta un segnale quando il suo orologio segna l’ora zero; allora la stazione A deve avvertirlo quando il suo orologio segna t. In questo caso gli orologi risultano sincronizzati. Effettivamente segnano la stessa ora alle stesso istante fisico, ma ad una condizione: che le due stazioni siano immobili. In caso contrario la durata della trasmissione non sarà la stessa nei due sensi, poiché, ad esempio, la stazione A va incontro alla perturbazione ottica emessa da B, mentre la stazione B si allontana rispetto alla perturbazione emessa da A.  (653)  Gli orologi sincronizzati in questo modo non segneranno allora il tempo vero; segneranno quello che si può chiamare il tempo locale (654) di modo che uno di essi ritarderà rispetto all’altro. Poco importa perché non abbiamo alcun mezzo per avvertirlo. Tutti i fenomeni che, ad esempio, si producano in A staranno in ritardo, ma tutti avranno lo stesso ritardo e l’osservatore non lo avvertirà poiché il suo orologio ritarda. (655)  E, così come richiede il principio di relatività, non avrà mezzo alcuno per sapere se è in riposo o in movimento assoluto.” (656)

Un altro tema, rilevante per le asimmetrie che comporta, fu affrontato da Poincaré nella conferenza di St Louis; quello di due cariche elettriche statiche che si muovono con la Terra attraverso l’etere. Scriveva Poincaré:  (657)

Supponiamo di avere due corpi elettrizzati che se anche ci sembrano in riposo, sono trascinati dal moto della Terra. Una carica elettrica in moto, ce l’ha insegnato Rowland, equivale ad una corrente; questi due corpi carichi equivarranno quindi a due correnti parallele e con lo stesso verso, e queste due correnti dovranno attrarsi. (658) Misurando questa attrazione misureremmo la velocità della Terra e non la sua velocità rispetto al Sole o alle stelle fisse, ma la sua velocità assoluta … Questa attrazione elettrodinamica si sottrae alla repulsione elettrostatica e la repulsione totale è più debole che se i due corpi si trovassero in riposo. Però, poiché per misurare questa repulsione dobbiamo equilibrarla con un’altra forza e poiché tutte queste forze si trovano ridotte nella stessa proporzione, non avvertiremo il fenomeno.”

Infine, ad ulteriore sostegno del principio di relatività, Poincaré ideò un’immagine fantastica non priva di suggestione ed ancora oggi spesso utilizzata. (659)  Scriveva Poincaré, riguardo alla relatività dello spazio:  (660)

Supponiamo che, in una notte, tutte le dimensioni dell’Universo divengano più grandi: il monde resterà simile a se stesso … Solamente ciò che aveva la lunghezza di un metro, misurerà ora un chilometro; quello che misurava un millimetro misurerà un metro. Il letto in cui dormo ed il mio corpo si sarebbero ingranditi della stessa proporzione; quando mi svegliassi la mattina seguente, che cosa proverei di fronte ad una trasformazione così sorprendente ? Beh, semplicemente non mi accorgerei di nulla. Le misure più raffinate non sarebbero in grado di rivelarmi niente di questa immensa rivoluzione, dato che i metri di cui mi servirei sarebbero variati nella stessa proporzione che gli oggetti che io andrei a misurare con essi. In realtà questo scompiglio non esisterebbe altro che per quelli che ragionano come se lo spazio fosse assoluto.”

***

        A conclusione di questo paragrafo si può dire che, agli inizi del XX secolo, la teoria di Lorentz era in grado di rendere conto di quasi tutti i fenomeni elettromagnetici noti. (661)  II programma di Lorentz, di ricondurre tutti i fenomeni fisici (anche quelli meccanici) ai comportamenti dei microscopici elettroni (riduzionismo), era giunto al suo compimento. Nell’evolversi della costruzione della teoria, abbiamo assistito ad “un rovesciamento dei rapporti tra meccanica ed elettromagnetismo, nella prospettiva di fondare la prima sulle basi di quest’ultimo.” (662)  Concetti ben consolidati nella tradizione fisica ne sono usciti completamente modificati; forze che dipendono dalla velocità, lunghezze che si contraggono, masse che variano al variare della velocità, tempi locali, il principio di azione e reazione posto in discussione, … Questo caro prezzo pagato in certezze rende ben conto della profondità, complessità ed intensità dei problemi che si ponevano. Eppure “tutta questa serie di innovazioni e di rotture rispetto alla tradizione newtoniana sono accettate purché sia fatta salva la capacità del quadro di riferimento globale (etere, particelle e loro  interazioni) di garantire l’interpretazione dei fenomeni.” (662)

        Paradossalmente si era operato in questo senso per garantire un supporto materiale a quelle onde elettromagnetiche che, questo si, non si poteva ammettere viaggiassero nel vuoto. Questo supporto materiale era poi sempre diventato più immateriale, fino al punto che era sfuggito ad ogni possibile ricerca. E pur non mostrandosi, l’etere era di fatto diventato quello spazio e riferimento assoluto di newtoniana memoria.

        La fisica newtoniana mostrava varie falle che occorreva chiudere al più presto ma, nel contempo, mostrava tutta la sua potenzialità esplicativa, proprio quella che aveva condotto alle così complesse elaborazioni di Lorentz,

NOTE

(605) H. Poincaré: À propos de la théorie de M. Larmor, L’éclairage éléctrique, Vol.3, pagg.5-13 e pagg. 285-295; Vol. 5, pagg. 5-14 e pagg.385-392; ottobre 1895. Il fisico irlandese J. Larmor (1857-1942) aveva sviluppato una teoria, elaborazione di una teoria del suo compatriota J. Mac Cullagh (1809-1847), che considerava 1’etere come etere girostatico, rotazionalmente elastico. La teoria era stata inoltre applicata da Larmor alla spiegazione dei fenomeni elettromagnetici ed ottici; tutto, come faceva rilevare Poincaré, con grandi difficoltà.

(606) Ibidem, pag. 412. Citato in inglese in bibl. 145, pag. 936. Occorre notare che questa formulazione, negli anni seguenti, sarà chiamata da Poincaré principio di relatività. Vari autori, a partire da Whittaker (bibl.112, Vol.II, pagg.27-55; e, come esempio, bibl. 114), hanno creduto di poter attribuire la prima formulazione relativistica a Poincaré, in connessione con Lorentz, proprio dal brano qui riportato e da altri che vedremo più avanti. Non condivido questa posizione in accordo con altri autori (si veda, ad esempio, bibl.54, 132, 133, 145),  per i motivi che saranno discussi in seguito. Ora basti solo osservare che qui il supposto principio di relatività  viene affermato come legge empirica in attesa di una teoria che possa renderne conto.

(607) Ibidem,  pag. 413. Citato in   inglese  in   bibl. 145,   pag.  936.

(608) H. Poincaré: La théorie de Lorentz et le principe de reaction, scritta in occasione del 25° anno del dottorato di Lorentz e pubblicata in Recueil de travaux offert par les auteurs à H. A. Lorentz, Arch.Keerl., Vol.5, pag. 272; 1900.

Alcuni fatti accaduti tra il 1895 ed il 1900 vanno qui ricordati.

– Nel 1897 J.J. Thomson aveva scoperto l’elettrone (J.J. Thomson, On cathode rays,Phil. Mag., Vol.44; 1897) e nel 1899 ne aveva misurato la carica e la massa (J.J. Thomson, On the masses of ions in a gas at low pressure, Phil. Mag., Vol.48; 1899. Si noti che, soprattutto nella scuola britannica, il termine elettrone aveva il significato di ione monovalente e non quello attuale che fu invece suggerito da O. Drude (1852-1933) nel 1900). Anche se questa scoperta non aveva un legame diretto con la teoria elettromagnetica (si veda la nota 573), pure essa valse da possente sostegno alla teoria di Lorentz.

– Nel 1898 era uscito un articolo di Poincaré,  La mesure du temps  (Revue de Métaphysique et de Morale; riprodotto in La valeur de la science, cap II; 1905. Si veda bibl.142, pagg.32-44), nel quale l’autore si occupa del problema della simultaneità e della sincronizzazione degli orologi. Tra l’altro, in questo lavoro, l’autore afferma:  “Ho cominciato con l’ammettere che la luce ha una velocità costante e, in particolare, che la sua velocità è la stessa in tutte le direzioni. Questo è un postulato senza il quale nessuna misura di questa velocità potrebbe essere tentata. Questo postulato non potrà mai essere verificato dall’esperienza. Questa potrebbe contraddirlo se i risultati delle diverse misure non fossero concordi … [Ebbene questo postulato] ci ha fornito una nuova regola per lo studio della simultaneità ...” così noi sappiamo, per esempio, che una data eclissi di Luna non è avvertita simultaneamente in tutti i punti del globo e questo perché la propagazione della luce non è istantanea e richiede tempi differenti per percorrere distanze diverse. In definitiva, il problema della simultaneità è un problema di misura di tempi e noi non possediamo una intuizione diretta della suddetta simultaneità e neppure dell’uguaglianza di due durate. A ciò serve solo osservare, con Goldberg (bibl.145, pag.939), che il postulato della costanza della velocità della luce qui enunciato “è uno ben strano postulato, che non può essere verificato dall’esperienza, e che può essere contraddetto da essa“. Secondo Goldberg, più che di un postulato, si tratta dell’ipotesi più comoda. Oltre a questo, Goldberg osserva: “La maggior parte dei tentativi di determinare il moto relativo della terra e dell’etere nel diciannovesimo secolo sono stati caratterizzati dal fatto che la velocità della luce doveva essere differente in differenti sistemi di riferimento. Avrebbe Poincaré potuto dire che senza il sistema di riferimento privilegiato [l’etere] la velocità sarebbe stata costante ?” (ibidem).

– Nel 1899 Lorentz aveva pubblicato un altro lavoro, Théorie simplifiée des phénomenes électriques et optiques dans des corps en mouvement (bibl. 134, Vol. V, pagg. 139-155), nel quale venivano ripresi tutti i temi trattati nella Versuch del 1895. A parte il fatto che, a seguito della scoperta di J.J. Thomson, si introduce per la prima volta il termine elettrone in sostituzione di ione (fino ad allora usato), in questa memoria il calcolo viene affinato e molte ipotesi semplificative renderanno più agevole l’intera teoria. Vengono di nuovo date le equazioni di trasformazione per il tempo e per lo spazio in una forma quasi identica a quella definitiva che si avrà solo nella memoria del 1904. Si avanza infine la possibilità di spiegare l’esperimento di Michelson includendo nella trasformazione delle coordinate termini al secondo ordine in v/c, trascurati nella Versuch. E’ interessante notare, con lo stesso Lorentz, che questa possibilità            comporterebbe delle strane conseguenze come, ad esempio, la variazione della massa degli elettroni. Lorentz commenta ciò affermando (bibl.l34, Vol.V, pag. 154. Citato in francese  in bibl.113, pag.37):

Questa idea non è del tutto inammissibile, poiché la massa effettiva di un elettrone può dipendere da ciò che avviene nell’etere, e durante una traslazione la direzione di questa ed una direzione perpendicolare non sono equivalenti. Se questa idea potesse essere ammessa si potrebbe dedurre, nel modo indicato dalle nostre formule, da uno stato di moto su una terra in riposo, uno stato di moto che sarebbe possibile nello stesso sistema ma collocato su una terra in moto. Ed è degno di nota che le dilatazioni determinate dalle [formule di trasformazione delle coordinate spaziali] sono precisamente quelle che io ho dovuto ammettere per spiegare l’esperienza del Sig. Michelson.

E ciò vuol dire che la variazione della massa dell’elettrone risulta tale da uguagliare la contrazione precedentemente ammessa per rendere conto dell’esperienza di Michelson.

– Nel 1900 Larmor, nel suo lavoro Aether and. matter (Cambridge University Press, 1900), afferma la necessità di estendere le equazioni di trasformazione di Lorentz ad ordini superiori di v/c. Egli osserva anche che, vista vera la contrazione di Lorentz-Fitzgerald, un orologio che si muovesse con una velocità v rispetto all’etere, dovrebbe rallentare del rapporto l/(1 – v2/c2)1/2 .

– Nel 1900 Poincaré torna sul principio di relatività in una comunicazione letta al Congresso internazionale di fisica che ebbe luogo a Parigi in quell’anno (la comunicazione è stata pubblicata su La scienza e l’ipotesi, capitoli 9 e 10. Si veda bibl.140, pagg. 137-173). Egli dice (ibidem, 165-166):

Io non credo, malgrado Lorentz, che osservazioni più precise possano mai mettere in evidenza altro che spostamenti relativi dei corpi materiali. Si son fatte esperienze, che avrebbero dovuto svelare i termini del primo ordine: i risultati sono stati negativi … Si è cercata una spiegazione generale, e Lorentz l’ha trovata … Allora si son fatte esperienze più precise [al secondo ordine di v/c]; anch’esse sono state negative … Occorreva una spiegazione; la si è trovata. Se ne trovano sempre: le ipotesi sono la base che non viene mai meno. Ma ciò non è abbastanza … Non è anche un caso questo singolare concorso, il quale fa si che una certa circostanza [teorema degli stati corrispondenti] giunga proprio a punto per annullare i termini del primo ordine, e che un’altra circostanza [la contrazione], del tutto differente, ma anch’essa opportuna, si incarichi di annullare quelli del secondo ordine. No, bisogna trovare una medesima spiegazione per gli uni e per gli altri; e allora, tutto ci porta a pensare che questa spiegazione varrà egualmente per i termini d’ordine superiore, e che l’annullamento reciproco di questi termini sarà rigoroso ed assoluto“. 

Poincaré puntava quindi all’unificazione della teoria manifestando la sua insoddisfazione all’accumularsi di ipotesi successive per rendere conto dei fatti sperimentali che via via si presentavano. In particolare, la sua insoddisfazione relativa alla prima formulazione dell’ipotesi della contrazione fatta da Lorentz (1895) emerge anche dalla lettura della seconda edizione di Électricité et optique (G.Carré e C. Naud, Parigi 1901) nella quale Poincaré sostiene: “Questa strana proprietà sembra essere, nei fatti, un colpo di pollice fornito dalla natura per evitare che il moto della terra sia messo in evidenza mediante fenomeni ottici” (citato in bibl. 145, pag. 937).

(609) Si veda anche Science et Méthode, libro III°, cap.2°,  par.3° (bibl.141, pagg.l70-173)

(610) per dimostrare la validità del principio di azione e reazione occorreva provare che la radiazione elettromagnetica esercitava una pressione. Questa pressione era stata prevista da Maxwell nel Trattato del l873 (bibl. 76, pagg.591 e 592). Dice Maxwell: “l’effetto combinato dello sforzo elettrostatico ed elettrocinetico è una pressione uguale a 2p in direzione della propagazione dell’onda. Ora, 2p esprime pure l’energia complessiva nell’unità di volume. Perciò in un mezzo in cui si propagano delle onde c’è una pressione in direzione normale alle onde, numericamente uguale all’energia dell’unità di volume … Un corpo piatto esposto alla luce del sole subirebbe una pressione [pari a circa 4/100 di atmosfera al secondo] soltanto sul suo lato illuminato, e sarebbe perciò respinto dal lato su cui cade la luce [azione e reazione].” Il risultato previsto da Maxwell fu messo in dubbio ma, nel 1876, il fisico italiano A. Bartoli (1851-1896) mostrò che quanto affermato da Maxwell era una necessaria conseguenza del 2° principio della termodinamica. La pressione di Maxwell-Bartoli fu evidenziata sperimentalmente dal fisico russo P.H.Lebedev (1866-1911) nel 1899. E certamente del fatto non era a conoscenza Poincaré nel 1900 (si noti che ancora nel 1909, nel suo scritto Scienza e Metodo, Poincaré, mentre parla della pressione di Maxwell-Bartoli, non fa cenno a Lebedev),

(611) H.A. Lorentz: Electromagnetic phenomena in a system moving with any velocity less than that of light, Proc. Amst. Acc., Vol.6; 1904. Si veda anche bibl. 134, Vol.5, pagg.172-197 e bibl.131, pagg.11-33. Occorre osservare che tra il 1900 ed il 1904 Lorentz si era occupato del problema del corpo nero pubblicando tre articoli: nel 1900, Teoria della radiazione e secondo principio della termodinamica; nel 1901, Le leggi dell’irraggiamento di Boltzmann e di Wien; nel 1903, Sull’emissione e l’assorbimento da parte di metalli di radiazion di colore di colore di grande lunghezza d’onda. Speoialmente in questa ultima memoria il corpo nero era trattato sulla base della teoria degli elettroni e Lorentz aveva trovato accordo con la formula di Rayleigh-Jeans nel caso di onde lunghe. Per queste tre memorie si veda bibl. 134, rispettivamente in: Vol.6, pagg. 265-279; Vol.6, pagg. 280-292; Vol.3, pagg. l55-176. Per quel che riguarda una breve trattazione del problema del corpo nero si veda l’articolo sulla Nascita della teoria dei quanti in questo sito.

(612) Per l’esperienza di Rayleigh si veda Phil. Mag. 6, 4; 1902; pag.678. Per quella di Brace, Phil. Mag. 6, 7; 1904; pag. 317.

(613) Per l’esperienza di Trouton e Noble si veda Phil. Trans. Roy. Soc. Lond., A.202; 1903; pag. 165. Si noti che questa esperienza fu suggerita agli autori da Fitzgerald.

(614) Particolarmente sviluppata da Heaviside. Anche la teoria degli elettroni prevedeva un medesimo effetto.

(615) Si osservi che, secondo la teoria, il momento della coppia doveva dipendere da termini al secondo ordine in v/c.

(616) Bibl. 131, pagg. 12-13. La traduzione è tratta da bibl. 123, pag.175 (la sottolineatura è mia).

(617) Al fine di ottenere equazioni più semplici e formalmente e dal punto di vista della loro risoluzione.  

(618) Ibidem, pag. 15. Per v/c piccolo, con la solita formula per lo sviluppo del binomio, si trova che g  ~  1 + v2/c2.

(619) Ibidem.

(620) Un’altra trasformazione proposta da Lorentz in questa sua memoria è quella relativa alla velocità u di un dato elettrone rispetto al sistema di riferimento in moto (“in aggiunta alla velocità v“):  u’ = u/(1 – v2/c2)1/2 che è, anche qui, un utile cambiamento di variabili con in più il fatto che sono prive di qualunque significato fisico.  

(621) Bibl. 131, pag. 21.

(622) Ibidem.  

(623) Ibidem, pag. 22.

(624) Ibidem. Si noti che con quel da sé Lorentz assegna valore oltre che qualitativo anche quantitativo e reale alla deformazione.

(625) Ibidem, pagg. 22-23.

(626) Ibidem, pag. 23. I simboli da ree usati sono diversi da quelli di Lorentz.

(627) Ibidem, pag. 24.

(628) Abraham, del quale ci occuperemo nel prossimo paragrafo, aveva sostenuto che la massa dell’elettrone è di natura elettromagnetica (1902). Questa ipotesi era stata fatta propria da Lorentz,

(629) Ibidem.

(630) Ibidem, pag. 25.

(631) Ibidem, pag. 28.

(632) Ibidem, pag. 29. La sottolineatura è mia.

(633) Lorentz, a questo punto, sostiene che la sua teoria è data con le dovute riserve a seguito del fatto che la natura degli elettroni ed il loro moto non ci sono ben noti. Nonostante ciò la teoria spiega tutti i fatti sperimentali noti.

(634) L’ultimo paragrafo della memoria, Lorentz lo dedica alla discussione dei rapporti della sua teoria con quella di Abraham ed in modo particolare ai risultati delle esperienze di Kaufmann che sembrano confermare la teoria della massa trasversale di Abraham e dello stesso Lorentz. Su questi argomenti torneremo comunque nel prossimo paragrafo.

(635) Ibidem, pag. 30.

(636) Ibidem.

(637) Per approfondire quanto qui di seguito è sostenuto si pu vedere bibl. 133,  pagg. 116-122 e bibl. 132.

(638) “in quanto indicano una modificazione del sistema in moto rispetto al comportamento di quiete in funzione del valore assoluto della sua velocità di traslazione” (bibl. 133, pag. 119).

(639) Per quanto diremo è utile ricordare quanto da me scritto sulle trasformazioni di Galileo in bibl. 3, pagg. 137-139.

(640) H. A. Lorentz: The Theory of Electrons, Dover, New York, 1909. Si tratta di una raccolta di lezioni che Lorentz tenne alla Columbia University nel 1906.

(641) H. Poincaré: Sur la dynamique de l’électron, Compt. Rend., 140, 1504; 1905. Questo articolo non è altro che un breve sunto del secondo e ben più importante, dallo stesso titolo, pubblicato sui Rendiconti del Circolo Matematico di Palermo, 21, 129; 1906 (ma comunicato il 23 luglio 1905).

(642) Bibl. 139, pagg. 129-130.

(643) Ibidem, pag. 130.

(644) Ibidem. Abbiamo visto che Lorentz, nel suo lavoro del 1904, supponeva che la deformazione dell’elettrone, a causa del suo moto attraverso l’etere, lo trasformasse in un ellissoide schiacciato. Ebbene, secondo Lorentz, due degli assi dell’ellissoide rimangono costanti (quelli perpendicolari alla direzione del moto).

(645) Ibidem, pag. 131.

(646) Ibidem.

(647) I simboli da me usati differiscono da quelli utilizzati da Poincaré.  

(648) Poincaré riconobbe che le trasformazioni di Lorentz, nella versione corretta, costituiscono un gruppo. Riservandoci di tornare su questo argomento quando ricaveremo le trasformazioni di Lorentz nelle ipotesi di Einstein, osserviamo solo che il fatto che esse costituiscono un gruppo è condizione necessaria per garantire l’invarianza delle leggi fisiche nel passaggio da un sistema ad un altro in moto traslatorio uniforme rispetto al primo. Occorre qui ricordare che trasformazioni formalmente simili furono utilizzate dal fisico tedesco W. Voigt (1850-1920) in un lavoro del 1887, Sul Principio di Doppler; in esso la luce era ancora trattata in base alla teoria elastica. Anche Larmor nel 1900 aveva trovato qualcosa di simile. Notiamo a parte che, per piccole velocità v, le trasformazioni di Lorentz ridanno le trasformazioni di Galileo.

(649) Bibl.l48, pag.28. L’equazione di Maxwell per lo spostamento elettrico in un sistema in moto è la prima delle (9) del lavoro originale di Lorentz (bibl. 131, pag.l5):

Se in questa equazione fosse sparito quel termine – vu’x/c2  si sarebbe ottenuta l’identità formale con la stessa equazione per un sistema in quiete (ibidem, pag.l4, riga3) e cioè    div D = r.  Si noti che la non identità di queste due equazioni mostrava che le trasformazioni di Lorentz, almeno nella loro formulazione del 1904, non garantivano l’invarianza delle equazioni di Maxwell nel passare da un riferimento ad un altro, l’invarianza si otteneva solo trascurando effetti del secondo ordine in v/c.

(650) Bibl. 139, pag. 163.

(651) II tema fu affrontato in una conferenza che Poincaré tenne a St  Louis il 24 settembre 1904. Il testo della conferenza fu pubblicata ne La valeur de la science (1905) ai capitoli 7 e 9. Bibl. 142, pagg. 107-130. Il tema fu poi ripreso in un lavoro di Poincaré del 1908 (bibl.123, pagg. 182-187 e bibl.141. pagg. 167-170).

(652) Bibl. 142, pagg. 116-117.

(653) Evidentemente vale anche per la luce la composizione galileiana delle velocità.

(654) Che nello stesso istante – quello vero – non è lo stesso per i due osservatori: assenza di simultaneità per il tempo locale.

(655) Si noti che il ritardo assume una validità assoluta.

(656) Evidentemente, rispetto al riferimento assoluto dell’etere nel quale esiste il tempo vero.

(657) Ibidem, pag. 115 e pag. 118.

(658) Come abbiamo già visto, questo fatto era stato dimostrato da Ampére.

(659) Si veda anche bibl.3, pag.12. Secondo Poincaré l’immagine è suggerita da Delbeuf.

(660) Bibl.l41, pag.74. Si tratta del paragrafo 1 del 1° capitolo del libro 2° di Scienza e Metodo, un lavoro di Poincaré del 1909. Il brano è qui riportato anche se posteriore al lavoro di Einstein del 1905, perché completamente indipendente da esso.

(661) Mancava l’effetto Zeeman anomalo (scoperto nel 1897) ed alcune questioni di importanza fondamentale nell’ambito dello studio del corpo nero.

(662) Bibl. 132, pag. 48.

7 – MECCANICISMO E  CRISI DELLA MECCANICA.

– TENTATIVI DI COSTRUIRE UNA MECCANICA SU BASI DIFFERENTI (HERTZ).

– LA CRITICA DI MACH: L’EMPIRIOCRITICISMO

        Alla fine dell’Ottocento, una quantità molto grande di fatti sperimentali e di elaborazioni teoriche portavano a concludere sull’insufficienza della meccanica che, così come si era affermata a partire da Newton, attraverso gli sviluppi della Meccanica Razionale ed Analitica soprattutto della scuola francese del XVIII secolo, non riusciva più a rendere conto compiutamente di quanto si andava via via scoprendo. E ciò risultava non dallo sviluppo di un solo campo della fisica ma, praticamente, da tutti.

        Una breve ricapitolazione ci sarà utile.

        Con l’affermarsi della teoria ondulatoria della luce, lo sviluppo dell’ottica dei corpi in movimento, almeno fino all’esperienza di Miehelson-Morley del 1887, tentava di ricondurre i vari fenomeni all’esistenza di un etere che assolveva il duplice compito di sostegno per le vibrazioni e di spazio assoluto cui riferire i fenomeni stessi.

        Con i lavori di Maxwell-Hertz, l’ottica diventa un capitolo dell’elettromagnetismo ed i problemi dell’ottica dei corpi in movimento diventano i problemi dell’elettrodinamica dei corpi in movimento con un etere che si trova sempre a giocare un ruolo di primo piano. E quindi, in definitiva, i problemi sorgono essenzialmente dall’elettrodinamica dei corpi in movimento e più in particolare dalle proprietà e comportamento di quell’etere che, nonostante i numerosi tentativi, rifiuta di mostrarsi.

        E questo per un verso.

        D’altra parte, altri problemi nascono dagli sviluppi della termodinamica.

        Cerchiamo di capire la natura di queste due classi di problemi in relazione ai postulati fondamentali della meccanica.

        Per rendere conto dei fenomeni osservati l’elettrodinamica, come già visto, deve considerare: forze dipendenti da angoli, forze dipendenti da velocità, forze a contatto, la non invarianza delle equazioni di Maxwell per una trasformazione di Galileo, lunghezze che variano, tempi locali, messa in discussione del principio di azione e reazione e del principio di conservazione della quantità di moto, inosservabilità dello spazio assoluto, masse che variano a seconda del verso del moto. Certamente si va costruendo una fisica che via via rende conto dei fatti sperimentali, continuando a rincorrerli, ma, altrettanto certamente, questa fisica va via via negando le premesse dalle quali era nata. E ciò con la convinzione di star lavorando per la sua conservazione. Tutto quanto deve essere tenuto in conto dall’elettrodinamica costituisce un vero e proprio colpo di maglio ai concetti fondamentali della meccanica: lunghezze, masse, tempi, forze, spazio assoluto, principi di conservazione. Tolto questo, che resta della meccanica oltre la spiegazione dei fenomeni strettamente meccanici per cui la stessa era nata ? (662 bis)  Ed il problema si pone con maggior forza proprio perché continua a persistere la volontà di voler spiegare tutto con la meccanica.

        Per parte sua, quali contributi alla messa in discussione della meccanica vengono dalla termodinamica ?  

        La questione certamente più rilevante era posta dall’affermazione di irreversibilità di tutti i fenomeni naturali. Da una parte, con la teoria cinetica, si erano utilizzate le leggi perfettamente reversibili della meccanica, dall’altra la termodinamica, uno dei prodotti dell’elaborazione cinetico-molecolare, forniva dei risultati che avevano perso quella caratteristica di reversibilità. Inoltre, dovendo trattare sistemi composti da un enorme numero di costituenti, era stato necessario introdurre sistematicamente metodi statistici e probabilistici ed, in particolare, il concetto di stato più probabile. Gi si accorgeva sempre più che la trattazione di fenomeni microscopici richiedeva  la formulazione di leggi diverse da quelle ricavate per i fenomeni macroscopici. E per di più, alcune delle conclusioni ricavate a livello microscopico, con quei metodi statistici che incontreranno molti oppositori, venivano estese ai fenomeni macroscopici. E’ il caso dell’introduzione della funzione entropia che veniva ad assumere significati del tutto assimilabili alla grandezza tempo, soprattutto dal punto di vista della sua unidirezionalità. Ma un altro aspetto del problema doveva presentarsi proprio all’alba del nuovo secolo, quando Planck, per rendere conto dei risultati sperimentali relativi all’irraggiamento di un corpo nero (si veda il paragrafo 2 di questo capitolo) e nell’ambito di una trattazione termodinamica del problema, è costretto ad ammettere la discontinuità dell’energia, la sua quantizzazione (si noti che Boltzmann già nel 1872 aveva utilizzato, come mero artificio di calcolo, la quantizzazione dell’energia facendo poi una successiva operazione – il limite per questi quanti tendenti a zero – che rendeva priva di importanza la prima operazione). In questo ambito, le stesse metodologie di lavoro utilizzate nella ricerca fisica sembrano subire un forte contraccolpo. L’uso delle analogie e soprattutto dei modelli meccanici a cosa servono in un mondo microscopico che ubbidisce a leggi differenti da quelle del mondo meccanico macroscopico ?

         C’è insomma una grossa mole di problemi che vanno tutti nella direzione di rimettere in discussione i fondamenti ed i metodi della fisica  affermatasi con Newton e sviluppatasi nell’ambito del meccanicismo.

         L’insoddisfazione latente e molto spesso evidente cominciò a prendere corpo nella seconda metà del secolo XIX, inizialmente con dei tentativi  di riformulazione della meccanica di Newton su basi differenti.

         La questione che maggiormente faceva discutere e che sollevava critiche era il concetto di forza, la sua definizione, la sua esistenza, la sua essenza. A questo problema si aggiungeva quello della massa; cos’è e che rapporti ha con la materia ? e con la forza ? e la materia cos’è ? e cosi via.

         Un primo tentativo di liberare la meccanica dalle forze fu realizzato dal fisico francese Barré de Saint-Venant (1797-1896) il quale, nei suoi Principi di Meccanica basati sulla Cinematica (Parigi, 1851), riprendendo alcune proposizioni di Lazare Carnot, sviluppate nel Saggio sulle macchine in generale (Parigi, 1763) e nei Principi fondamentali dell’equilibrio e del moto (Parigi, 1803) e dopo aver sostenuto che le forze sono una specie di intermediari occulti e metafisici che non intervengono né tra i dati né tra i risultati di un qualunque problema meccanico, definì la massa e la forza a partire dai concetti (da Saint-Venant ritenuti fondamentali e primitivi) di movimento, velocità ed accelerazione. Così egli scriveva: (662 ter)

Masse – La massa di un corpo è il rapporto tra due numeri che esprimono quante volte questo corpo ed un altro     corpo, scelto arbitrariamente e che rimane costantemente lo stesso, contengono parti che, separate e sottoposte due a due ad urti l’una contro l’altra, si comunicano, mediante l’urto, velocità opposte uguali.

  Forze – La forza o l’attrazione positiva o negativa di un corpo su di un altro è un segmento che ha come grandezza il prodotto della massa di quest’ultimo [corpo] per l’accelerazione media dei suoi punti verso quelli del primo e come direzione quella di questa accelerazione.

 Quello che va sottolineato è che Saint-Venant, per primo ha una chiara coscienza del fatto che le definizioni di massa e forza sono strettamente legate tra loro e che, secondo Saint-Venant, è impossibile dare una definizione di forza se prima non si è definita con chiarezza ed univocamente la massa. E la definizione di massa che viene fornita, come si può vedere, è intanto indipendente da quell’equivoco che sempre l’aveva accompagnata: che c’entra la massa con la quantità di materia ? Qui la quantità di materia sparisce. Inoltre questa definizione di massa discende dalla conservazione della quantità di moto e, come vedremo, sarà una delle basi dell’elaborazione di Mach. Anche se Saint-Venant non portò a compimento il suo programma, il suo lavoro si concluse con l’auspicio che presto le qualità occulte come la forza spariscano dalla fisica per essere sostituite solo da velocità e sue variazioni.

        Per parte sua e negli stessi anni, il fisico francese P. Reech (l805 -1874), nel suo Corso di Meccanica secondo la natura generalmente flessibile ed elastica dei corpi (Parigi, 1852), tentava, sulla traccia di Euler che tentò di fondare una dinamica sul concetto di forza anche se poi quest’ultima era definita solo staticamente, di dare la forza come concetto primitivo e cioè non come causa di movimento, ma

effetto di una causa qualunque, chiamata pressione o trazione e che noi apprezziamo con estrema chiarezza in un filo teso, supposto privo della sua qualità materiale o massa.”  (663)

Come si può osservare da questo breve passo, anche per Reech la sola possibile definizione di forza è di natura statica: l’allungamento di un filo o di una molla. Il confronto degli allungamenti può permettere il confronto tra forze. Si tratta di una prima definizione operativa che si scontra però con la sua estensione al caso dinamico. E non a caso Reech definiva come entità misteriose proprio quelle forze di tipo dinamico come le gravitazionali o le elettriche e magnetiche.

        Sulla strada invece di eliminare dalla meccanica il concetto di forza si muoveva anche il fisico tedesco G.B. Kirchhoff. Nelle sue Lezioni di matematica, fisica e meccanica (Lipsia, 1874-1876), egli tentò di costruire una dinamica in cui i concetti di forza e massa fossero derivati dai concetti primitivi ed intuitivi di spazio, tempo e materia. (664)  Secondo Kirchhoff, la meccanica deve limitarsi a descrivere i movimenti disinteressandosi delle loro cause. Considerando la massa (concetto primitivo) come un coefficiente costante di una data particella, la forza risulta definita come il prodotto della massa per l’accelerazione. E poiché in meccanica  non abbiamo mai a che fare con una forza, ma sempre con sistemi di forze che hanno come effetto il moto, noi, dallo studio di questo moto, non possiamo risalire al sistema di forze, ma solo alla loro risultante. Per questo la definizione di forza non può che essere incompleta.

        Su questi argomenti intervenne anche il fisiologo tedesco E. Du Boys-Reymond (1818-1896). (665)  In due opuscoli, I confini della conoscenza della natura (Lipsia, 1872) ed I sette enigmi del mondo (Berlino, l880),  riprendendo alcune posizioni del filosofo positivista britannico H. Spencer  (1820-1903),  (667)  egli sostenne che i metodi della Meccanica, arrivata al suo culmine con Laplace, ci rendono impossibile andare ad una conoscenza completa della natura. In particolare quella Meccanica, che Du Boys-Reymond considera come cosa distinta dal meccanicismo, non è in grado di darci informazioni sulla natura della materia e della forza. Inoltre, nell’ipotesi di un mondo corpuscolare regolato dagli urti delle particelle, ci è impossibile riuscire a cogliere l’inizio del moto. E poi, come è possibile render conto di forze agenti a distanza nel vuoto ? Esse sono addirittura inconcepibili. Scriveva Du Boys-Reymond: (668)

E’ facile scoprire l’origine di queste contraddizioni. Esse sono radicate nell’impossibilità, per noi, di rappresentarci qualcosa che non sia sperimentato con i nostri sensi o con il senso interno.”

Ecco quindi che inizia a porsi, da parte di scienziati, il problema del nostro rapporto con la natura ed in particolare di come esso sia condizionato dai nostri sensi.  

        Anche Hertz, come già accennato, tentò,sulle orme di Kirchhoff, di costruire una meccanica che prescindesse dal concetto di forza. La critica qui va più a fondo perché, pur non negandoli completamente, coinvolge l’uso dei modelli meccanici nella spiegazione fisica. E’ un complesso tentativo di assiomatizzazione quello che condusse Hertz nei suoi Principi della Meccanica  (Lipsia, 1894). A proposito del concetto di forza, scriveva Hertz: (669)

 ” Non si può negare che in moltissimi casi le forze che si usano nella meccanica per trattare problemi fisici sono soltanto dei partner sonnecchianti, che sono ben lungi dall’ intervenire quando devono essere rappresentati i fatti reali.”

Certo che il concetto di forza è stato utile nel passato, ma ora, riguardo all’introduzione di relazioni non strettamente necessarie

tutto ciò che possiamo chiedere è che queste relazioni dovrebbero, finché è possibile, essere limitate, e che una saggia discrezione dovrebbe essere osservata nel loro uso. Ma è stata la fisica sempre parca nell’uso di tali relazioni ? Non è stata essa costretta piuttosto a riempire il mondo all’eccesso con forze dei più vari tipi – con forze che non sono mai apparse nei fenomeni, o anche con forze che sono entrate in azione solo in casi eccezionali ?”  (669)

L’esempio che viene portato è quello di un pezzo di ferro su di un tavolo. Esso è immobile. Quale fisico riuscirebbe a convincere il prossimo che quello stato di riposo è dovuto ad una infinità di forze che si fanno equilibrio ? Hertz può cosi continuare:  (669)

E’ dubbio  se  le  complicazioni  possano  essere  evitate  del  tutto;  ma  non  vi è dubbio che un sistema di meccanica che le evita o le esclude è più semplice, ed in questo senso più adeguato, di quello qui considerato; quest’ultimo infatti non solo consente tali concezioni, ma addirittura ce le impone con la forza.”

Come la forza anche l’energia potenziale pone dei problemi. Se infatti noi ci proponiamo che

nelle  ipotesi dei problemi entrino soltanto caratteristiche che sono  accessibili direttamente all’esperienza … , senza assumere una considerazione preventiva della meccanica, dobbiamo specificare con quali semplici, dirette esperienze proponiamo di definire la presenza di una quantità di energia, e la determinazione del suo ammontare.”  (669) 

 Ora, ciò vuol dire che l’energia deve essere intesa come una qualche sostanza e  

“l’ammontare di una sostanza è  di necessità una quantità positiva;  ma  noi non esitiamo mai ad assumere che l’energia potenziale contenuta in un sistema sia negativa.”  (670)

 Per Hertz, in definitiva, tutte queste incongruenze portano alla necessità di sviluppare la meccanica “in una forma logicamente ineccepibile”, basandola sui tre concetti fondamentali di tempo, massa e spazio. (671)  Ma, attenzione, noi non possiamo che avere un’immagine parziale dei fenomeni; noi introduciamo, secondo Hertz, forze ed energie per rendere conto di un qualcosa che, nascosto ai nostri sensi, opera sui fenomeni stessi. Ma poi, quando dobbiamo descrivere quel qualcosa, è conveniente ricorrere proprio a ciò che cade sotto i nostri sensi e cioè movimenti e masse. Ebbene, ciò lo facciamo per un principio di comodità; diamo dei nomi, ai quali non corrisponde alcuna realtà fisica, a ciò che in realtà non conosciamo, a ciò che ci è nascosto. La nostra meccanica può essere costruita considerando movimenti e masse nascoste, anziché forze ed energie non necessarie, oltre, naturalmente, ai movimenti ed alle masse evidenti.  (672)  Scriveva Hertz: (673)

Se  cerchiamo  di  comprendere  i  movimenti  dei  corpi  che  ci  circondano  e  di  riportarli a delle regole semplici e chiare, ma nel considerare solo ciò che ci cade direttamente sotto gli occhi, in generale le nostre ricerche si arenano … Se vogliamo ottenere un’immagine del mondo chiusa su se stessa, sottomessa a delle leggi, dobbiamo, dietro le cose che vediamo, ipotizzare altre cose invisibili e cercare, dietro la barriera dei nostri sensi, degli attori nascosti.

E la forza e l’energia possono proprio essere intese in questo senso, a patto di descriverle come masse e movimenti: (673)

Noi siamo liberi d’ammettere che ciò che è nascosto non è altro che movimento e massa, non differenti dalle masse e dai movimenti visibili ed aventi solamente non altre relazioni con noi che il nostro modo abituale di percepire … Ciò che siamo abituati a designare con i nomi di forza e di energia si riduce allora ad una azione di massa e di movimento; ma non è necessario che questa sia sempre l’azione di una massa o di un movimento percepibile da parte dei sensi materiali.

L’intera meccanica di Hertz è basata su di un principio fondamentale:

“Un sistema libero è in riposo e descrive in modo uniforme una traiettoria che e’ il cammino più breve [cioè quello che ha una curvatura minore e cioè una geodetica],”

Ora ogni sistema che ci offre la natura è un sistema libero. Ma vi sono anche dei sistemi che sembrano liberi sui quali, in realtà, agiscono delle masse nascoste e dei moti altrettanto nascosti. Più in generale si può dire che un sistema libero è un insieme di sistema nascosto e sistema visibile. E non ci si stupisca di masse o movimenti nascosti. L’etere, di grande attualità all’epoca di Hertz è proprio una massa nascosta. Inoltre, quando si parla di moti vibratori delle particelle costituenti la materia, stiamo in realtà parlando di movimenti nascosti.

        La forza in tutto ciò non compare come entità fisica; essa potrà tuttalpiù figurare come utile strumento matematico e ciò potrà accadere quando si ha la decomposizione di un sistema libero in due parti: bisognerà allora considerare l’azione di una delle parti sull’altra e viceversa.

        Da questo punto, per mezzo di un processo puramente induttivo è possibile ricavarsi l’intera meccanica.  

        In definitiva, un dato sistema che cade sotto i nostri sensi è sempre una parte di un sistema isolato di cui l’altra parte è nascosta. Tramite la teoria dei vincoli è possibile scrivere le equazioni del moto del nostro sistema osservabile. Ciò che in ultima analisi è poi richiesto è l’accordo con l’esperienza; in caso contrario, nell’impostazione del problema, non si è tenuto conto di altri movimenti ed altre masse nascoste. Le masse ed i moti nascosti, intesi come vincoli, sono un ottimo strumento teorico per elaborare l’intera meccanica.

            Abbiamo fin qui accennato ad alcuni tentativi e lavori che cercavano di rifondare la meccanica newtoniana su basi differenti. Ma il rappresentante più noto e più influente di questo movimento di pensiero fu senza dubbio il fisico-fisiologo-filosofo austriaco E. Mach (1838-1916) sul quale occorre soffermarsi un poco.  

           Il nostro, laureatosi in fisica a Vienna nel 1860, iniziò degli studi di fisiologia e nel 1863 pubblicò un primo lavoro, Compendio di fisica per medici, nel quale mostrò di essere un convinto meccanicista: tutte le scienze, come anche la fisiologia, non sono altro che meccanica applicata. Ma fu proprio la fisiologia che poco a poco scosse dalle fondamenta la sua fede meccanicista. La questione, così come si poneva all’inizio, era: come nella fisiologia molte difficoltà sorgono perché si vuole spiegare tutto con la fisica,  allo stesso modo, nella fisica le difficoltà nascono perché si vuole spiegare tutto con la meccanica.

           Mach diede primo corpo alle sue idee nella sua opera principale, La Meccanica nel suo sviluppo storico critico, che vide la luce, in prima edizione, nel 1883.  (674)  In questo lavoro Mach ricostruiva la storia della Meccanica a partire dalle origini. La sua non era una semplice storia ma, come annuncia il titolo dell’opera, una vera e propria critica dei fondamenti della meccanica, al modo in cui sono stati formulati e si sono affermati. L’interesse principale dell’opera di Mach è che questa critica della meccanica si afferma dall’interno del mondo della fisica e la tesi di fondo su cui il lavoro è imperniato è che, nel passato, la meccanica ha svolto un ruolo fondamentale, mentre ora risulta un freno che tende a limitare la grande mole dei diversi fatti empirici.  

           Senza voler entrare in un’analisi che abbia una qualche pretesa di completezza, veniamo a quanto sostenuto da Mach nella sua Meccanica in relazione ad alcuni concetti fondamentali della meccanica: massa, principio di azione e reazione, spazio, tempo e movimento.

           Cominciamo dalla massa e dal principio di azione e reazione. Scriveva Mach:  (675)

Per quanto riguarda il concetto di massa, osserviamo che la formulazione data da Newton è infelice. Egli dice che la massa è la quantità di materia di un corpo misurata dal prodotto del suo volume per la densità. Il circolo vizioso è evidente. La densità infatti non può essere definita se non come la massa dell’unità di volume.”

Non si può evidentemente definire una grandezza mediante un’altra grandezza non definita e cosi la massa risulta priva di una definizione. Questa difficoltà ne comporta delle altre particolarmente in connessione al principio di azione e reazione. Infatti, come scriveva Mach,  (676)

Poiché Newton ha definito come misura della forza la quantità di moto acquisita nell’unità di tempo (massa per accelerazione), ne segue che corpi agenti l’uno sull’altro si comunicano in tempi uguali quantità di moto uguali ed opposte, ossia si comunicano velocità opposte inversamente proporzionali alle loro masse.”

Se mettiamo ora in relazione quanto qui detto con ciò che Mach aveva osservato a proposito del concetto di massa arriviamo, con Mach, ad affermare: (677)

L’oscurità del concetto di massa si fa evidente quando si applica in dinamica il principio di azione e reazione. Pressione e contropressione possono essere uguali, ma come sappiamo che pressioni uguali producono velocità inversamente proporzionali alle masse ? … [Infatti] i due distinti enunciati con cui Newton ha formulato il concetto di massa ed il principio di reazione dipendono l’uno dall’altro, cioè l’uno suppone l’altro.”

A questo punto Mach passava a formulare il concetto di massa ed il principio di azione e reazione in un modo che rappresentasse un superamento delle difficoltà accennate:  (678)

Dato  che  esperienze  meccaniche  ci  informano  dell’esistenza  nei  corpi  di  una particolare caratteristica che determina l’accelerazione, niente impedisce di formulare in via ipotetica la seguente definizione: Diciamo corpi di massa uguale quelli che, agendo l’uno sull’altro,  si comunicano accelerazioni uguali ed opposte. Con ciò non facciamo altro che designare una relazione fattuale … Se scegliamo il corpo A come unità di misura, attribuiremo la massa m a quel corpo che imprime ad A un’accelerazione pari a m volte l’accelerazione che esso riceve da A. Il rapporto delle masse è il rapporto inverso delle accelerazioni preso con segno negativo … Il nostro concetto di massa non deriva da alcuna teoria. Esso contiene soltanto la precisa determinazione, designazione e definizione di un fatto. La quantità di materia è del tutto inutile.”

Definita così la massa, cosa resta del principio di azione e reazione ?

II  concetto  di  massa  che  noi   proponiamo  rende   inutile  una  formulazione  distinta del principio di azione e reazione. Nel concetto di massa e nel principio di azione e reazione … viene enunciato due volte lo stesso fatto; cosa evidentemente superflua. Nella nostra definizione, dicendo che due masse 1 e 2 agiscono l’una sull’altra, si è già detto che esse si comunicano accelerazioni opposte che stanno tra loro nel rapporto 2:1.”  (679)

A proposito quindi della massa, la cui definizione – secondo Mach – sottende quella del principio di azione e reazione, il nostro autore poteva così concludere:  (680)

Resi attenti dall’esperienza, abbiamo scoperto che esiste nei corpi una particolare caratteristica determinante accelerazione. Con il riconoscimento e la designazione non equivoca di questo fatto, la nostra opera è compiuta. Non andiamo oltre questa designazione, perché qualsiasi aggiunta causerebbe solo oscurità. Ogni incertezza scompare quando si sia capito che nel concetto di massa non è contenuta una teoria, ma una esperienza.”

Prima di andare oltre nella ricostruzione della critica di Mach, sono importanti alcune osservazioni. Innanzitutto (680 bis) è da negare l’ultima affermazione di Mach? all’interno della definizione di massa che egli ci fornisce (rapporto delle masse come rapporto inverso delle accelerazioni, cambiato di segno) c’è una teoria e, pare incredibile, proprio la seconda legge di Newton (oltre alla prima legge della dinamica). Nessuno ci autorizza infatti a sostenere,  basandoci sulla sola osservazione, che due componenti di un dato sistema si muovano sotto la sola influenza delle loro azioni mutue. Affermare ciò prevede l’applicazione della teoria di Newton nel caso di un sistema isolato. Inoltre quella stessa definizione di massa è almeno soggetta ad un’altra critica, si badi bene, all’interno degli stessi ragionamenti svolti da Mach. Come vedremo più oltre una delle polemiche più accese di Mach sarà contro lo spazio assoluto di Newton e conseguentemente contro il moto assoluto. Ebbene, Mach non si preoccupa di estendere la validità della sua definizione né di verificarla in un riferimento diverso, sia esso dotato di moto rettilineo uniforme sia di moto accelerato. E poi, che definizione è la sua ? Non è piuttosto un metodo di misura ? Ed ancora che fine fa il principio di azione e reazione nella statica, dove non compaiono accelerazioni ? In definitiva, con Bunge, si può sostenere che qui Mach fa molta confusione: per rincorrere il fantasma dell’esperimento confonde una uguaglianza (rapporto tra masse = – rapporto inverso tra accelerazioni) con una identità ed assegna quindi lo stesso significato al primo ed al secondo membro, utilizzando il tutto come definizione (c’è una uguaglianza numerica non logica: inoltre il voler considerare la seconda legge come una mera convenzione è di nuovo errato perché, se tale fosse, sarebbe sempre vera ed invece, sperimentalmente, non lo è; infine la definizione stessa in senso stretto ha un limite di validità molto limitato come Bunge mostra nel suo lavoro. (680 bis)

        Ma veniamo ora alla critica di Mach ai concetti di spazio, tempo e movimento.

        Dopo aver ricordato i brani in cui Newton definiva queste grandezze all’interno dei suoi Principia, (681) Mach commentava: (682)

Leggendo questi passi si ha l’impressione che Newton sia ancora sotto l’influenza della filosofia medioevale, e non abbia mantenuto il proposito di attenersi al fattuale. Dire che una cosa A muta con il tempo significa semplicemente dire che gli stati di una cosa A dipendono dagli stati di un’altra cosa B. Le oscillazioni di un pendolo avvengono nel tempo, in quanto la sua escursione dipende dalla posizione della Terra. Dato però che non è necessario prendere in considerazione questa dipendenza, e possiamo riferire il pendolo a qualsiasi altra cosa (i cui stati naturalmente dipendono dalla posizione della Terra), si crea l’impressione errata che tutte queste cose siano inessenziali. Sì, nell’osservazione del moto pendolare possiamo astrarre da tutti i corpi esterni e scoprire che a ciascuna posizione del pendolo corrispondono nostre sensazioni e pensieri diversi. Il tempo ci appare allora come qualcosa a sé stante, dallo scorrere del quale dipende la posizione del pendolo, mentre i corpi che prima avevamo liberamente preso per riferimento sembrano perdere ogni importanza. Ma non dobbiamo dimenticare che tutte le cose sono in dipendenza reciproca e che noi stessi, con i nostri pensieri, siamo solo una parte della natura. Non siamo in grado di misurare i mutamenti delle cose rapportandoli al tempo. Al contrario il tempo è una astrazione, alla quale arriviamo proprio attraverso la constatazione del mutamento, grazie al fatto che per la dipendenza reciproca delle cose non siamo costretti a servirci di una determinata misura.

Con questa critica del tempo com’è allora possibile definire il moto ed, in particolare, quello uniforme (spazi uguali in tempi uguali) ? Scriverà Mach:  (683)

Chiamiamo uniforme quel moto nel quale incrementi uguali di spazio corrispondono ad incrementi uguali di spazio in un moto di riferimento (la rotazione della Terra). Un moto può essere uniforme solo in rapporto ad un altro. Il problema se un moto sia uniforme in sé è privo di significato.”

Ritornando al tempo, dopo questa definizione di moto uniforme, Mach poteva affermare:  (684)

Allo stesso modo non si può parlare di tempo assoluto (indipendente  da ogni mutamento). Infatti questo tempo assoluto non può essere commisurato ad alcun moto, e perciò non ha valore né pratico, né scientifico. Nessuno può pretendere di sapere alcunché al riguardo di esso. E’ dunque un inutile concetto metafisico  (685) … Ogni oscurità metafisica svanisce quando ci rendiamo conto che la scienza si propone solo di scoprire la mutua dipendenza dei fenomeni.”  

Quanto qui sostenuto rappresenta la completa relativizzazione di ogni processo naturale ed è a questo punto che Mach si sofferma un istante a considerare il ruolo della storia delle scienze, che egli considera importante e scientifico nello stesso momento in cui la storia serve a liberare la scienza stessa dai pregiudizi e dalle ipostatizzazioni. (686)

        Quindi Mach passa a sottoporre a critica i concetti di spazio e moto assoluti riprendendo, tra l’altro, l’esperimento e l’interpretazione che lo stesso Newton dà della secchia ruotante. Dopo aver ricordato i brani in cui Newton, sempre nei Principia, definisce i concetti in esame e descrive l’esperimento della secchia,  (687)  Mach passava a ribadire le sue concezioni sulla relatività di tutti i fenomeni fisici e quindi ad esporre la sua critica: (688)

Se in un sistema di corpi distribuiti nello spazio si trovano masse che si muovono con velocità diverse ed in condizione di poter entrare in rapporto reciproco, allora si verificano delle forze. Quanto grandi siano queste forze, può essere stabilito se si conoscono le velocità, alle quali ogni massa può essere portata. Anche le masse in quiete sono forze, se non tutte le masse sono in quiete … Tutte le masse, tutte le velocità, quindi tutte le forze sono relative. Non esiste differenza tra relativo ed assoluto, che noi riusciamo a cogliere con i sensi. D’altra parte non c’è ragione che ci costringa ad ammettere questa differenza, dato che l’ammissione non ci porta vantaggio né teorico né di altro ordine. Gli autori moderni che si lasciano convincere dall’argomento newtoniano del vaso d’acqua a distinguere tra moto assoluto e moto relativo, non si rendono conto che … la teoria tolemaica e quella copernicana sono soltanto interpretazioni, ed entrambe ugualmente valide. Si cerchi di tener fermo il vaso newtoniano, di far ruotare il cielo delle stelle e di verificare l’assenza delle forze centrifughe.”                                                       

E’ importante a questo punto andarsi a rileggere l’argomento di Newton nel paragrafo 1 del capitolo 1 di questo lavoro, in modo da poter seguire meglio le critiche di Mach:  (689)

Consideriamo i fatti sui quali Newton ha creduto di fondare solidamente la distinzione tra moto assoluto e moto relativo. Se la Terra si muove con moto rotatorio assoluto attorno al suo asse, forze centrifughe si manifestano su di essa, il globo terrestre si appiattisce, il piano del pendolo di Foucault ruota ecc. Tutti questi fenomeni scompaiono, se la Terra è in quiete, e i corpi celesti si muovono intorno ad essa di moto assoluto, in modo che si verifichi ugualmente una rotazione relativa. Rispondo che le cose stanno così solo se si accetta fin dall’inizio l’idea di uno spazio assoluto. Se invece si resta sul terreno dei fatti, non si conosce altro che spazi e moti relativi … Non possiamo dire come sarebbero le cose se la Terra non girasse … I principi fondamentali della meccanica possono essere formulati in modo che anche per i moti rotatori relativi risultino presenti forze centrifughe. L’esperimento newtoniano del vaso pieno d’acqua sottoposto a moto rotatorio c’insegna solo che la rotazione relativa dell’acqua rispetto alle pareti del vaso non produce forze centrifughe percettibili, ma che tali forze sono prodotte dal moto rotatorio relativo alla massa della Terra e agli altri corpi celesti. Non ci insegna nulla di più. Nessuno può dire quale sarebbe l’esito dell’esperimento in senso qualitativo e quantitativo, se le pareti del vaso divenissero sempre più massicce, fino ad uno spessore di qualche miglio. Davanti a noi sta quell’unico fatto.

Anche ora quindi si ha a che fare solo con moti relativi; è la stessa cosa pensare la Terra in quiete e le stelle fisse in rotazione, oppure la Terra in rotazione intorno al proprio asse e le stelle fisse in quiete. Nel primo caso però non v’è più appiattimento della Terra ai poli ed il pendolo di Foucault non oscilla più allo stesso modo. La difficoltà nasce da corme è stata definita la legge d’inerzia che va formulata in altro modo. Come si può vedere la tesi di fondo è molto simile a quella di Berkeley, anche se Mach, con il suo richiamarsi alle stesse fisse, non cade nell’agnosticismo del filosofo statunitense. (690)  Per Mach l’esperimento di Newton ha il solo difetto di essere incompleto; manca la parte che vede il secchio fisso e le stelle fisse messe in rotazione. Il nostro ritiene che Newton non avesse bisogno di introdurre lo spazio assoluto che poi dopo non usa nella sua meccanica. Inoltre, con Berkeley, nel ragionamento di Newton occorre introdurre prima uno spazio assoluto per poi riferire il moto di rotazione ad esso. Qui in realtà Mach non coglie la necessità che aveva Newton di quello spazio che, di fatto, entra nella sua meccanica; il problema era quello di distinguere le forze vere da quelle apparenti e Newton credeva di poterlo fare attraverso la distinzione dei moti relativi da quelli assoluti. Per Mach è conseguentemente inutile introdurre fantasticherie quando è possibile rifarsi ai soli fenomeni. Ed è inoltre inutile, o meglio antieconomico, introdurre strane entità. Per rendere conto dei fenomeni basta osservare che: (691)

“Le leggi newtoniane sui moti dei pianeti restano conformi alla legge d’inerzia anche se questi moti sono riferiti al cielo delle stelle fisse … Constatiamo ancora una volta che il riferimento ad uno spazio assoluto non è per nulla necessario.”

Come dicevamo, è il principio d’inerzia che va riformulato: un dato corpo K, in quiete o in moto, lo sarà ora non rispetto ad un illusorio spazio assoluto, ma rispetto ai corpi costituenti l’universo e cioè le stelle fisse. Inoltre la stessa inerzia del nostro corpo esiste solo in virtù del fatto che vi è altra materia nell’universo. (692)

        Il riferire i moti alle stelle fisse era già presente in Newton ma egli preferì non affidare la sua meccanica ad un qualcosa che poteva avere il carattere del provvisorio: (693)   per questo introdusse lo spazio assoluto. Ma Mach osservava che bisogna rifarsi al fattuale e per ora di spazio assoluto non vi è necessità, mentre disponiamo delle stelle fisse. Con l’avvertenza che:  (694)

fino a che punto l’ipotesi delle stelle fisse possa valere anche in futuro, resta naturalmente da stabilire.”

Insomma la meccanica è nata in un determinato contesto in cui sarebbe stato possibile, secondo Mach, utilizzare criteri antieconomici. Oggi è necessario prendere atto che molte delle affermazioni del passato debbono essere riviste. Gli stessi fondamenti della meccanica, nella visione di Poincaré accettata da Mach, non sono altro che delle “convenzioni che avrebbero potuto essere diverse.

         Del resto, secondo Mach,

Tutta la scienza ha lo scopo di sostituire, ossia di economizzare esperienze mediante la riproduzione e l’anticipazione di fatti nel pensiero. Queste riproduzioni sono più maneggevoli dell’esperienza diretta e sotto certi rispetti la sostituiscono. Non occorrono riflessioni molto profonde per rendersi conto che la funzione economica della scienza coincide con la sua stessa essenza … Non riproduciamo mai i fatti nella loro completezza, ma solo in quei loro aspetti che sono importanti per noi, in vista di uno scopo nato direttamente o indirettamente da un interesse pratico.” (695)

Ma allora, si potrebbe obiettare, come mai, proprio nelle parole dello stesso Mach, una volta la scienza poteva essere antieconomica ? Una possibile risposta sembra adombrare  quanto viene più o meno decisamente negato da molti fisici ed epistemologi del nostro tempo (e non solo): La scienza è determinata dal modo di produzione e, nell’epoca di Mach, in connessione con un enorme sviluppo economico (l’età dell’imperialismo), alla scienza si richiede proprio economicità, efficienza.  (696) Questo concetto è ben espresso dallo stesso Mach nelle ultime pagine della sua Meccanica: (697)

La divisione del lavoro, la specializzazione di un ricercatore in un piccolo dominio, l’esplorazione di questo dominio perseguita come compito di tutta una vita sono condizioni necessarie per un fruttuoso progresso scientifico.” (698)

Ritornando alla concezioni di Mach sulla meccanica ed in particolare ai rapporti di essa con la fisica, il nostro arriva alla conclusione che, in questo contesto di economicità della scienza, occorre smetterla di voler interpretare tutto con la meccanica:

Non esistono fenomeni puramente meccanici. Quando delle masse si comunicano accelerazioni reciproche, in apparenza vi è solo un fenomeno di moto, ma in realtà a questo moto sono legate variazioni termiche, magnetiche ed elettriche che, nella misura in cui si producono, modificano quel fenomeno … Volendo parlare con precisione, ogni fenomeno appartiene a tutti i domini della fisica, che sono distinti l’uno dall’altro per ragioni convenzionali, per ragioni fisiologiche o anche per ragioni storiche.

La concezione secondo cui la meccanica è il fondamento di tutte le altre parti della fisica, e perciò tutti i fenomeni fisici devono essere spiegati meccanicamente, è per noi un pregiudizio. La conoscenza più antica in ordine di tempo non deve necessariamente restare il fondamento dell’intelligibilità di ciò che è scoperto più tardi … Dobbiamo limitarci all’espressione del fattuale senza costruire ipotesi su ciò che sta al di là di questo, e non può essere conosciuto e verificato …

Le ipotesi meccaniciste non costituiscono un effettivo risparmio di concetti scientifici … Quando un’ipotesi ha facilitato per quanto è possibile, l’acquisizione di fatti nuovi sostituendo ad essi idee già familiari, ha esaurito la sua funzione. E’ un errore credere che le ipotesi possano spiegare i fatti meglio di quanto facciano i fatti stessi.”  (699)

         La serrata, puntuale e, molto spesso, profonda critica di Mach alla meccanica ebbe certamente molta influenza sul suo tempo. In particolare le critiche allo spazio, al tempo ed al moto, direttamente od indirettamente, andavano prefigurando i profondi rivolgimenti.che avrebbero scosso la fisica in quegli anni, soprattutto con la nascita e l’affermazione della relatività einsteniana.

         Ma vi sono altri aspetti dell’opera di Mach che non possono essere sottaciuti, anche se non potremo occuparci di essi con lo spazio che richiederebbero.

         Innanzitutto, secondo Mach, la nostra conoscenza del mondo è basata  sulle sensazioni che ci provengono dall’esperienza: alla logica del nostro pensiero sta l’ordinare queste sensazioni in una scienza. Solo con le sensazioni possiamo rapportarci alla realtà, che ci circonda; è con l’esperienza che nasce la conoscenza in quanto l’esperienza ci fornisce le sensazioni da ordinare. I fenomeni sono quindi un insieme di interrelazioni tra l’osservatore e le cose osservate; in qualche modo è la soggettività dell’osservatore che determina il fenomeno (idealismo soggettivo). Anche se Mach più volte afferma che egli non vuole costruire un sistema filosofico, nei fatti, quanto abbiamo ora detto è la negazione dell’esistenza di ogni realtà al di fuori dell’esperienza, è la negazione dell’esistenza del mondo in sé di Kant: quando non possiamo rapportarci al mondo con l’esperienza, che ci fornisce le sensazioni, nulla possiamo dire sull’esistenza del mondo stesso. Questa corrente di pensiero rappresenta uno dei due filoni principali del più generale fenomenismo e va sotto il nome di empiriocriticismo; (700)  esso, per certi versi (economicità della scienza), si richiama al positivismo e, per altri (non esistenza di leggi generali, di fenomeni generali, ma solo di casi particolari), al nominalismo. Mach fu il fondatore ed il principale esponente dell’empiriocriticismo;  (701)  egli, come abbiamo visto, ebbe come obbiettivo principale della sua polemica il meccanicismo e, più in particolare, la sua metafisica materialistica. Ebbene, se da una parte ciò riscosse l’approvazione di molti scienziati e studiosi del suo tempo (e non solo),  (702)  dall’altra il tentativo di assimilare meccanicismo con materialismo e di spostare quindi la polemica contro il. materialismo, trovò diversi e qualificatissimi oppositori tra i quali, Boltzmann, Planck e lo stesso Lenin.  

        C’è un punto da distaccare in quel che abbiamo fin qui detto. La negazione di ogni realtà al di fuori dell’ esperienza porterà Mach a schierarsi su una posizione decisamente antiatomistica. Alla domanda “cos’è un atomo ?”, egli era solito rispondere con “mai visto uno”. Ma, al di là di questo aneddoto, la polemica di Mach era incentrata sul fatto che alcuni atomisti non usavano gli atomi come semplici ipotesi ma assegnavano ad essi una realtà fisica; realtà che, in accordo con le premesse di Mach, doveva essere rifiutata in quanto gli atomi non cadono sotto i nostri sensi. Allo stesso modo, l’assegnare agli elettroni della teoria di Lorentz una realtà era tenacemente combattuto da Mach.  (704)

        Ma la polemica di Mach doveva riguardare ogni aspetto che avesse riguardato il meccanicismo e così anche la causalità, intesa come un tipico strumento di quel meccanicismo che si attaccava su tutti i fronti, divenne soggetto di una dura critica da parte di Mach. (705) Così scriveva Mach: (706)

Quando parliamo di causa e di effetto, noi mettiamo arbitrariamente in evidenza quegli aspetti, sul cui rapporto poniamo attenzione in vista di un risultato per noi importante. Ma nella natura non vi è né causa né effetto … Il carattere essenziale della connessione causa-effetto esiste solo nell’astrazione  che compiamo allo scopo di riprodurre i fatti (707)  … Si può dire che c’è una categoria dell’intelletto sotto la quale è sussunta ogni nuova esperienza, purché si riconosca che essa ha avuto origine dall’esperienza. L’idea della necessità del rapporto causa-effetto ha probabilmente la sua prima origine … dall’osservazione dei nostri movimenti volo ntari e dei mutamenti che provochiamo con essi nell’ambiente circostante … Causa ed effetto sono enti mentali aventi una funzione economica. Alla domanda perché essi esistano, è impossibile rispondere, per il fatto che proprio astraendo da ciò che e uniforme abbiamo imparato a chiedere perché.”

In definitiva, per Mach, la causa indica la necessità di un dato effetto; ma noi non ci imbattiamo mai nelle necessità; esse non ci sono mai offerte dalla natura, esulando dalla nostra esperienza. Secondo Mach, il concetto matematico di funzione  può utilmente  sostituire  l’inesistente  dipendenza causa-effetto.  (708)     

        Concludendo su Mach occorre ricordare che, nonostante il complesso delle sue posizioni, che abbiamo fin qui cercato di riassumere, egli non rinuncia alla possibilità di una visione unificata delle scienze. E, nella sua visione, è la termodinamica, soprattutto là dove introduce il concetto di irreversibilità, estraneo alla meccanica, che può proporsi come possibile fisica unificatrice di tutte le scienze. Ed in questo Mach converge con la tesi di fondo dell’energetica, altro filone del fenomenismo, del quale andiamo ora ad occuparci.

NOTE

(662 bis) Ed oltre al fatto che qui deve essere ricordato: i metodi e gli strumenti della meccanica sono quelli che hanno permesso lo sviluppo della fisica fino a questi livelli.

(662 ter) Citato in bibl. 149, Vol I, pag. 42 2. Sulle concezioni di L. Carnot e di B. de Saint-Venant si può vedere bibl. 6, pagg. 227-230.

(663) Citato in bibl. 149, Vol.I, pag. 423. Il più noto rappresentante di questa scuola, detta scuola del filo, fu il fisico francese J. Andrade (1857–1933) che espose la sua meccanica nelle Lezioni di Meccanica fisica (Parigi, 1898). Anche Jean Perrin, nel suo Traité de chimie physique (1945), aderì alla scuola del filo.

(664) Si veda, allo scopo, bibl.149, pagg.426-428. Si veda anche bibl.6, pagg.235-237. 

(665) Si veda la nota 355 al paragrafo 7 del capitolo III.

(666) Ambedue riportati in bibl. 99. Gli opuscoli sono le trascrizioni di due conferenze.

(667) Soprattutto per quel che riguarda il carattere relativo delle nostre conoscenze.  

(668) Bibl. 99, pag. 27.

(669) Bibl. 56, pag. 278 e segg. Si veda anche bibl. 6, pagg. 237-242.

(670) Ibidem. Si noti che in queste argomentazioni di Hertz vi è polemica nei riguardi della scuola degli energetisti che, all’epoca, si andava diffondendo, come più avanti vedremo.

(671) E mediante l’utilizzazione del principio del minimo sforzo elaborato da Gauss e della teoria dei vincoli nel senso di Lagrange.

(672) L’energia potenziale non è altro che l’energia delle masse nascoste.

(673) Citato in bibl. 149, pag. 432.

(674) L’opera ebbe varie edizioni aggiornate da Mach: dalla 2ª del 1888 alla 7ª, l’ultima curata da Mach, del 1912. L’edizione alla quale farò riferimento è la ristampa della 9ª edizione (l933), curata dal figlio di Mach (bibl. 97).

(675) Bibl. 97, pag. 215.

(676) Ibidem, pag. 220. Si noti che dalla relazione  m1v1 = – m2v2  discende  m1/m2 = – v2/v1 e cioè la proporzionalità inversa di masse e velocità.           

(677) Ibidem, pag. 221.

(678) Ibidem, pagg. 236-237.

(679) Ibidem, pag. 239.

(680) Ibidem, pagg. 239-240.

(680 bis) Alcune delle cose che qui sosterrò traggono ispirazione da un lavoro di M. Bunge, Il tentativo di Mach di ricostruire la meccanica classica, American Journal of Physics, 34; 1966; pagg. 585-596.

(681) Si riveda il paragrafo 1 del Cap. I. Si veda inoltre bibl. 3, pagg. 113-117.  

(682) Bibl. 97, pag. 241.

(683) Ibidem.

(684) Ibidem, pagg. 241-243.  Molte delle cose che Mach afferma sono certamente ispirate a Berkeley (cfr. paragrafo 3 del Capitolo I). Si noti inoltre che una completa relativizzazione del tempo e dello spazio era stata sostenuta anche da Maxwell nella sua maturità (si veda nota 268 al paragrafo 5. Cap. III).

(685) Aggiungeva Mach che “ quando diciamo che il tempo fluisce in una direzione determinata ciò significa semplicemente che i processi fisici (e per conseguenza anche quelli fisiologici) si svolgono in una direzione determinata.

(686) Qualche pagina più avanti (pagg.271-272) Mach sostiene: “La ricerca storica sullo svolgimento che una scienza ha avuto è indispensabile, se non si vuole che i principi che essa abbraccia degenerino a poco a poco in un sistema di prescrizioni capite solo a metà, o addirittura in un sistema di dogmi. L’indagine storica non soltanto fa comprendere meglio lo stato attuale della scienza, ma, mostrando come essa sia in parte convenzionale ed accidentale, apre la strada al nuovo. Da un punto di vista più elevato, al quale si arriva per cammini diversi, si può guardare con una visuale più ampia, e scoprire strade non ancora percorse.”  Per sua stessa ammissione Mach ignorava però la storia della filosofia; riguardo alla storia della meccanica non conosceva completamente il periodo medioevale; Truesdell ha poi mostrato che si serviva di fonti non attendibili (Bunge, in nota 680 bis).

(687) Si riveda il paragrafo 1 del Cap. I. Si veda poi bibl.3, pagg. 121-126.

(688) Bibl. 97, pagg. 245-246.

(689) Ibidem, pagg. 248-249.

(690) Mach respingerà ripetutamente l’accusa di berkeleysmo (si veda ad esempio in ibidem, pag. 493).

(691) Ibidem, pagg. 249-250.

(692) Ibidem. Secondo Mach, le forze inerziali che nascono in sistemi accelerati discendono da una interazione con le stelle fisse. Le forse centrifughe che nascono dentro una piattaforma in rapida rotazione sono dovute alle stelle fisse. Se nell’universo non vi fossero queste masse, spari rebbero le forze inerziali e lo stesso parlare di rotazione non avrebbe più alcun significato. L’insieme di questa formulazione di Mach del principio d’inerzia fu chiamato da Einstein Principio di Mach. Si osservi che a Mach è dovuto anche il riconoscimento che il principio d’inerzia e la 2ª legge della dinamica  “sono già contenute nella definizione della forza, secondo la quale senza forza non si ha accelerazione e quindi si ha quiete o moto rettilineo uniforme” (ibidem, pag 261).

(693) Come già detto, il fatto che le stelle fisse non sono fisse fu scoperto da  Halley nel 1718.

(694)  Ibidem, pag. 250.

(695) Ibidem, pagg. 470-471. Qualche riga più avanti Mach introduce un elemento che sarà poi la base delle sue concezioni e sul quale torneremo: “ Non le cose (i corpi), ma piuttosto i colori, i suoni, le pressioni, gli spazi, le durate (ciò che di solito chiamiamo sensazioni) sono i veri elementi del mondo.”                                                 

(696) Anche l’economista britannico Adam Smith (1723-1790) fondatore del liberismo economico, aveva sostenuto concetti simili a proposito dell’economia della scienza. La cosa e’ ricordata dallo stesso Mach in ibidem, pag. 481.

(697) Ibidem, pagg. 493-494.

(698) Le cose oggi funzionano proprio così. Rimane un interrogativo, per me retorico, chi tira le fila del tutto e a quali fini ? Poiché solo a pochi è concesso il privilegio di credere alle curiosità della scienza, ai più resta l’amarezza di vedere schiere di scienziati che lavorano per lo sfruttamento e per la guerra.

(699) Ibidem, pagg. 484-487.  

(700) L’altro filone del fenomenismo è quello dell’energetismo del quale ci occuperemo nelle pagine seguenti.

(701) Un altro nome che si associa all’empiriocriticismo è quello del fisiologo  e filosofo fenomenista tedesco R. Avenarius (1843-1896) il quale, partendo da presupposti diversi (tentativo di porre la filosofia come unificatrice ad un livello superiore di tutte le scienze e di fornire ad essa una base oggettiva analoga alla scienza), converge con alcune delle tesi di Mach. L’opera principale di Avenarius (bibl. 154) è Critica dell’esperienza pura (1889-1890).

(702) Si può citare ad esempio il fatto che i neopositivi viennesi intitoleranno a Mach il loro Circolo (1929). Alle idee di Mach si ispirerà anche la Scuola di Copenaghen (1926) alla quale faranno capo Bohr, Heisenberg, Jordan, Born e che vedrà come oppositori Planck, Einstein, De Broglie, Schrodinger. Infine anche il pragmatismo che si sviluppò negli Stati Uniti ad opera principalmente di H. James (1842-1910) si ispirerà alle vedute economicistiche di Mach.

(703) Di Boltzmann ci occuperemo più oltre, accenniamo ora alle polemiche di Planck (da una parte) e Lenin. (dall’altra) contro Mach e l’empiriocriticismo. Planck, in un suo scritto del 1908, L’unita’ dell’immagine fisica del mondo (bibl.l53, pagg.11-43), sostenne che se si dovessero accettare le idee di Mach, “ l’adattamento economico del nostro pensiero alle nostre sensazioni“, ne conseguirebbe che “ogni fisico coscienzioso dovrebbe aver cura di distinguere la propria immagine del mordo, come cosa concettualmente unica ed isolata, da quella di tutti gli altri, e se per caso due suoi colleghi eseguendo indipendentemente l’uno dall ‘altro lo stesso esperimento ritenessero di essere giunti a risultati opposti, come talvolta succede, commetterebbe un errore di principio se volesse concluderne che almeno uno dei due è in errore. Il contrasto potrebbe essere infatti dovuto alla differenza del loro modo di vedere il mondo. Io non credo che un vero fisico potrebbe mai cadere in cosi strani sofismi.” (ibidem, pag. 39).

Mach obietterà in un articolo del 1910, I pensieri direttivi della mia teoria della conoscenza scientifica e la loro accoglienza presso i contemporanei (Scientia, fasc.2; 1910; pag. 225 e segg.), che quanto sostenuto da Planck non intacca la sua teoria della conoscenza ed inoltre che lo stesso Planck non ha nemmeno la capacità di collaborare alla medesima teoria della conoscenza fisica.

Planck replicò con un nuovo articolo del 1910, Intorno alla teoria di Mach sulla conoscenza fisica (bibl. 117, pagg. 84-92), nel quale sostenne:

Ancora al tempo della mia permanenza in Kiel (1885-1889), mi annoveravo tra i partigiani risoluti della filosofia di Mach, che, come volentieri riconosco, ha esercitato una forte azione sul mio pensiero fisico. Ma più tardi mi sono allontanato da essa, perché ero giunto alla convinzione che la filosofia della natura di Mach non è in grado in alcuna maniera di mantenere la brillante promessa che gli ha guadagnato la maggior parte dei suoi seguaci: l’eliminazione di ogni elemento metafisico dalla teoria della conoscenza fisica.” (ibidem, pag.85). Come esempio Planck va a discutere il concetto stesso di economia della scienza. “ La scienza fisica, come ognuno riconosce, è nata dai bisogni pratici; dunque, conclude Mach, la conoscenza fisica è, in fondo, di natura economica“; ma Mach aggiunge che “l’economia di pensiero non è per questo limitata e legata nei suoi fini alla ricerca di bisogni economici pratici nuovi.” A questo osserva Planck: “Non è possibile, prima, rappresentare il principio dell’economia come un trionfo contro la metafisica con l’appello esplicito al suo significato pratico umano, e poi in seguito, quando la cosa così non va più, negare di nuovo esplicitamente l’aspetto pratico umano dell’economia” e aggiunge: « L’economia di pensiero nei suoi fini non è legata ai bisogni pratici umani ! Già, a quali altri bisogni allora ?” arrivando a rigettare su Mach l’accusa di fare della metafisica, “ oso affermare che il concetto di economia perde il suo primitivo significato e si trasforma senz’altro in uno metafisico” (tutte le citazioni provengono da ibidem, pag.86).

Più oltre poi Planck sostiene che nessun contributo alla fisica potrà venire dalle idee di Mach, andando infine a discutere alcune sue affermazioni in ambito fisico ritenute imprecise o addirittura errate.

In uno scritto più tardo, Positivismo e mondo esterno reale (1930), Planck, riferendosi alle teorie dei neopositivisti ma anche a queIle di Mach, sosterrà che per fondare una vera scienza è necessario servirsi delle esperienze di più ricercatori i quali dovranno comunicarsi i risultati. “Le esperienze sensibili altrui ci sono date infatti secondariamente attraverso informazioni. Qui si insinua dunque nella definizione della scienza un nuovo fattore; l’attendibilità e la sicurezza delle informazioni, e con ciò viene già ad essere logicamente rotta in un punto quella che è la base del positivismo, l’esigenza cioè che il materiale scientifico sia costituito da dati immediati” (bibl. 153, pag. 223).

      Per quel che riguarda Lenin, egli, nel 1909, darà alle stampe un volume tutto centrato sulla polemica con Mach e soprattutto con i suoi seguaci. Si tratta del noto Materialismo ed empiriocriticismo (bibl.156) sul quale non possiamo che dire due parole rimandando, ad esempio, a bibl. 78 e a bibl. 53, pagg. 170-192.

      Certamente, osserva, Lenin, il meccanicismo è pericoloso per il sostegno che esso fornisce al materialismo dogmatico, ma ancora più pericoloso è il fenomenismo che porta alla metafisica, al fideismo, all’irrazionalismo.

      Al materialismo meccanicistico e dogmatico ed al fenomenismo, Lenin contrappone il materialismo dialettico (là dove la sottolineatura, ad opera dello stesso Lenin, è solo sul dialettico), già definito da Engels (bibl. 103), che offre una visione del mondo estremamente articolata in una serie di nessi e processi. Lenin distingue scienza da ideologia (alla prima assegna la conoscenza del mondo ed alla seconda l’organizzazione di esso) ed afferma il carattere relativo di qualunque conoscenza. Per concludere si tenga conto che l’analisi critica di Lenin va vista strettamente legata al suo tempo.

(704) In proposito Planck osserverà (bibl.153, pag.40) “ Debbo esplicitamente dichiarare che ritengo ingiustificati ed insostenibili gli attacchi mossi da quella parte contro l’ipotesi atomica e la teoria degli elettroni. Anzi a queste obiezioni io oppongo la recisa affermazione … che gli atomi, anche se noi non sappiamo nulla sulla loro intima natura, sono reali né più né meno che i corpi celesti e gli oggetti terrestri che ci circondano. Quando io dico che l’atomo d’idrogeno pesa 1,6.10-24 g non ho maggiori probabilità di sbagliare che quando dico che la Luna pesa 7.1025 g. Certamente non posso mettere un atomo di idrogeno sulla bilancia e non lo posso vedere, ma non posso mettere su un piatto di bilancia nemmeno la Luna, e, quanto al vedere, è noto che ci sono dei corpi celesti invisibili la cui massa è stata misurata con discreta precisione: fu misurata perfino la massa di Nettuno, prima ancora che gli astronomi lo cogliessero nell’obiettivo dei loro telescopi.”

Si osservi che Boltzmann interverrà in termini addirittura accorati in difesa delle concezioni atomistiche (come vedremo più oltre). Ed ancora relativamente a Planck, c’è da osservare che egli, pur partito da posizioni critiche nei riguardi delle concezioni statistiche di Boltzmann, già nel 1896 diventerà un duro critico delle posizioni dell’energetismo (si veda più oltre) sostenendo che è arrivato “alla conclusione irrefutabile che la nuova energetica manca di una qualsiasi base dotata di serietà; che le sue semplici dimostrazioni, quelle stesse a cui i suoi sostenitori danno grande importanza, non sono che delle apparenze di dimostrazioni, che esse non affrontano i veri problemi e ancora di più non sanno contribuire a risolverli.” (Citato in bibl. 54, pag. 246).

(705) Oltre a quanto qui diremo si può vedere anche cosa sostiene Robert Musil nella sua tesi di dottorato (bibl. 151, pagg. 47-66).

(706) Bibl.97, pagg.472-473.

(707) Come lo stesso Mach ricorda, il primo a porre questa questione fu lo storico e filosofo britannico D. Hume (1711-1766).

(708) Osserviamo a parte che ulteriore conseguenza della non esistenza di una realtà al di là dell’esperienza, in connessione col fatto che ci rapportiamo al mondo con le nostre sensazioni, fa concludere a Mach che non esistono leggi scientifiche definitive; ed in questo contesto non ha alcun senso parlare, come fa Newton, di esperimenti cruciali.

(709) Altri aspetti dell’opera di Mach sono messi in evidenza da vari autori. In particolare:

P. Frank tratta del rapporto tra Einstein, Mach ed il positivismo logico (bibl. 168, pagg. 219-236).

T. Hirosige tratta delle influenze di Hume and Mach sul pensiero di Einstein (bibl. 124, pagg. 56-57).

G. Holton si occupa di Mach, Einstein e la ricerca della realtà (bibl. 127, pagg. 164-203).

K. R. Popper si occupa di Berkeley quale precursore di Mach ed Einstein (bibl. 14, Vol. I, pagg. 287-391).

G. Lenzi tratta, tra l’altro, di Mach fisico sperimentale e didattico (bibl. 157, pagg. 3-8).

Infine brani originale di Mach su argomenti diversi sono riportati in bibll. 54, 56, 85.

Di passaggio ricordo che Mach, pur rimanendo molto ben impressionato dal tentativo di Hertz di costruire una nuova meccanica, criticherà la cosa perché la riterrà troppo astratta (bibl. 97, pagg. 272-277). Analogamente Hertz avrà modo di criticare il fenomenismo di Mach.

NOTE RELATIVE ALL’ARTICOLO SU HERTZ

(1) Un’altra delle conseguenze sperimentali delle equazioni di Maxwell riguardava la cosiddetta ‘pressione di radiazione’, Poiché alla luce, come onda elettromagnetica, veniva assegnata una quantità di moto, doveva discendere come conseguenza una pressione che la radiazione esercitava sulla materia. Per approfondire questo aspetto si può vedere R. Renzetti, La pressione della luce, La Fisica nella Scuola, 3, 1991.

(2) Intorno al 1875 la situazione nell’ambito dell’ottica, ed in particolare quella dei corpi in movimento, era la seguente: – la teoria ondulatoria della luce aveva avuto il suo riconoscimento ufficiale. Le misure di velocità della luce di Fizeau avevano corroborato la spiegazione che la stessa teoria ondulatoria dava della rifrazione ammettendo che la luce avesse minore velocità nei mezzi meno densi (contrariamente a quanto ammetteva la teoria corpuscolare). La teoria ondulatoria elaborata da Fresnel – 1818 – con l’ammissione di propagazione della luce per onde trasversali aveva spiegato – almeno al primo ordine di v/c – tutti i fenomeni ottici fino ad allora noti tra cui l’esperienza di Arago – 1810 – che dimostrava la non influenza del moto orbitale della Terra sulla rifrazione della luce proveniente dalle stelle – fatto che risultava in contrasto con la teoria corpuscolare della luce medesima. Per conseguire tale risultato Fresnel aveva dovuto ammettere un trascinamento parziale dell’etere da parte dei corpi in moto all’interno del medesimo. Questo trascinamento doveva dipendere dall’indice di rifrazione n della sostanza attraverso la quale si propaga la luce con una velocità data dalla formula: w = c/n ± v(1 – 1/n2), dove la quantità 1 – 1/n² è il coefficiente di trascinamento dell’etere e v è la velocità di spostamento del mezzo rispetto all’etere immobile (una tale relazione fu verificata sperimentalmente da Fizeau al primo ordine di v/c);

– l’etere, indifferente nella fisica di Newton (questi sembra propendere per una sua esistenza nel sistema solare ma certamente non lo pensa esteso all’infinito), acquista negli anni sempre maggiore importanza sembrando indispensabile sostegno alle ‘vibrazioni della luce’ che ora entravano anche per via elettromagnetica.

– la teoria dell’etere immobile (che qualcuno voleva identificare con lo spazio assoluto di Newton e lo voleva come riferimento assoluto) spiegava bene il fenomeno dell’aberrazione (nel corso di un anno le stelle, osservate dalla Terra, descrivono delle piccole ellissi nella volta celeste; il fenomeno fu scoperto da Bradley nel 1728) ma non riusciva a spiegare una serie di fenomeni diversi tra cui l’esperienza di Arago e quella di Airy (misura della velocità della luce mediante un cannocchiale riempito d’acqua);

–la teoria del trascinamento totale dell’etere (Stokes, 1845) incontrava delle difficoltà nella spiegazione dell’aberrazione e risultava in disaccordo con le misure di Fizeau (misura della velocità della luce in un mezzo trasparente in moto);

-la fusione dell’etere ottico con l’etere elettromagnetico rese sempre più urgente la sua ricerca sperimentale insieme a quella delle sue presunte proprietà e dei suoi rapporti con la materia in moto;

–l’Accademia delle Scienze di Parigi invitava i ricercatori a lavorare in questo senso;

-si andava diffondendo la coscienza che il problema era ormai quello di ricercare effetti del secondo ordine in v/c (e qui ritorniamo alla lettera che Maxwell indirizzò a Todd e che fu pubblicata postuma su Nature nel 1880: in essa Maxwell affermava “ … nei metodi terrestri per la determinazione della velocità della luce, la luce stessa torna indietro sempre lungo la stessa traiettoria, così che la velocità della Terra rispetto all’etere dovrebbe alterare il tempo necessario per il doppio passaggio di una quantità che dipende dal quadrato del rapporto tra la velocità della Terra e quella della luce [effetto del secondo ordine]: il quale è un valore troppo piccolo per poter essere osservato …”);

–di lì a poco lo statunitense Michelson avrebbe realizzato l’esperienza auspicata da Maxwell.

(3) Allo scopo e per le implicazioni connesse si veda anche bibl. 3, pag.231. Si noti che anche la polarizzazione statica dei dielettrici, così come era stata osservata da Faraday, andava a sostegno della teoria di Maxwell.

(4) Lo stesso Helmholtz sosterrà: “Le due teorie [la sua e quella di Maxwell] sono in un certo senso l’una il contrario dell’altra …” (bibl.4, pag. 13, nota 2).

(5) I brani riportati dell’articolo di Helmholtz in oggetto, Uber die Bewegungsgleichungen der Elektricitact fur ruhende leitende Korper sono citati in bibl. 2 , pag. 250.

(6) Si veda l’Introduzione dello stesso Hertz alla sua opera Electric Waves, bibl. 1, pag. 1.

(7) Anche il Maxwell che in seguito fu letto da Hertz, per stessa ammissione di quest’ultimo, gli risultava abbastanza oscuro: “Non sono mai stato sicuro di aver compreso il significato delle sue affermazioni “ (ibidem, pag. 20). Si noti a parte la grande potenzialità che ha l’indeterminatezza logica di una teoria (in questo caso quella di Maxwell).

(8) Bibl. 3, pag. 232.

(9) Bibl. 1, pag. 1.

(10) Uber die Beziehungen Zwischen den Maxwellsuchen electrodynamischen Grundgleichungen und den Grundgleichungen der gegner Elektrodynamik, Wiedemann’s Annalen, 23, 1884,pagg.84-103.

(11) Occorreva disporre di un campo elettrico che variasse con grande frequenza. In questo modo, a maggiore frequenza di variazione del campo elettrico, corrisponde una maggiore frequenza di variazione del campo magnetico concatenato e pertanto una maggiore induzione. Se poi l’intensità del campo elettrico è grande si ottiene un’induzione ancora maggiore e, in definitiva, una maggiore variazione della polarizzazione.

(12) Questo fatto era già stato segnalato da F. Savary nel 1827, da J. Henry nel 1842 e da Helmholtz nella sua famosa memoria del 1847, Uber die Erhaltung der Kraft (Sulla conservazione della forza). Tra il 1853 ed il 1856, Kelvin risolse teoricamente il problema trovando le condizioni di oscillazione, la frequenza e lo smorzamento in funzione della capacità C della bottiglia di Leida, della resistenza R e del coefficiente di autoinduzione L del circuito [la resistenza R minore della radice del rapporto dell’induttanza L e la capacità C]. Tra l’altro Kelvin dimostrò analiticamente che la frequenza  delle oscillazioni di una bottiglia di Leida (la radice del rapporto di L su C) è grandissima (dell’ordine di grandezza dei raggi infrarossi da poco scoperti) anche se più piccola di quella della luce [la frequenza è proporzionale, con costante di proporzionalità che vale ½ p per la radice del prodotto dell’induttanza L per la capacità C].

(13) Le oscillazioni prodotte da una bottiglia di Leida, nel caso migliore, hanno una lunghezza d’onda dell’ordine del chilometro. Era pertanto impossibile che la scarica, con l’energia che può fornire una tale bottiglia, fosse rilevabile alla distanza di 1 chilometro. Inoltre era impossibile misurare la lunghezza di una tale onda all’interno di un piccolo laboratorio.

(14) In una conferenza in cui trattò di Collegamenti tra luce ed elettricità. Bibl. 6, pag.81.

(15) Uber sehr schnelle elektrischen Schwingungen, Wiedemann’s Annalen, 31, 1887, pag. 421. I lavori di Hertz sono raccolti in tre volumi: 1) Gesammelte Werke , Lipsia, 1914; 2) Electric Waves, New York, 1962; 3) The principles of Mechanics, New York, 1956. La memoria del 1884, già citata, è nel volume 1; quella in oggetto (1887) è nel volume 2. La traduzione qui riportata è tratta da bibl. 11, Vol. III, pag. 224.

(16) Dalla conferenza citata in nota 14. Si noti che Hertz si serviva anche di un oculare per osservare le scintille nello spinterometro M.

(17) Si noti che, in accordo con la teoria di Maxwell, la presenza di scintille in M in un caso e l’assenza nell’altro può essere interpretato come conseguenza del fatto che le perturbazioni elettromagnetiche sono dotate di grande regolarità e si propagano con velocità finita.

(18) Nel portare avanti queste sue ricerche Hertz si imbatté nell’effetto fotoelettrico originato dalla presenza di luce ultravioletta nelle scintille del primario. Egli descrisse il fenomeno, che tra l’altro si presentò come una complicazione sperimentale, nella memoria On an Effect of Ultraviolet Light Upon the Electric Discharge, Wiedemann’s Annalen, 31, 1887,pag. 983. Per approfondire questo aspetto vedi: R. Renzetti, Venti anni di effetto fotoelettrico, La Fisica nella Scuola, 3, 1992.

(19) Bibl. 1, pagg. 4-5.

(20) On Electromagnetic Effects Produced by Electrical Disturbances in Insulators, Sitzungsber. d. Berl. Akad. d. Wiss.(10 novembre 1887). Riportata in bibl. 1, pagg. 95-106.

(21) Bibl. 1, pagg. 7 e sgg.

(22) Ibidem. La traduzione di questo brano è tratta da D’Agostino, bibl. 4, pag. 5. Nel seguito mi servirò ancora della traccia suggerita da questa referenza.

(23) Una stimolante discussione sul diverso significato che Hertz ed Helmholtz annettevano alla ‘terza ipotesi’ si trova in bibl. 4, pagg. 5-13 ed in bibl. 5, pagg. 311-321.

(24) Bibl. 1, pag. 6. Si deve notare che fino ad allora Hertz aveva interpretato le scintille che si producevano nel rivelatore come un normale effetto d’induzione alla Faraday. Ma l’induzione agisce a breve distanza! Hertz si rese quindi conto di trovarsi dinanzi ad un fenomeno diverso.

(25) Ibidem, pag. 7.

(26) On the Finite Velocity of Propagation of Electromagnetic Action, Wiedemann’s Annalen, 34, 1888, pag. 551. Riportato in bibl. 1, pagg. 107-123.

(27) Secondo la strumentazione di Hertz il cambiamento di segno si sarebbe dovuto avere ogni 2,8 metri. Si ricordi che già era noto che le onde in un cavo viaggiano con velocità finita.

(28) La tecnica di rivelazione è alquanto complicata e mostra l’alto grado di sofisticazione di questa esperienza. Una descrizione di una tale tecnica si può trovare in bibl. 2, pagg. 272-285.

(29) Serviva il periodo di oscillazione del primario perché Hertz calcolava la velocità dell’onda nel cavo mediante la distanza tra i ventri ed i nodi dell’onda stazionaria (lunghezza d’onda) divisa per il periodo di oscillazione del primario. Si noti che, sempre nel 1890, E. Lecher fece delle misure che fornivano un valore approssimato al 2% di quello della velocità della luce. Nel 1893, a Ginevra, E. Saracin e L. de La Rive mostrarono definitivamente che la velocità delle onde elettromagnetiche nei cavi e nell’aria è la stessa.

(30) Obiezioni sulla liceità dell’intera esperienza furono mosse da L. de La Rive e da Poincaré: gli effetti misurati potevano essere di origine strumentale. Certamente un difetto dell’esperienza stava nel disporre di un primario che forniva oscillazioni fortemente smorzate (a causa, ad esempio, dell’irraggiamento) e quindi non armoniche.

(31) Bibl. 1, pag. 11. Si noti che le riflessioni delle onde, da tempo già osservate da Hertz, erano state da lui trascurate quando si muoveva nel contesto della teoria di Helmholtz.

(32) On Electromagnetic Waves in Air and Their Reflection, Wiedemann’s Annalen, 34, 1888, pag. 610. Riportato in bibl. 1, pagg. 124-136. On Electric Radiation, Wiedemann’s Annalen, 36, 1889, pag. 769. Riportato in bibl. 1, pagg. 172-185.

(33) Occorre notare che tra il 1893 ed il 1896 le esperienze di Hertz furono perfezionate da A. Righi il quale si servì di un oscillatore in grado di produrre onde a frequenza più elevata e quindi più vicina a quella della luce. I risultati dei lavori di Righi furono pubblicati in un’opera il cui titolo è un vero compendio del suo contenuto, L’ottica delle oscillazioni elettriche, 1897.

(34) The Forces of Electric Oscillations, Treated According to Maxwell’s Theory, Wiedemann’s Annalen, 36, 1889, pag. 1. On the Fundamental Equations of Electrodynamics for Bodies at Rest, Wiedemann’s Annalen, 40, 1890, pag. 577. On the Fundamental Equations of Electrodynamics for Moving Bodies, 41, 1890, pag. 369. Tutte queste memorie sono riportate in bibl. 1 rispettivamente alle pagg. 137-159; 195-240; 241-268. Si noti che le elaborazioni teoriche sull’irraggiamento del dipolo rettilineo di Hertz, presenti nella prima di queste tre memorie, serviranno di base per i conti che molti teorici elaboreranno nel futuro. In particolare Planck partì da qui per i suoi studi sull’irraggiamento del corpo nero. Si noti ancora che la provata identità di luce ed onde elettromagnetiche con il fatto che queste ultime si possono produrre con correnti oscillanti, apre a due nuovi problemi:come si produce la luce dagli atomi costituenti i corpi e come fa la luce a trasmettersi attraverso i corpi trasparenti. (35) Si noti che a risultati dello stesso tipo era arrivato G.F. Fitzgerald nel 1883.

(36) Bibl. 1, pag . 195.

(37) Valga questo periodo a conferma di quanto dicevo più su: in realtà questa non era la posizione di Maxwell ma di Helmholtz. Si veda anche quanto sostiene Rosenfeld (bibl.8, pag. 1665) e D’Agostino (bibl.4, pag. 9).

(38) Si noti che assegnare questa posizione a Maxwell significa ammettere che la teoria di Maxwell risulta un caso limite di quella di Helmholtz.

(39) I due esempi che Hertz porta a giustificazione di questa frase sono in bibl. 9, pag. 189. Si osservi comunque che il punto chiave da cui Hertz parte è la polarizzazione del dielettrico.

(40) Agli stessi risultati, come già accennato, era giunto O. Heaviside nel 1885. Si noti che Hertz dimostra anche l’accordo di queste equazioni con la conservazione dell’energia.

(41) Soprattutto per le conseguenze metodologiche che aprirono la strada ai lavori di Einstein.

(42) Bibl. 9, pag. 201. E’ da notare che vengono accantonati tutti i problemi riguardanti la costituzione dell’etere. Quest’ultimo rimane come la sostanza materiale che sostiene il campo; le proprietà fisiche dell’etere permettono di spiegare i fenomeni ottici ed elettromagnetici e potranno dare una spiegazione anche del comportamento della materia ordinaria in fenomeni come l’inerzia e la gravità.

(43) Bibl. 1, pag. 28. La traduzione è tratta da bibl. 7, pagg. 212-213. (44) Ibidem, pag. 25. Ad esempio i campi elettrici nel vuoto sono considerati come polarizzazioni dell’etere e, conseguentemente, la carica elettrica del vuoto è data dallo stato di polarizzazione dell’etere. Ed ancora con la polarizzazione dell’etere si identifica la corrente di spostamento di Maxwell.

(45) Bibl. 4, pag. 10.

(46) Si notino i primi passi in direzione dei lavori di Einstein.

(47) Ciò corrisponde a quanto dicevo qualche riga più su: non c’è distinzione, in Hertz, tra materia e forza.

(48) Si veda nota 2. La possibilità che sembrava più promettente non era né l’una né l’altra delle due che Hertz discute; si trattava invece del trascinamento parziale di Fresnel-Fizeau.

(49) Bibl. 1, pag. 242. Si osservi che la teoria di Hertz dava risultati soddisfacenti nel caso di conduttori in moto; là dove cadeva in difetto era nel caso di dielettrici in moto.

(50) Bibl. 1, pag. 246. La traduzione di questo brano è tratta da bibl. 10, pagg. 89-90. Si noti che il metodo di deduzione di Hertz delle equazioni di Maxwell per i corpi in moto, si serviva del concetto di ‘derivata convettiva’ (ibidem) da lui introdotto per rendere conto degli effetti di variazione del campo magnetico su un conduttore in moto e dovuti allo spazio circostante il conduttore stesso.

(51) Bibl. 10, pagg. 90-91. Occorre sottolineare di nuovo, in relazione al punto f, che la teoria di Hertz può essere applicata solo nell’ipotesi di esistenza di etere e di suo trascinamento totale. Di conseguenza essa non può essere applicata allo spazio vuoto ed indipendentemente da ipotesi sullo stato di quiete o di moto dell’etere medesimo.

——————————————————-

BIBLIOGRAFIA RELATIVA AI LAVORI DI HERTZ

1) H. HERTZ, Electric Waves, Dover, New York (1962).

2) W. BERKSON, Fields of Force, Ediz. in spagnolo Alianza, Madrid (1981).

3) S. D’AGOSTINO, Heinrich Hertz e la verifica della teoria elettromagnetica di Maxwell, Giornale di Fisica, 3, 1974.

4) S. D’AGOSTINO, Hertz e Helmholtz sulle onde elettromagnetiche, Scientia, 106, 1971.

5) S. D’AGOSTINO, Hertz’s Researches on Electromagnetic Waves, Historical Studies in the Physical Sciences, R. Mc Cormmack Ed., 1975.

6) S. D’AGOSTINO, L’elettromagnetismo classico, Sansoni, Firenze (1975).

7) C. DE MARZO, Maxwell e la fisica classica, Laterza, Bari (1978).

8) L. ROSENFELD, The Velocity of Light and the Evolution of Electrodynamics, Supplemento al Nuovo Cimento, Serie X, Vol. IV, 1956.

9) T. HIROSIGE, Origins of Lorentz Theory of Electrons and the Concept of the Electromagnetic Field, Historical Studies in the Physical Sciences, R. Mc Cormmack Ed., 1969.

10) S. PETRUCCIOLI, C. TARSITANI, L’approfondimento della conoscenza fisica dall’affermazione delle concezioni maxwelliane alla relatività speciale (1890-1905), Quaderni di storia e critica della scienza, 4, Domus Galileiana, 1974.

11) AA. VV., Storia generale delle scienze, Casini, 1974.

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: