Fisicamente

di Roberto Renzetti

Roberto Renzetti

CAPITOLO IV

1  –  LA RIPRESA DELLO SVILUPPO CAPITALISTICO A PARTIRE DAL 1848: VICENDE POLITICO-ECONOMICO-SOCIALI IN CONNESSIONE CON LO SVILUPPO TECNICO-SCIENTIFICO  (438)

       Abbiamo già accennato nel paragrafo 1 del precedente capitolo che la borghesia industriale è la detentrice del potere economico intorno alla metà del secolo XIX.  Le vicende  del  ’48 non fanno altro che  sancire  questa egemonia a livello politico. La. Restaurazione delle classi aristocratiche e latifondiste è  dovunque battuta e,  nonostante  una  profonda crisi  economica che  si abbatte sull ‘Europa, il terreno è preparato per l’ imponente balzo in avanti indicato comunemente come seconda rivoluzione industriale.  

       Dopo il ’48 si sente il bisogno di un generale riassestamento dei sistemi politici ed economici dei vari Stati che passa attraverso un più decisivo ridimensionamento degli strati sociali più conservatori.

       ” Lo sviluppo capitalistico ha ormai bisogno di una struttura politica liberal-democratica, dell’unificazione dei mercati nazionali, di un. sistema economioo liberistico, di un aumento delle disponibilità finanziarie e monetarie. Nel ventennio che segue il 1848,  infatti,  prendono consistenza o si compiono i processi di unificazione nazionale (in particolare della Germania intorno alla Prussia e dell’Italia intorno al Piemonte); le borghesie nazionali incrementano gli investimenti all’estero, aboliscono le misure protezionistiche allargando e consolidando un’area internazionale di libero scambio, che incoraggia l’attività imprenditoriale, cui il temporaneo rialzo dei prezzi ed anche  l’attività   bellica  forniscono  un  consistente  sostegno;   si   sperimentano nuove forme di credito e si sviluppa un sistema bancario solido e compatto. Il trattato commerciale franco-britannico del 1860 ispirato alla libertà di commercio è  seguito da tutta una serie di trattati aventi analoga ispirazione.”  (439)  Matura anche l’esigenza di superare la crisi economica mediante una ripresa della  produzione  per  portarla  a  livelli  superiori  a  quelli,  pure importantissimi, del passato. D’altra parte le aperture doganali impongono una ristrutturazione industriale finalizzata alla penetrazione, in regime di concorrenza, sui mercati esteri e, contemporaneamente, alla. difesa dei prodottti nazionali  da  quelli  di  importazione.  Si  impone  quindi  un  nuovo  balzo  tecnologico che trasformi l’industria, facendole superare i ristretti limiti che le erano imposti dal ferro e dal vapore su cui essa essenzialmente  si fondava. Occorre inventiva, non più osservare, descrivere e sottoporre a trattamento teorico dei fenomeni, ma prefigurarli ed inventarli; la metodologia di ricerca deve mutare:  l’uso delle  ipotesi,  dei  modelli  e delle  analogie  si  fa  sempre più  spinto,  l’elaborazione  teorica  sempre  più  astratta. In questo  contesto le risposte dei tecnici diventano sempre più  insoddisfacenti; nell’ultima  metà  del  secolo  è  la  scienza  che  si  porrà  come  strumento  formidabile per lo sviluppo della tecnica,  finalizzata alla produzione industriale.  La scienza, sempre più, acquisterà i connotati di scienza applicata e avrà i più importanti  successi  proprio in quei  paesi che come  la Germania, e  gli Stati Uniti cureranno di più questo suo aspetto (attraverso la particolare struttura educativa, attraverso l’istituzione di laboratori di ricerca direttamente inseriti nell’industria, attraverso la promozione da parte dello Stato, attraverso lo stretto legame che si va instaurando tra laboratori universitari ed industria). Si inverte cosi il rapporto scienza-tecnica che fino alla prima metà  del  secolo  aveva visto  quest’ultima.  come  trainante  per  tutti  i  problemi che nascevano  nella produzione industriale ed anche come  suggeritrice  di tematiche all’elaborazione scientifica. Il nuovo ruolo che la scienza acquista, come fattore determinante di un nuovo modo di produzione, comporta una specializzazione sempre più spinta nei vari settori di ricerca, come del resto era richiesto dal tipo di evoluzione che l’industria subiva.

        La produzione di macchine per l’industria era stata, fino alla prima metà dell’Ottocento, la costruzione, ancora essenzialmente di tipo artigianale, di grosse macchine per la grossa industria, con costi molto elevati. Pian piano si affermò una duplice esigenza, da una parte di produrre macchine più piccole che potessero servire alle esigenze dell’industria che oggi chiameremmo piccola e media, (440)  e dall ‘altra di alimentare gli standards di precisione costruttiva, in modo sii rendere intercambiabili alcuni pezzi ed, in definitiva,  in modo da  passare  alla produzione  in  serie.  Quindi  anche  nella costruzione  di  macchine  si  richiede una  specializzazione  sempre  più  spinta da raggiungersi con il  perfezionamento delle macchine utensili,  con l’uso di materiali  più  adeguati  e con un’ingegneria più  accurata.

        Vale la pena soffermarsi un istante sulle piccole macchine e sulla produzione in serie.

        Abbiamo già detto che si sentiva l’esigenza di macchine più piccole e meno costose per lo sviluppo della piccola e media industria che per molti  versi sarebbe diventata un supporto formidabile alla grande industria. In genere quest’ultima delega la costruzione di piccole parti, di accessori, di particolari pezzi, ad una industria più piccola che per ciò stesso diventa satellite della prima. Ma se il ritmo di produzione delle due è sfasato, se cioè la grande industria produce più in fretta perché ha a disposizione macchine automatiche più veloci, mentre la piccola industria, essendo ancora  legata a processi artigianali, produce più lentamente, non c’è raccordo possibile. E’ quindi necessario introdurre il nuovo modo di produzione anche in industrie più piccole , da necessario supporto a quelle grandi.

        Una macchina ad aria calda (vapore surriscaldato), dovuta allo svedese J. Ericsonn  (l803-l889)  e basata sul ciclo di Carnot,  fece la sua comparsa nel 1833 ed ebbe una certa diffusione intorno al 1850. Essa fu però abbandonata per la sua scarsa efficienza. Nel 1860 il belga  E. Lenoir (1822-1900) costruì un motore ad accensione elettrica, alimentato da una miscela esplosiva di gas ed aria,  che funzionava come una particolare macchina a vapore. Ebbe subito successo e se ne costruirono molti esemplari.  Nel 1862 il francese A. B. de  Rochas  (1815-1887)  inventa  il  ciclo  a  4  tempi  per  il  motore  a  scoppio. Fondamentali per questa scoperta furono i brevetti degli italiani E. Barsanti (1821-1864) e F. Matteucci (l808-l887), per il motore atmosferico (1854), per il motore bicilindrico  a  gas  (1856),  per  il  motore  a  pistoni  concorrenti  in  un’unica camera di scoppio (1858), per il motore a pistone libero (l859). E’ doveroso notare che i motori Barsanti-Matteucoi furono i primi ad essere accoppiati a delle macchine utensili (cesoia e trapano nelle Officine della Ferrovia a Firenze, 1856) e che solo una non adeguata protezione dei brevetti permise di assegnare ad altri la paternità del motore a scoppio. In ogni caso,  sulla base  del  ciclo  di  de  Rochas, i tedeschi  H.A.  Otto  (l832-l88l)  ed E. Langen (1833-1895) ottengono un brevetto per un motore atmosferico identico (ed addirittura più  arretrato relativamente alla trasmissione del moto)  a quello di Barsanti-Matteucci.  Questo motore ha il pregio di consumare 2/3 meno del motore Lenoir.  ” In dieci anni furono vendute quasi 5.000 macchine atmosferiche da un quarto di cavallo fino a tre cavalli.” (441)  Il  successo fu grandissimo ed aumentò notevolmente quando, nel 1876,  lo stesso Otto costruì  il  famoso  motore  silenzioso  a  quattro  tempi,  alimentato  dalla  solita miscela esplosiva di gas ed aria, che risultava, molto meno pesante ed ingombrante della macchina atmosferica.

        Una caratteristica che mancava ancora alle piccole macchine motrici era la trasportabilità;  infatti  esse  erano  legate,  come  ad  un cordone  ombelicale, alla conduttura del gas.

        Fu l’altro tedesco G. Daimler (l834-1900) che, nel 1883, costruì un leggero e veloce motore a benzina. Ma il motore che doveva avere i più clamorosi sviluppi  (che poi portarono all’automobile) fu brevettato nel 1885, indipendentemente da O. Daimler e C. Benz (1844-1929). Da ultimo, alla fine del secolo (l892), vide la luce il motore con accensione per compressione di R. Diesel  (1858-1913)  estremamente versatile  sia all’uso  in impianti fissi che mobili, sia in impianti della più disparata potenza.  

        Connesso con lo sviluppo dei motori a benzina ebbe un grande incremento la richiesta  di  materia  prima,  il  petrolio,  da cui  la benzina  ed  il  gasolio venivano ricavati. A partire dal 1857, quando in Romania venne perforato il primo pozzo di petrolio e dal 1859 quando iniziarono le prime perforazioni negli Stati Uniti,  la produzione di questa materia prima crebbe sempre di più anche se la sua importanza diventerà fondamentale solo dopo la fine della prima guerra mondiale.

        La richiesta di piccole macchine , a prezzi accessibili, sarà comunque soddisfatta,  come vedremo,  dalle applicazioni  pratiche della scienza elettrica.

        Passiamo ora a discutere brevemente dell’altra esigenza di cui si diceva: l’accuratezza ingegneristica nella costruzione di macchine per permettere 1’utilizzazione di pezzi intercambiabili.

        Le prime macchine a vapore erano state costruite con utensili molto rozzi e con una mano d’opera scarsamente qualificata. Già Smeaton, nel 1760, doveva lamentarsi molto di questo stato di cose; nelle sue macchine, tra cilindro e pistone, c’era uno spazio di circa mezzo pollice  (su un diametro del cilindro di circa 28 pollici). (442)  Questa approssimazione nella costruzione era  responsabile di alte perdite di potenza. Si cercò di porvi rimedio coprendo  la parte superiore del cilindro con uno strato d’acqua ma, nel  progetto di Watt, dovendo la macchina funzionare con cilindro  sempre caldo,  questo  sistema,  non  poteva  essere  adottato.  Ci  furono  quindi  serie  difficoltà  per  la  realizzazione del progetto di Watt che furono superate solo quando J. Wilkinson (1728-1808) riuscì a brevettare (1774) un trapano perfezionato che rese possibile la fabbricazione di cilindri di precisione. Il problema era quindi quello di una sempre maggiore precisione   nella progettazione e,  soprattutto, nelle macchine per la costruzione di macchine.

        Che sulla strada di ricerca di precisione si marciasse dovunque, lo dimostra il fatto che nel 1765 il costruttore francese di armi, Le Blanc, introduce, nel processo di fabbricazione dei moschetti,  l’intercambiabilità dei pezzi. Ciò vuol dire che ogni pezzo deve essere esattamente uguale ad un altro di modo che, in caso di rottura del primo, sia possibile montarne un secondo al suo posto.

         Quindi, via. via, vengono realizzate macchine (443)  sempre più in grado di costruire  pezzi  uguali  tra loro. Questo aspetto non è indipendente però dalla ricerca di materiali sempre più affidabili. Si realizzeranno così acciai sempre più adatti ai fini che si volevano conseguire. E per far questo si dovette anche lavorare sui particolari convertitori per produrli (Bessemer, Siemens, Thomas, Martin,…). (444) Per alimentare questi giganteschi “forni” si ricercano sempre nuove e più affidabili fonti di energia. In tal senso lo sviluppo dell’elettricità è perfettamente funzionale ad ogni esigenza produttiva. L’elettricità gode della proprietà di essere “localmente” controllabile. Non serve cioè avere un generatore nel luogo d’uso, ma basta un cavo per trasportare la fonte di energia dove si vuole (445).  Tutte le realizzazioni, le innovazioni, le scoperte subivano imponenti accelerazioni (ad opera essenzialmente di tedeschi e statunitensi, in connessione con la ripresa dello sviluppo capitalistico dopo le vicende del ’48) nell’ultimo quarto di secolo. L’elettricità in soli 70 anni divenne completamente matura. Ma questo processo riguardò moltissimi altri settori, tra cui quello chimico, a partire dall’industria dei coloranti (446); quello dell’automazione e dei miglioramenti dei rendimenti termodinamici (447); insomma, veramente dovunque, si avanzò in modo da cambiare radicalmente la struttura del mondo produttivo, dei modi di produzione, delle condizioni di vita della gente (448).

          Inizia ad emergere con chiarezza lo stretto legame che l’industria instaura con la ricerca da cui attinge a piene mani. D’altra parte lo stesso mondo scientifico, almeno quello più intraprendente, lavorava direttamente per l’industria (Weber, Kohlraush, Kirchhoff, Kelvin,…)

            Per dare solo un indice di come tutto ciò  rivoluzionò l’intero modo di  produzione  industriale,  si  pensi  che  alla  fine  del  Settecento  (1787) il lavoro nei campi di 19 contadini riusciva a produrre un surplus sufficiente ad alimentare una persona che viveva in città, mentre agli inizi del Novecento (1935) gli stessi 19 contadini riuscivano a produrre un surplus sufficiente ad. alimentare 66 persone che vivevano in città (i dati sono riferiti agli Stati Uniti). Si può quindi ben capire come industrializzazione e meccanizzazione dell’agricoltura dovessero andare di pari passo: sarebbe stato altrimenti impossibile distogliere mano d’opera dai campi per servire alla produzione nell’industria.  

             Ma per lo sviluppo di tutti i ritrovati tecnici che si andavano accumulando era indispensabile una enorme disponibilità di capitali.

” Sul piano finanziario l’immissione di nuovo oro sul mercato e l’introduzione della carta moneta aumentano notevolmente le disponibilità monetarie e, con la caduta del saggio d’interesse, si espande contemporaneamente il volume del credito … Le banche commerciali per azioni, nate in Gran Bretagna, si diffondono rapidamente sul continente, favorendo una grande mobilitò di capitali e una notevole efficienza nell’utilizzazione delle risorse finanziarie.” (449)

Con la crisi poi che graverà su tutta l’Europa a partire dal 1873 fino al 1896 (grande depressione economica dalla quale solo la Germania riuscì ad uscire quasi indenne) “il sistema bancario e finanziario subisce trasformazioni profonde per rispondere alle nuove esigenze: da un lato la domanda di capitali per il dilatarsi delle imprese industriali con ritmi crescenti di innovazione tecnologica, dall’altro la quota, sempre più elevata di investimenti all’estero. Il capitale si da’ così forme nuove: nascono società finanziarie per azioni i cui rappresentanti siedono nei consigli di amministrazione delle aziende ed il cui potere di controllo si esercita a tutti i livelli della vita economica, politica e sociale.” (450)             

          Ma all’interno delle fabbriche non si produceva soltanto con le macchine e con il capitale: occorreva anche la forza lavoro degli operai. Leggiamo in proposito un brano scritto nel 1844 da un industriale tedesco, F. Harkorts:

 ” I grandi capitali sono sorti soprattutto attraverso le colpe delle amministrazioni, dei monopoli, dei debiti pubblici e del deprecato traffico della carta moneta. Essi sono alla base dei giganteschi impianti, conducono alla truffa che va oltre il bisogno, ed. opprimono le piccole officine, mediante le quali, prima, anche chi non era dotato di mezzi poteva farsi una strada con la propria diligenza, con una giudiziosa tendenza all’agiatezza. Con l’introduzione delle macchine, con la suddivisione del lavoro che viene spinta fino all’inverosimile (ad esempio nell’industria degli orologi esistono 102 rami diversi a cui vengono indirizzati i vari apprendisti),  (451) sono necessarie soltanto una forza limitata ed assai poca intelligenze, e con la concorrenza il salario deve essere limitato al minimo indispensabile per restare in vita. Se appena si verificano quelle crisi di sovraproduzione, che sempre si ripetono a breve distanza, le paghe scendono subito al disotto dei limiti minimi; spesso il lavoro cessa completamente per qualche tempo …. Così come stanno ora le cose i fanciulli vengono impiegati soltanto per deprimere le paghe degli adulti; se i minorenni verranno eliminati dalla cerchia di  coloro  che  possono  lavorare,  i  più  anziani  troveranno  migliori  compensi per il lavoro delle loro mani. Anch’io appartengo alla categoria dei padroni dell’industria, ma disprezzo di tutto cuore la creazione di qualsiasi valore e ricchezza che si faccia a spese della dignità umana, ed abbassi la. classe dei  lavoratori.  Il compito della macchina è  di  sollevare  l’uomo dalla servitù animalesca, non quello di creare ulteriore schiavitù.” (452)

Harkort concludeva questo brano affermando che, migliorando le condizioni di vita dei lavoratori (case e cibi sani, riduzione dell’orario di lavoro, educazione scolastica, compartecipazione agli utili, …), si  sarebbe raggiunta una produzione di gran lunga maggiore. E quanto scriveva Harkort non era che lo specchio di una condizione di vita operaia veramente insopportabile: bassi salari, completa precarietà del lavoro, giornate lavorative fino a 16 ore, abitazioni e cibi malsani, mortalità  infantile che arrivava fino a 300 per ogni mille nati vivi  (” il punto più basso nello sviluppo sociale che l’Europa abbia conosciuto dall’alto Medio Evo”, così lo ha definito lo storico liberale Lewis Mumford), ritmi frenetici con conseguenti molteplici incidenti, abbondanza di malattie professionali per le condizioni di lavoro in fabbrica (la fabbrica era definita dallo stesso Mumford come ” La casa del Terrore”). Anche i fanciulli, perfino di 6 e 7 anni, venivano impiegati e perfino nelle miniere (si pensi che ci volle la legge mineraria inglese del 1842 per vietare il lavoro in miniera alle donne ed ai bambini di età inferiore a … 10 anni ! Si pensi poi che l’uso dei bambini nelle fabbriche di cotone durò, negli Stati Uniti, fino al 1933).

        Vi furono vari tentativi di accordo tra operai e padroni dell’industria ma, l’accordo stipulato in un certo periodo, veniva regolarmente non rispettato dai padroni in un periodo successivo.  

        Verso la metà del secolo fu il tedesco Karl Marx (l8l8-l663) che, con estrema lucidità, denunciò le condizioni di lavoro degli operai, analizzando i rapporti esistenti tra capitale, lavoro salariato e profitto,  arrivando a prospettare l’organizzazione rivoluzionaria degli sfruttati per l’abbattimento della società capitalistica e per l’emancipazione del proletariato,  (454) ed operando attivamente a questo fine “combattendo con una passione, con una tenacia e con un successo come pochi hanno combattuto … Marx era perciò l’uomo più odiato e calunniato del suo tempo. I governi, assoluti e repubblicani, lo espulsero, i borghesi, conservatori e democratici radicali, lo coprirono a gara di calunnie.” (455)  Ma l’eredità che questo uomo ha lasciato al movimento operaio di tutto il mondo è il bene più prezioso di cui esso dispone. “Marx ed il movimento dei lavoratori che a lui si collegava contribuirono a far si che lo Stato, a partire dall’ultimo quarto del XIX secolo, si sforzasse di migliorare le condizioni di lavoro e di vita dei lavoratori dell’industria, con una legislazione di politica sociale progressista.” (455 bis)

        A parte queste considerazioni  pur fondamentali, e per le quali rimando ai vari testi specializzati, rimane il fatto che, a partire dalla metà dell’Ottocento, iniziarono conflitti sempre più estesi tra i padroni dell’industria e gli operai in essa. occupati, soprattutto a partire dall’inizio degli anni ’70  quando, come abbiamo già accennato, una profonda crisi economica, che avrà il suo culmine nel crack del 1873 e sarà superata solo nel 1896, si abbatté su tutta l’Europa. 

Qui, come in occasione delle altre crisi cicliche, il meccanismo di accumulazione capitalistica si inceppa, si restringono i margini di realizzazione del profitto ed emerge drammaticamente la contraddizione tra il livello di produttività raggiunto e la struttura rigida del mercato nell’ambito dei rapporti di produzione esistenti. La caduta del saggio medio di profitto diventa una concreta realtà che impone una trasformazione di tutto il complesso della struttura produttiva al fine di rimettere in moto e dare nuovo slancio al meccanismo di sviluppo capitalistico. [A questa crisi il mondo industriale risponde con] la chiusura della fase di libero scambio che aveva caratterizzato il ventennio precedente e tutti i governi innalzano nuovamente rigide barriere doganali: si sviluppa così l’esigenza sempre più pressante del controllo dei mercati d’oltremare e delle fonti di materie prime e le nazioni europee fanno a gara nella conquista di nuovi territori in Asia e in Africa. Contemporaneamente l’urgenza di uscire dalla crisi e di superare la fase di depressione impone un radicale processo di riconversione produttiva, alla ricerca di più elevati standard di organizzazione e livelli tecnologici.”(456) 

Da una parte quindi si inaugura l’età del colonialismo e dell’imperialismo e dall’altra la necessità di riconversione porta alla fine di tutte le imprese più deboli e ad una grossa espulsione di operai dalle fabbriche. La strada che si imboccò fu quella dell’ulteriore automazione che porterà alle teorizzazioni e realizzazioni dello statunitense F.W. Taylor (1856-1915), fondatore del metodo dell’organizzazione scientifica del lavoro (parcellizzazione), all’introduzione delle catene di montaggio e ad un grosso aumento di produzione.

          Oltre a ciò si costruirono grosse concentrazioni industriali sotto forma di società per azioni, cartelli e trusts che ben presto assunsero il ruolo di multinazionali,

 :         Nel processo di ristrutturazione, a partire dalla crisi de ’73, la Gran Bretagna e la Francia persero il loro primato produttivo, economico, industriale, commerciale e scientifico-tecnologico. Questo primato passò alla Germania ed agli Stati Uniti.

            Indagare con una qualche pretesa di completezza questo passaggio di primato ci porterebbe troppo lontano, ma alcuni elementi per comprenderlo possono essere delineati.

           Certamente la struttura produttiva della Gran Bretagna era, ancora alla metà del secolo, di gran lunga la più possente tra tutte le altre; e qui già  si può cogliere un primo  elemento del declino di questa potenza (che per molti versi è simile a quello della Francia): una struttura. solida, che ha dei processi produttivi consolidati già da anni, presenta molto maggiori difficoltà alla riconversione industriale e tecnologica (a meno che si rinunci a gran parte del profitto per le cicliche indispensabili innovazioni).  Altro elemento fondamentale, alla base della perdita del primato britannico, fu la struttura scolastica ed educativa. Questa difficoltà non si presentò invece alla Germania (ed agli Stati Uniti) che paradossalmente risultò avvantaggiata dalla sua preesistente arretratezza. (456 bis)

         Mentre la Gran Bretagna, manteneva ancora una scuola profondamente classista in cui solo chi aveva soldi poteva andare avanti e non c’era alcun incentivo statale alla pubblica istruzione, mentre in questo paese l’istruzione non aveva alcun legame con il mondo della produzione e forniva una preparazione rigida e poco flessibile, al contrario, in Germania, c’era una grossa promozione statale alla pubblica istruzione, che era obbligatoria a livello primario, non c’era selezione sul censo, c’era una grossa selezione ma solo sulle capacità e la preparazione, c’era una scuola strettamente legata alle esigenze produttive, una scuola molto elastica e flessibile che preparava personale disciplinato ed altamente qualificato, in grado di poter cambiare mansione in caso di necessità; oltre a ciò vi erano anche moltissime scuole per adulti ed in particolare per operai che erano facilitati a frequentarle per il fatto che la legislazione dello Stato faceva obbligo agli industriali di lasciar loro del tempo libero per poter accedere ad esse.

         Per quanto riguarda poi l’istruzione tecnico-scientifica a livello superiore, essa lasciava molto a desiderare in Gran Bretagna, pochi erano gli istituti che vi si dedicavano, pochi coloro che li frequentavano. La stessa struttura rigida della produzione che aveva creato il miracolo britannico ora diventava un ostacolo  alla successiva espansione, non richiedendo il contributo di nuovi tecnici e scienziati.

        In Germania, invece, le scuole tecniche prolificavano. Vi erano una quantità di istituti di ricerca altamente specializzati, gli studenti potevano preparare liberamente piani di studio, i laboratori erano attrezzatissimi, vi si faceva molta ricerca alla quale erano avviati anche gli studenti, vi erano borse di studio vere per studenti meno abbienti, vi si sviluppava, una grande sensibilità ai problemi della produzione. Oltre a ciò, come già accennato, era la stessa industria che da una parte si legava strettamente a questi centri di ricerca (soprattutto per la chimica) e dall’altra manteneva propri laboratori con molti ricercatori al lavoro.

        Ed a proposito del declino della Gran Bretagna, Cardwell osserva che “il  fallimento  non  fu  affatto,   in  quel   periodo,   un  fallimento   economico;   fu, invece, sostanzialmente un fallimento scientifico e tecnologico.” (458)

        E’ quindi interessante notare che questo fallimento sul piano scientifico e tecnologico è riferito essenzialmente a quanto sia la scienza che la tecnica potevano fare per lo sviluppo dei processi produttivi, infatti non è per nulla vero che in Gran Bretagna non si facesse più scienza, anzi se ne faceva e molto sofisticata (Maxwell, Rayleigh, J.J. Thomson, Rutherford,…), ma non era la scienza che serviva per i settori trainanti dal punto di vista produttivo, non era scienza applicata e non fu in grado di inserirsi nei rivolgimenti scientifici di fine secolo e degli inizi del novecento. Come osservano Baracca e Livi tutto ciò mostra “ancora una volta che l’evoluzione della scienza non dipende solo dalla pura rilevanza fisica dei risultati, ma dal modo in cui essi si inseriscono in un processo più complesso, caratterizzato dai livelli di integrazione della scienza nel sistema produttivo e dalla capacità di quest’ultimo di valorizzarne nel modo più completo la ricaduta tecnologica.” (459)

        La situazione degli Stati Uniti era in parte simile ed in parte radicalmente diversa da quella della Germania. Questo paese era di relativamente recente costituzione. Negli anni che vanno dal 1861 al 1865 esso aveva dovuto affrontare la sanguinosissima guerra di secessione degli Stati del Sud che, per altri versi, segnò un grosso sforzo produttivo a sostegno delle esigenze belliche, che comportò anche un grosso sforzo tecnologico sia per le stesse esigenze belliche in senso stretto sia per sopperire alla mancanza di mano d’opera, principalmente nei campi, proprio per effetto della guerra. E’ dalla fine di questa guerra che gli Stati Uniti iniziarono la lunga marcia verso il primato produttivo, scientifico e tecnologico a livello mondiale.

        Le enormi distanze nel territorio, la scarsità di mano d’opera, le enormi ricchezze della terra sia per usi agricoli che estrattivi, furono da stimolo ad uno sviluppo che si differenziava da quello europeo. In questo Paese la necessità imponeva soprattutto di occuparsi di trasporti, comunicazioni (la conquista del West) ed automazione (per sopperire alla scarsità di mano d’opera)  (460)  sulla base, soprattutto, di una notevole mole di tecnologia empirica. (461)     D’altra parte anche le prestazioni operaie erano scarsamente qualificate a causa della inesistente tradizione culturale e quindi educativa di quel Paese. Pertanto gli Stati Uniti puntarono essenzialmente sulla quantità di prodotto e sulle industrie di assemblaggio, al contrario di quel che faceva la Germania che puntava sulla qualità del prodotto e sulle industrie di trasformazione ad alta tecnologia. Tutto ciò comunque portò gli Stati Uniti al primato che condivise con la Germania alla fine del secolo. La Gran Bretagna  invece, alla fine del secolo, pur mantenendo ancora un certo primato in alcuni settori produttivi, che erano stati quelli che avevano fatto la sua fortuna all’epoca della prima rivoluzione industriale (industrie tessili e minerarie), si trovava nella situazione in cui il resto delle sue industrie “erano per lo più filiali di ditte americane e tedesche o erano state impiantate da stranieri naturalizzati.” (462)

        Quelli che ho dato sono certamente brevi cenni ma possono servire da spunto di riflessione per eventuali integrazioni e necessari ampliamenti.

        Prima di concludere questo paragrafo ci rimane da fare alcune considerazioni sulle correnti di pensiero dominanti nella seconda metà dell’Ottocento.  

        Il primo dato che emerge e’ il tramonto del Romanticismo in connessione con una diffusa fiducia nelle capacità della scienza di risolvere i problemi  dell’uomo  e  di  essere  il  motore  del  progresso  (non meglio  identificato). Questo atteggiamento di fiducia nella scienza, che ai può senz’altro definire positivistico, non è tanto rintracciabile nell’opera di un qualche autore dell’epoca (occorre rifarsi a Comte) quanto appunto in un diffuso stato d’animo che nasceva, nelle classi che facevano cultura, in connessione con i successi della scienza e della tecnica. Si trattava di una sorta di ammirazione attonita che non si preoccupava di andare a comprendere l’infinità delle implicazioni sociali che il balzo tecnologico comportava, ma si accontentava soltanto di considerare i dati più appariscenti della questione. Questo atteggiamento culturale può essere riassunto in un semplice slogan: e’ solo la scienza che fornisce verità; la religione e la metafisica (e quindi la filosofia) non ci aiutano ad andare avanti.

               Questo atteggiamento si accompagnava ad un declino della filosofia tradizionale in tutta Europa. Da una parte la scienza con le sue problematiche in terne, esterne e sui fondamenti, dall’altra l’incapacità, da parte di quella filosofia, di cogliere il dibattito per mancanza degli strumenti di comprensione della materia del contendere. La scienza era sempre più strutturata nel suo formalismo che tendeva via via ad anticipare fatti piuttosto che a spiegarne di noti, ed al suo interne nacquero e si svilupparono tutte quelle tematiche che, in connessione con la crisi del meccanicismo e le formulazioni evoluzionistiche, aprirono un dibattito e talvolta uno scontro tra visioni diverse del mondo e dello stesso modo di fare scienza. 

               La filosofia che non coglieva questa dinamica e non diventava filosofia della scienza rimaneva esclusa dal dibattito dovendo ripiegare su se stessa.

              Ci furono certamente dei tentativi di salvaguardare la ‘purezza’ della filosofia insieme al suo primato sulla scienza (considerata, appunto, una forma di conoscenza inferiore) e tra di essi vanno ricordati quelli tardopositivisti (dei quali ci occuperemo ancora) e quelli irrazionalisti (per i quali rimando ad un testo di filosofia).

               Una menzione a parte la merita invece la corrente di pensiero pragmatista, che vide la luce nell’ultimo quarto di secolo negli Stati Uniti, secondo la quale, ed in accordo con la visione della scienza cose forma inferiore di conoscenza, sono solo le applicazioni che danno una misura della validità del sapere scientifico (anche ‘la filosofia’ ha ben capito chi è che paga).                                                                                                                                                  

              In ogni caso, al di là delle singole correnti di pensiero, emergeva con forza il problema dei rapporti scienza-filosofia.

            Questa scienza che cambia i suoi metodi ed i suoi contenuti; mette in discussione i fondamenti; si impone all’attenzione per le sue potenzialità produttive; ebbene, questa scienza rappresenta l’elemento più importante da discutere alla fine del secolo. Se solo si pensa che anche Marx ed Engels (463) (e più tardi Lenin) sentirono il bisogno di occuparsi di scienza, entrando in argomento, in modo discutibile se si vuole ma certamente con cognizione di causa e puntuale conoscenza dello specifico, ci si rende conto di quanto attuale fosse il problema da qualunque parte fosse guardato. Ma la separazione scienza-filosofia si andava via via consumando con effetti incalcolabili che ancora oggi stiamo pagando.

              Nei settori più consapevoli, comunque, per capire le connessioni ed i rapporti esistenti tra scienza e scienza e tra scienza e società, nacque l’esigenza di una storia delle scienze che non fosse una semplice cronaca dei fatti ma che andasse a ricercare l’origine profonda dei concetti, dei fatti, delle leggi, delle varie formulazioni e teorie, che non si succedono staticamente in un processo di accumulazione successiva ma si articolano dinamicamente in una dialettica molto complessa che non ha solo referenti interni ma anche e, per quanto abbiano visto, soprattutto esterni.

             La fine dell’Ottocento vide anche un’altra novità che a buon diritto può essere considerata rivoluzionaria. Molta enfasi viene spesso data all’inaugurazione galileiana del metodo sperimentale, ma quasi mai si pone attenzione alla svolta che si operò alla fine dell’Ottocento, a partire dai lavori di Maxwell. Per la prima volta si rompeva lo schema galileiano e, con il demandare agli altri la verifica sperimentale delle ipotesi e delle teorie, si inaugurò quel processo che, come portato della divisione del lavoro e della sua sempre più spinta specializzazione, approdò alla separazione tra teoria ed esperimento, con la nascita prima del fisico teorico e poi della fisica teorica.

             E, sempre in questo contesto, in cui la scienza si rivestiva di un alone di superiorità, gli addetti ai lavori iniziarono a trovare un alibi al di-sinteresse dell’uso che veniva fatto delle loro scoperte scientifiche. E quest’ultimo aspetto non ha più un carattere di storia ma di cronaca contemporanea soprattutto se si pensa che ancora oggi c’è chi dice che è la curiosità che muove la scienza, e che quest’ultima è perfettamente neutrale. (464)  

NOTE

(438) Per quel che riguarda la bibliografia generale che serva ad approfondire quanto qui solo accennato rimando alla nota 134.

(439) Bibl. 24, pag. 29. La frase fra parentesi è mia.  

(440) Questa esigenza è ben espressa in uno scritto dell’ingegnere P. Reuleaux (1829-1905) che, nel 1875, così si esprimeva: Solo il grande capitale può permettersi di acquistare ed. usare le potenti macchine a vapore … Bisogna rendere l’energia indipendente dal capitale. Il modesto tessitore sarebbe liberato dal prepotere del capitale se potessimo mettere a disposizione del suo telaio, nella misura giusta, la forza motrice che gli serve. Lo stesso potrebbe farsi con successo nel campo della filatura … Altri campi sono quelli della costruzione di mobili, di chiavi, di cinghie, quelli dello stagnino, del fabbricante di spazzole, di pompe, ecc… Quindi ciò che la meccanica deve fare per ovviare ad una gran parte del capitale, è fornire piccoli quantitativi di energia a buon prezzo o, in altre parole, realizzare piccole macchine motrici, il cui esercizio esiga spese assai modeste.” (Da Klemm, bibl. 22,  pagg. 347-348).

(441) Bibl. 22, pag.347. Si ricordi che un cavallo potenza (HP) vale circa 76 Kgm/sec, mentre un cavallo vapore (CV) vale 75Kgm/sec. Riguardo alla nascita del cavallo come unità di misura di potenza si può vedere bibl. 45, pagg. 44-45.  

(442) II pollice, unità di misura di lunghezza, corrisponde a 2,54 cm.

(443) – Nel 1794 il britannico J. Bramah (1746-1614) inventa il porta-utensili scorrevole per torni paralleli e nel 1795 la pressa idraulica;

– nel 1797 il britannico H. Maudsley (l771-l83l) migliora il porta-utensili per filettare munendolo di un banco a slitte e di un accoppiamento a madrevite;

– nel 1801 il francese M. Brunel  (1769-1849) costruisce i primi trapani;

– nel 1832 lo statunitense E. Mhitney (1765-1825) costruisce la prima fresatrice per la realizzazione di superfici piane e costruisce le prime armi statunitensi a pezzi intercambiabili;

– nel 1802 ancora J. Bramah realizza la prima piallatrice meccanica;

– nel 1807 il britannico W.  Newberry inventa la sega a nastro;

– nel l8l0 ancora Maudsley completa la realizzazione del primo tornio di precisione, interamente costruito in ferro, con il quale si possono fabbricare viti con filettature precise e cilindri molto ben centrati e rettificati (con questo tornio inizia la produzione standardizzata di viti e cilindri);

– nel 1825 il britannico J. Glement (1779 -1844) realizza una macchina in grado di spianare perfettamente le superfici metalliche;  “con l’aiuto di questi cilindri e superfici piane perfetti l’inglese J. Whitworth (l803-l887) sviluppò, negli anni 1830-50, il suo misuratore di precisione a vite, che permetteva di misurare con una sensibilità fino ad un milionesimo di pollice, e i suoi torni di precisione, le sue macchine spianatrici, perforatrici, tagliatrici e modellatrici che gli diedero fama mondiale” (bibl. 16, Vol. II, pag. 530).

– nel 1840 lo stesso Whitworth propose che si adottassero, nella costruzione di macchine, sia pezzi intercambiabili lavorati entro strette tolleranze, sia filettature unificate.  

(444) L’acciaio, per le sue caratteristiche, era di gran lunga preferibile per la costruzione di macchine che,  proprio perché  soggette a rapidi movimenti,  erano enormemente sollecitate. I prima acciai si cominciarono a produrre a partire dal 1783 quando il britannico H. Cort  (l740-l800)  inventò  il  sistema di puddellaggio,  atto alla loro fabbricazione.  Nel 1811 il tedesco F.  Krupp  (1787-1826)  inaugurò ad Essen la prima fonderia d’acciaio (nella Germania e già nel 1812 iniziò la produzione dei primi acciai inossidabili.

        Leghe di acciaio furono anche studiate e create da M. Faraday (!) nel 1822 ma gli acciai speciali ad alta robustezza e resistenza si cominciarono a realizzare a partire dal 1856 quando, il britannico H. Bessemer (l8l3-l898) inventò il convertitore,che porta il suo nome, per la produzione, appunto, dell’acciaio ed il tedesco P. Siemens (1826-1904), uno dei quattro fratelli Siemens, inventò il forno a rigenerazione,sempre per la produzione dell’acciaio.

        Nel 1862 la Krupp aveva già installato il primo convertitore Bessemer del continente.

        Appena tre anni dopo (l865) i fratelli Martin, francesi, misero a punto un processo che, integrato con quello Siemens, permetteva, un notevole risparmio di combustibile (processo Siemens-Martin).

        Sia il convertitore Bessemer che il processo Siemens-Martin erano però adatti alla lavorazione di minerali senza tracce di fosforo e si adattavano quindi bene ai giacimenti britannici e continentali esclusa la Germania i cui giacimenti erano ricchi di minerale fosforico. La soluzione a questo problema fu trovata dal britannico S.G. Thomas (1850-1685) che  con il processo che porta il suo nome permise lo sfruttamento dei giacimenti del Belgio, della Lorena e della Germania.

             Intanto nel 1668 era stato installato negli Stati Uniti il primo convertitore Bessemer.

             A questo punto il grosso era fatto ma le richieste dell’industria si facevano sempre più  pressanti;

-nel 1881 Siemens costruisce il forno elettrico per la fusione dell’acciaio;

– nel 1884 il processo Thomas viene esteso ai forni Martin;

– nel 1888 viene prodotto il primo acciaio speciale con forti percentuali di manganese;

– nel 1889 viene prodotto un altro acciaio speciale, quello al nichel;

– nel 1900 F.H. Taylor produce i primi acciai  rapidi  per utensili che consentono elevate velocità di taglio.

(445) Certo, perché l’elettricità arrivasse a questo grado di funzionalità,  sono stati necessari molti successivi passi,  ciascuno dei quali,  anche se in tempi relativamente brevi,  ha rappresentato una tappa complessa e piena di implicazioni  soientifico-tecnologiche. Cerchiamo di ripercorrere questi passi a partire dalle due fondamentali scoperte alla base della tecnologia elettrica: quella di Volta e quella di Faraday.

 – Nel 1800 A. Volta costruisce la pila elettrica, prima tappa fondamentale nello sviluppo dell’elettrotecnica;

 – nel 1803 il tedesco J. Ritter (l776-l8l0) progetta l’accumulatore elettrico;

 – nel 1809 H. Davy costruisce l’arco elettrico;

 – nel 1820 il tedesco T.J. Seebeck (l770~l83l) riesce a magnetizzare l’acciaio;

 – nel 1822 lo stesso Seebeck dimostra, che la corrente fa variare la temperatura di un circuito dando inizio alla termoelettricità;

 – nel 1822 il britannico P. Barlow (1766-1862) dimostra la trasformabilità dell’energia elettrica in energia .meccanica (ruota di Barlow);

 – nel 1822 il tedesco G. S.. Ohm (1787-1854) ricava la legge che porta il suo nome e che lega tensione, corrente e resistenza;

– nel 1624 il francese J.C. Peltier (l785-l845) scopre l’effetto termoelettrico;

– nel 1825 lo statunitense M. Sturgeon (1783-1850) costruisce il primo elettromagnete d’uso pratico;

– nel 1831 M. Faraday scopre il fenomeno dell’induzione elettromagnetica e costruisce il primo semplice generatore di corrente alternata;

– nel 1831 lo statunitense J. Henry (1797-1878) costruisce il primo semplice motore elettrico;

– nel 1832 il francese H. Pixii (1776-1861) costruisce una macchina per produrre corrente alternata con il primo dispositivo commutatore per ‘raddrizzarla’;

– nel 1832 ancora Henry scopre il fenomeno dell’autoinduzione;

– nel 1833 Gauss e Weber realizzano il primo telegrafo elettrico;

– nel 1836 il francese A.P. Masson (l806-l880) realizza correnti elettriche indotte ad alta tensione;

– nel 1837 lo statunitense J. P. Morse (1791-1872) costruisce la prima linea telegrafica di uso pratico;

– nel 1838 il tedesco H. von Jacobi (l801-l874) costruisce un motore elettrico ad elettromagneti, alimentati da una batteria di pile, con il quale fa muovere un battello sulla Neva;

– nel 1840 ancora Masson insieme a L.F. Breguet  (l804-l883) costruiscono un trasformatore;

– tra il 1840 ed il 1844 ad opera, indipendentemente, del britannico W. Grove (1811-l896), del ‘britannico de Moleyns, dello statunitense J.W. Starr, del francese L. Foucault, vengono realizzati i primi tentativi per lampade ad incandescenza;

– nel 1845 G. Wheatstone modifica i generatori elettrici sostituendo i magneti permanenti con elettromagneti;

– nel 1848 G. Kirchhoff estende la legge di Ohm a circuiti complessi a più rami ;

– nel 1850 viene posato, attraverso la Manica, il primo cavo telegrafico sottomarino;

– nel 1851 il tedesco W. J. Sinsteden (l803-l878) costruisce il primo alternatore elettrico monofase;

– nel 1855 l’italiano De Vincenzi brevetta la prima macchina da scrivere elettrica;

– nel 1859 l’italiano A. Pacinotti (l841-1912) costruisce un indotto per macchine elettriche (anello di Pacinotti) , ad alto rendimento, per la trasformazione dell’energia meccanica in elettrica e viceversa;

– nel 1865 termina la posa in opera del primo cavo transatlantico sottomarino (a cui lavora la ditta Siemens);

– nel 1866 W. Siemens (l8l6~l892) scopre il principio elettrodinamico e costruisce la prima dinamo elettrica;

– nel 1867 il belga Z.T. Gramme (l826-190l) inventa la dinamo ad autoeccitazione per ottenere una corrente continua costante;  

– nel 1869 lo stesso Gramme costruisce una dinamo elettrica a corrente continua  in grado  di  trasformare  energia meccanica  in  elettrica  e  viceversa;

– nel 1870 ancora Gramme, utilizzando i lavori di Pacinotti, costruisce la prima dinamo industriale;

– nel 1871 l’italiano A. Meucci (1804-1889) costruisce il primo rudimentale telefono;

– nel 1874 il tedesco S. Schuckert (1846-1895), collaboratore di Edison, inventa la commutatrice, una macchina rotante capace di convertire la corrente alternata in continua e viceversa;

– nel 1875 ancora Gramme costruisce il primo alternatore ad induttore rotante;

-nel 1875 lo statunitense G. Green prospetta l’idea di alimentare le locomotrici ferroviarie mediante un filo aereo;

– nel 1876 lo statunitense G.A. Bell (1847-1922) chiede il brevetto per il telefono ;

– nel 1878 il britannico J. Swann (1828-1914) costruisce una lampada ad incandescenza a filamento di carbone;

– nel 1879 lo statunitense T.A. Edison (1847-1931) costruisce la prima lampada ad incandescenza;

– nel 1879 ancora W. Siemens costruisce il primo locomotore elettrico;

 – nel 1880 di nuovo W. Siemens costruisce il primo ascensore elettrico;

 – nel 1881 gli Stati Uniti presentano una centrale telefonica automatica;

 – nel 1881 W. Siemens inventa un sistema scorrevole di collegamento alla linea elettrica (trolley);

 – nel 1881 W. Siemens accoppia una macchina a vapore ad un generatore di corrente per la produzione di energia elettrica;

– nel 188l negli Stati Uniti viene inaugurato il primo impianto di illuminazione elettrica pubblica;

– nel 1881 W. Siemens costruisce forni elettrici per la fusione dell’acciaio;

– nel 1881 viene inaugurata a Berlino la prima tramvia elettrica (Siemens);

– nel 1882 viene inaugurata negli Stati Uniti, a New York, la prima centrale elettrica per la fornitura di energia elettrica per uso domestico (Edison);

– nel 1884 il francese L. Gaulard (1850-1889) costruisce il trasformatore statico, dimostrando contemporaneamente la possibilità del trasporto a distanza dell’energia elettrica;

– nel 1885 viene inaugurata la prima centrale elettrica tedesca;

– nel 1885 Edison sviluppa la dinamo multipolare;

– nel 1885 l’italiano G. Ferraris (1847-1897) scopre il campo magnetico rotante e, in base ad esso, costruisce il primo motore elettrico a corrente alternata polifase;

– nel 1886 negli Stati Uniti entra in funzione il primo impianto di distribuzione di corrente alternata;

– nel  1886  lo   statunitense  E.   Thomson  brevetta  il  motore  elettrico  a  repulsione;

– nel 1888 il tedesco H. Hertz dimostra l’esistenza delle onde elettromagnetiche;

– nel 1889 la statunitense Westinghouse costruisce i primi alternatori polifasi;

– nel 1889 la statunitense Otis Broters & Co. inizia la produzione industriale di ascensori (con il parallelo sviluppo degli acciai e del cemento armato – Francia 1867 – si renderà possibile la costruzione di grattacieli);

  – nel 1891 il russo M. Dolivo-Dobrowolski (1862-1919) inventa l’indotto a gabbia di scoiattolo per i generatori elettrici;

– nel 1891 in Germania si sperimenta la trasmissione di energia elettrica ad alta tensione (25.000 V), su una linea di 178 Km;

– nel 1891 negli Stati Uniti viene installata la prima linea ad alta tensione;

– nel 1892 Siemens sperimenta la prima locomotrice elettrica a corrente alternata. polifase;

– nel 1892 la Westinghouse costruisce i primi trasformatori raffreddati ad acqua;

– nel 1895 il russo A. Popof (1858-1905) costruisce un’antenna per la ricezione delle onde elettromagnetiche;

– nel 1895 l’italiano G. Marconi (l874-1937) compie i primi esperimenti di radiocomunicazione ;

– nel 1897 Marconi stabilisce il primo contatto radiotelegrafico a distanza;

– nel 1900 lo statunitense Hewitt (186l-1921) inventa il raddrizzatore a vapori di mercurio;

– nel 1900 la Westinghouse installa la prima turbina a vapore per la generazione dell’energia elettrica;

– nel 1902 la Westinghouse introduce l’elettrificazione a corrente monofase ad alta tensione per uso ferroviario;

– nel 1904 il britannico J.A. Fleming (1849-1945) costruisce il diodo;

– nel 1506 lo statunitense L. De Forest (l873~196l) costruisce il triodo.

(446) Le tappe più importanti dello sviluppo della chimica, dopo la scoperta delle leggi dei gas e di svariati elementi, soprattutto per quel che riguarda il suo massiccio sfruttamento nell’industria sono:

– nel 1825 M. Faraday scopre il benzene che è un ottimo solvente organico e materia prima per molti derivati;

– nel 1826 M. Faraday scopre che la gomma naturale e’ un idrocarburo aprendo la strada alla fabbricazione della gomma sintetica;

– nel 1826 il tedesco 0. Unverdorben (l806-l873) scopre l’anilina, che e’ una sostanza importantissima per la fabbricazione di coloranti e prodotti farmaceutici;

– nel 1827 i francesi P.J. Bobiquet (1760-1840) e J.J. Colin (1784-1865) isolano l’alizarina (composto organico che si estrae dalle radici della robbia, pianta abbondante nella Francia meridionale, utilizzato come colorante);

– nel 1828 il tedesco P. Wöhler (l800-l882) realizza la prima sintesi organica, quella dell’urea (composto organico dal quale si possono ottenere resine sintetiche e che può essere usato come concime azotato);

– nel 1830 lo svedese J.J. Berzelius (1779-1848) introduce il concetto di isomeria;

– nel 1830 iniziano ricerche approfondite sul catrame che porteranno alla scoperta di molti composti organici che saranno alla base dei grandi progressi della chimica organica e dell’industria che li sfrutterà;

– nel 1834 il tedesco F.F. Runge (1794-1867) colora delle fibre tessili con l’anilina ossidata (nero d’anilina);

– nel 1835 J.J. Berzelius scopre le proprietà dei catalizzatori che diventeranno della massima importanza nell’industria chimica;

– nel 1846 lo svizzero C.P. Schönbein (1799-1868) scopre la nitrocellulosa (importante composto per la produzione di coloranti, di esplosivo, della seta artificiale);

– nel 1846 l’italiano A. Sobrero (l8l2-l888) scopre la nitroglicerina, (esplosivo estremamente pericoloso da maneggiare);

– nel 1848 il francese A. Payen (1795-1871 ) inventa un processo per la fabbricazione della cellulosa;

– nel 1856 il britannico W.H. Perkin (l838-1907) sintetizza il primo colorante  artificiale,  la  malveina  (violetto  d’anilina);

– nel 1863 il belga E. Solvay (1838-1922) scopre un processo più redditizio per la fabbricazione della soda;

– nel 1865 il tedesco A. Kekulé (1829-1896) propone la formula di struttura esagonale del benzene, a partire dalla quale sarà possibile realizzare una enorme quantità di nuovi composti organici;

– nel 1869 i tedeschi K. Graebe (1841-1927) e K. Liebermann sintetizzano l’alizarina;

– nel 1883 il britannico J. Swann (1828-1914) brevetta delle fibre filate di nitrocellulosa;

– nel 1866 lo svedese A.B. Nobel (l833-l896) elabora la nitroglicerina ottenendo la dinamite;

– nel 1901 il francese H. le Chatelier brevetta m processo di fabbricazione dell’ammoniaca sintetica.

               In parallelo a quanto abbiamo brevemente elencato anche la chimica teorica si sviluppava rapidamente in un processo di stretta interconnessione con le esigenze produttive.  Si potrà notare che la Germania è alla testa della ricerca. Il settore dei coloranti sintetici diventa ben presto trainante e la Germania sa sfruttare ciò che, ad esempio, la Gran Bretagna non utilizza (il brevetto Perkin) e ciò che, ad esempio, la Francia esita ad accettare (la formula di struttura esagonale del benzene di Kekulé). La grande industria chimica tedesca avvia inoltre giganteschi programmi di ricerca in propri laboratori ed in stretto legame con le università (si pensi che la Basf nel 1880 investe la gigantesca cifra di un milione di sterline per la sintesi dell’indaco, programma che solo dopo 17 anni sarà coronato da successo, con una imponente ricaduta tecnologica). Per dare un’idea dell’enorme mole di lavoro svolto dalle sei maggiori industrie chimiche tedesche si pensi che esse, negli anni che vanno dal 1886 al 1900, brevettarono ben 948 sostanze coloranti, mentre, al confronto e nello stesso periodo, le sei maggiori industrie chimiche inglesi ne brevettarono 66.

(447) Le principali tappe di sviluppo della meccanizzazione dell’industria tessile e dell’agricoltura si possono riassumere come segue.

Le grandi innovazioni nei telai portano i processi di filatura e tessitura via via a livelli di automazione sempre più spinta. Già agli inizi dell’Ottocento vari telai erano mossi a vapore. Piano piano vengono introdotti:  il  movimento  differenziale  alle  macchine  per  filatura  (Gran  Bretagna,  1810); le pettinatrici di fibre lunghe (Francia, 1825); il filatoio automatico intermittente (Gran Bretagna, 1825); il filatoio ad anello (Stati Uniti, 1828); il filatoio continuo  (Gran Bretagna,  1833);  il telaio circolare per maglie (Gran Bretagna, 1849); la macchina per cucire mossa a pedale e dotata di pezzi intercambiabili che ha il grande pregio di  lasciare le mani libere  (Singer, Stati Uniti, 1851); il telaio rettilineo (Gran Bretagna, 1857); il telaio rettilineo multiplo che permette la produzione contemporanea di molti esemplari dello stesso indumento (Gran Bretagna, 1864); il telaio automatico (Stati Uniti, 1889); il telaio con sostituzione automatica delle spole vuote (Stati Uniti, 1892); la chiusura lampo (Stati Uniti, 1893); l’annodatrice automatica per tessitura (Stati Uniti, 1805).

              Con queste innovazioni l’industria tessile aumenta in modo impressionante la produzione senza incrementare i posti di lavoro (se non indirettamente, nell’industria chimica dei coloranti). E per concludere con l’industria tessile c’è solo da aggiungere che l’invenzione della macchina per cucire dà il via all’industria delle confezioni: i prodotti vengono da ora commerciati completamente finiti.

              Per quel che riguarda l’agricoltura c’erano da affrontare almeno tre grossi problemi: l’inurbamento massiccio, al seguito della grande industria, richiedeva enormi quantità di cibo ponendo inoltre il problema della sua conservazione; molta forza lavoro aveva abbandonato le campagne per cercare una sistemazione nella fabbrica; la popolazione era grandemente aumentata in valore assoluto negli ultimi anni. Anche qui pertanto bisognava produrre di più, con metodi diversi e sfruttando al massimo i prodotti tecnologici. Da una parte, intorno alla metà del secolo, l’industria chimica iniziò a fornire fertilizzanti e, dall’altra, furono successivamente introdotti i seguenti ritrovati tecnologici: la trebbiatrice (Gran Bretagna, 1802); la falciatrice meccanica (Gran Bretagna, 1814); la mietitrice (Gran Bretagna, 1826; Stati Uniti, 1834); la raccolta automatica del grano in covoni mediante un nastro rotante senza fine (Stati Uniti, 1849); la seminatrice automatica (l850); l’aratura meccanizzata a vapore (Gran Bretagna, 1850); la falciatrice automatica (1850); la legatrice automatica dei covoni (Stati Uniti, 1871); la diffusione del refrigeratore a compressione di ammoniaca (Linde, Germania) per la conservazione dei cibi (l873); la mietitrebbia combinata che miete il grano, lo trebbia, lo pulisce e lo insacca (Stati Uniti, 1886); la mietifalciatrice a vapore (Stati Uniti, 1889); la mietitrebbia combinata su trattore a cingoli, mossa da una macchina a vapore (Stati Uniti, 1904) e da un motore a benzina (Stati Uniti, 1906).  

 Per altri versi gli sviluppi della tecnologia idraulica dettero un notevole impulso all’elettricità:

 – l’invenzione del britannico J.Francis (1815-1892) della turbina idraulica a reazione (1845);

 – l’invenzione dello statunitense A. Pelton (1829-1916) della turbina idraulica ad azione (1884).

 Le richieste di energia poi erano sempre maggiori e ad esse si faceva fronte da un lato con il carbone, che aveva quasi completamente sostituito la legna da ardere, e solo parzialmente (nel periodo di cui ci stiamo occupando) con il petrolio, dall’altro con l’energia idraulica e d&oall’altro ancora con il miglioramento delle macchine termodinamiche e dei loro rendimenti.  A quest’ultimo fine furono via via realizzate:

 – la caldaia tubolare (Stati Uniti, 1824; Francia, 1828);

 – la macchina a vapore surriscaldato (Svezia, 1833);

 – la caldaia a serpentini (Francia, 1850);

 – la caldaia a tubi inclinati (Wilcox-Stati Uniti, 1856);

 – la macchina a vapore a pezzi  intercambiabili  (Stati  Uniti,  1876);

 – la turbina a vapore a reazione che faceva 18.000 giri/minuto (Gran Bretagna, 1884);

 – la turbina a vapore ad azione che faceva 30.000 giri/minuto (Francia, l890);

 – la turbina a vapore ad azione e ad asse verticale (Stati Uniti, 1896).

 Il particolare sviluppo che ebbero le turbine fu dovuto al fatto che esse avevano un rendimento, in termini di denaro, molto più elevato delle macchine a vapore alternative (per migliorare il rendimento di queste ultime fu introdotta la macchina a vapore a cilindro orizzontale per la sua migliore capacità di sfruttare il moto rotatorio). La termodinamica delle macchine a vapore fu sviluppata principalmente dal britannico W. Rankine (l820-1872) in un suo lavoro del 1859. Sempre più ogni settore della produzione si andava sistemando in un tutt’uno integrato con svariati altri settori e sempre più ogni industria cercava di raccogliere in sé tutte le attività produttive in modo da costruire un insieme unico integrato (trust).

(448)  Prima di ooncludere questo paragrafo riporto altre innovazioni tecniche realizzate nel corso del secolo; quelle che hanno avuto una grande importanza dal punto di vista economico-politico-sociale, a partire dalle rivoluzionarie conquiste nel settore dei trasporti e delle vie di comunicazione (altri elementi indispensabili per lo sviluppo dei commerci).

– Nel 1807 R. Fulton (1765-1815) inizia un servizio regolare di battelli a vapore (Stati Uniti);

 – nel 1814 G. Stephenson (1781-1848) inizia le prove della sua locomotiva a vapore (Gran Bretagna);

– nel 1827 ai compie la prima traversata dell’Atlantico a vapore (il primo servizio regolare inizia nel 1838);

– nel 1822 G. Stephenson con il figlio Robert costruisce la locomotiva Rocket (prima locomotiva moderna) iniziandone la produzione in serie;

– nel 1830 viene inaugurata la prima ferrovia britannica e da allora molti paesi europei inaugureranno la loro prima ferrovia;

– nel 1859 entra in esercizio la prima carrozza letto (Stati Uniti);

– nel 1868 entra in esercizio il primo vagone frigorifero (Stati Uniti);

– nel 1869 viene aperto il Canale di Suez (realizzazione francese su progetto italiano);

– nel 1871 è inaugurato il tunnel del Frejus;

– nel 1881 è inaugurato il tunnel del San Gottardo ;

– nel 1885 G. Daimler costruisce la prima motocicletta;

– nel 1886 C. Benz costruisce la prima automobile a tre ruote;

– nel 1888 il britannico J.B. Dunlop (1840-1921) brevetta il prime pneumatico di uso pratico;

– nel 1893 viene aperto il canale di Corinto;

– nel 1896 lo statunitense H. Ford (1863-1947) costruisce la sua prima auto;

 – nel 1898 inizia il traforo del Sempione;

 – nel 1900 il tedesco F. von Zeppelin (1838-1917) costruisce il primo dirigibile a struttura metallica;

 – nel 1903 gli statunitensi fratelli Wrigat effettuano il primo volo a motore.

         Altre tappe da ricordare, nei settori più diversi, sono:

 – l’introduzione del cuscinetto a sfora (Francia, l802)f;

 – l’invenzione delle lenti per fari, costruite con vetri di un solo pezzo incisi a fasce concentriche (Fresnel, Francia, 1822)(;

– l’invenzione del maglio a vapore (Gran Bretagna, 1838);

– la scoperta del linoleum (Gran Bretagna, 1844);

– la prima rotativa di stampa (Gran Bretagna, 1848);

– la distillazione del cherosene (Canada, 1854);

 – la serratura di sicurezza (Yale, Stati Uniti, 1855)5;

 – il brevetto del filo spinato (Stati Uniti, 1874);

 – la costruzione del fonografo (Stati Uniti, 1872);

 – il brevetto della prima penna stilografica (Watermann, Stati Uniti, 1884);

 – la prima macchina per fabbricare bottiglie (Gran Bretagna, 1887);

 – il primo processo (piroscissione) di distillazione del petrolio (Gran Bretagna, 1889);

 – i fratelli Lumiere realizzano il cinematografo elaborando una precedente realizzazione di Edison (Francia, 1895).

(449) Da Baracca, Russo e Ruffo, bibl. 54, pag. 7.

(450) Ibidem, pag. 93.  

(451) II matematico britannico C. Babbage (l792-l87l) fu uno dei primi teorici della parcellizzazione del lavoro. Nel 1832, in un suo lavoro (On the economy of machinary and manifactures), dopo aver sostenuto che la suddivisione del lavoro riduce i tempi dell’apprendistato e fa risparmiare materia prima, affermava: “un altro vantaggio che deriva dalla suddivisione del lavoro è il risparmio di tempo poiché in ogni passaggio da una lavorazione ad un’altra un certo tempo va perduto. Quando la mano e la testa si sono abituate per un certo tempo ad una determinata specie di lavoro, se questo cambia, mano e testa non possono assumere subito la stessa destrezza che avevano raggiunto prima.” Il brano è tratto da Klemn, bibl. 22, pag. 291 (nel testo citato vi sono altri brani di grande interesse).

(452) Citato da Klemm, bibl. 22, pag. 309. Sulle macchine è importante leggere quanto dice Marx. Si veda la rivista Marxiana dell’ottobre 1976.  

(453) Il Capitale (vol. 1°) è del 1867. Con quest’opera Marx dette all’econo all’economia un assetto scientifico.

(454) Nel 1864 fu fondata la Prima Internazionale socialista che si sciolse nel 1873, dopo il fallimento della Comune di Parigi (l87l). Nel 1889 fu fondata su basi diverse la Seconda Internazionale.

Al fianco di Marx lavorò F. Engels (1820-1895).

(455) Dall’orazione funebre di Marx, scritta e letta da Engels.

(455 bis) Klemm in bibl. 22, pag. 321.  

(456) Baracca, Russo e Ruffo in bibl. 54, pag. 93.  

 (456 bis) La Germania si costituisce in stato solo dopo la sconfitta di Napoleone III (1871) ad opera dell’esercito di Bismarck che strappò alla Francia l’Alsazia e la Lorena e fondò l’impero tedesco con alla testa Guglielrno 1° (nel frattempo l’impero austro-ungarico giungeva via via al suo disfacimento).

Si noti che il grande statista Bismarck inaugurò una politica di alleanze che garantì all’Europa 50 anni di pace (50 ami nei quali tutti cercarono di costruirsi imperi coloniali.

(457) Soltanto nel 1880 l’istruzione primaria venne resa obbligatoria ma con scuole che davano ” un’istruzione inferiore alle classi inferiori”.  

(458) Bibl. 23, pag. 277. Si veda tutto il paragrafo del testo da cui è tratto questo brano; dà ulteriori particolari sull’emergere della Germania con il contemporaneo declino della Gran Bretagna. L’autore del testo, Cardwell, è uno storico britannico ed il brano è perciò ancora più interessante.

(459) Bibl.24, pag. 54.  

(460) Che era invece abbondante in Gran Bretagna e Germania. Tra l’altro la forza lavoro negli Stati Uniti costava di più di quanto non costasse nei paesi citati, proprio per la sua scarsità. Questo fu un ulteriore incentivo allo sviluppo, negli Stati Uniti, di macchine sostitutive del lavoro umano.

(461) Un altro elemento a favore del grande sviluppo tecnologico degli Stati Uniti fu una legislazione tra le più avanzate del mondo per i brevetti (essa risaliva al 1691 e fu poi perfezionata nel 1790).

(462) Bibl.23, pag.280. Comincia l’era delle multinazionali.  

(463) Engels scrisse un volume che si occupava dei rapporti soienza-filosofia, Dialettica della natura, che fu pubblicato postumo soltanto nel secolo XX.  Si veda bibl.  103.

(464) Allo scopo si vedano alcuni interventi ad un convegno che si tenne a Firenze nel 1970 riportati in bibl. 58.

   2 – UN PANORAMA SU ALTRE SCOPERTE SCIENTIFICHE DEL SECOLO XIX. LA NASCITA DEI QUANTI.

        Nel capitolo precedente mi sono occupato ampiamente di alcuni aspetti dello sviluppo della ricerca fisica nell’Ottocento ed in particolare ho riguardato con qualche dettaglio lo sviluppo dell’elettrodinamica e dell’elettromagnetismo, dell’ottica e della termodinamica. Nei paragrafi che seguiranno svilupperò ancora alcuni aspetti delle problematiche già affrontate con particolare riguardo all’ottica ed all’elettrodinamica – elettromagnetismo.

        In questo paragrafo intendo dare un quadro più completo delle ricerche che in alcuni campi della scienza (soprattutto chimica e fisica) si portavano avanti nel corso del secolo. Lo scopo di ciò è di dare un riferimento più significativo per la comprensione degli argomenti che, invece, ho trattato e tratterò con maggiori dettagli.

        Alcune delle cose che era dirò saranno soltanto una cronologia di alcune tappe significative, e questo principalmente per la matematica e la chimica. Su alcuni aspetti dello sviluppo della fisica non esplicitamente fin qui rilevati o discussi (o da discutere nei prossimi paragrafi) ai soffermerò un poco di più.

        E’  solo il caso di ricordare che gran parte delle ricerche di questo secolo saranno improntate al filone di pensiero, già più volte richiamato, che va sotto il nome di meccanicismo fisico, eredità del pensiero newtoniano. (465) Ho già detto più volte che questo meccanicismo assumerà articolazioni diverse e che, in nome di Newton, saranno affermate le cose più diverse e, a volte, addirittura antitetiche. Ma, al di là di queste considerazioni, rimane il fatto che la tradizione culturale dominante fa del richiamo a Newton una questione imprescindibile ed in questo senso è estremamente significativo che l’atteggiamento che via via emergerà sarà il ricondurre alla meccanica, non solo tutti i più disparati fenomeni che venivano scoperti nel campo della fisica e della chimica, ma anche quelli che provenivano da scienze  più distanti come, ad esempio, la biologia e la fisiologia. Dovunque si cercheranno modelli meccanici a cui affidare, insieme alla loro elaborazione matematica, la spiegazione della realtà. E questa tendenza alla ricerca del modello (e dell’analogia) si accentuerà molto verso la fine del secolo, quando il grado di astrazione delle elaborazioni matematiche raggiungerà livelli non più immediatamente rappresentabili mentalmente. Ed, anche qui, in nome di Newton, si elaboreranno (e costruiranno materialmente) modelli così incredibilmente complessi da essere, quanto meno, molto lontani, essi stessi, da una semplice rappresentazione meccanica e quindi dalla semplicità degli schemi interpretativi introdotti da Newton. Valga come esempio il modello che Kelvin propose per l’etere nel 1889. Egli costruì un modello meccanico di un elemento di un modello di etere proposto nel 1839 da J. Mac Cullagh (l809-l847). ” Dispose quattro bastoncini a forma di tetraedro, e preso come asse ciascun bastoncino vi sistemò una coppia di volani giroscopici   (466)  ruotanti l’uno in senso contrario all’altro. Questo modello opponeva resistenza ad ogni disturbo in senso rotatorio, ma non opponeva alcuna resistenza a moti traslatori.” (467) In questo modo si cercava di rendere conto delle strane proprietà che il supposto etere avrebbe dovuto avere (estremamente sottile, estremamente elastico, in grado di trasmettere vibrazioni trasversali).

        Su questa strada si mosse anche Helmholtz e via via molti altri.

        La ricerca di modelli meccanici o meno era anche teorizzata dallo stesso Kelvin con queste significative parole: “Io non sono soddisfatto finché non ho potuto costruire un modello meccanico dell’oggetto che studio. Se posso costruire un tale modello meccanico comprendo; sino a che non posso costruirlo, non comprendo affatto.” (468)

        La ricerca di una spiegazione meccanicistica era poi così enunciata da Helmholtz: ” II problema della scienza fisica naturale è ricondurre i fenomeni naturali a immutabili forze attrattive e repulsive la cui intensità dipende solamente dalla distanza. La soluzione di questo problema è la condizione per una completa comprensibilità della natura.” (469)                                                                                                                                     

        E’ in ogni caso altrettanto vero che, proprio verso la fine del secolo, la crisi del sistema meccanicistico portava ad altre formulazioni o quanto meno alla messa in discussione della pretesa di voler spiegare tutto con la meccanica. Ma di questo ci occuperemo più oltre, nei paragrafi seguenti.

        Passiamo ora, per singole discipline, a dare quel panorama di riferimento annunciato, ricordando solo che le cose qui elencate non hanno trovato posto in altre parti del lavoro.

Astronomia  

        Ormai l’astronomia si avvia pian piano a diventare astrofisica.  (470)    Nel corso del secolo verranno perfezionate le osservazioni del sistema solare e si estenderanno le osservazioni al di fuori di esso, si scopriranno vari astri e si costruiranno vari cataloghi di stelle che verranno suddivise, a seconda delle loro caratteristiche, in vari gruppi. Più in particolare, i fatti più significativi sono:

– la dimostrazione che i moti propri stellari riguardano tutte le stelle, fatta dall’italiane G. Piazzi (1746-1826) nel 1814;

– la scoperta del moto delle stelle doppie in orbite ellittiche intorno al baricentro comune, fatta dal tedesco (che lavorò in Gran Bretagna) W. Herschel (1738-1622) nel 1820;

– la determinazione delle posizioni, delle distanze, del colore e della grandezza di un gran numero di stelle doppie, fatta dal russo W. Struve (1793-1864) nel 1837;

– la prima determinazione della parallasse annua di una stella, fatta dal tedesco P.W. Bessel (1784-1846) nel 1838;

– la prima osservazione di una nebulosa a spirale, fatta dal britannico W.P. Rosse (1800-1867) nel 1845;

– la predizione dell’esistenza di Nettuno fatta studiando le perturbazioni di Urano, dal francese U.J.J. Le Verrier (l811-l877) e quindi la sua scoperta ad opera del tedesco F.J. Galle (1812-1910) nello stesso anno 1846;

– la dimostrazione della rotazione della Terra sul suo asse, fatta da L. Foucault nel 1851 con il sue famoso esperimento del pendolo;

– la fondazione della spettroscopia stellare fatta nel 1863 dall’italiano A. Secchi (1816-1878);

– la dimostrazione della struttura discontinua degli anelli di Saturno (già teorizzata da Maxwell nel 1859), fatta dallo statunitense J.C. Keeler (1857-1900) nel 1895.

Matematica

        Questa scienza nel secolo in esame ebbe uno sviluppo possente. Si approfondirono e svilupparono campi già noti; inoltre si aprirono nuovi capitoli, alcuni dei quali di grande interesse ai fini degli sviluppi futuri della fisica. L’analisi acquistò la sua sistemazione quasi definitiva, passando dalla formulazione classica a quella moderna con la creazione della teoria degli insiemi, il riconoscimento dell’importanza della logica e, soprattutto, la trattazione rigorosa.

              Notevolissimo impulso ebbe la teoria delle funzioni e delle equazioni differenziali; furono introdotte le equazioni integrali ed il calcolo funzionale; anche nei campi dell’algebra e della geometria si progredì molto ed in particolare nacquero la teoria dei gruppi, le geometrie non euclidee, la geometria algebrica, la geometria differenziale, il calcolo differenziale assoluto e la topologia. Fu inoltre dimostrata resistenza dei numeri trascendenti con notevoli conseguenze sul secolare problema della quadratura del cerchio. Infine anche il calcolo delle probabilità fece notevoli progressi.

        Esula completamente dai miei scopi l’andare a discutere di questi problemi.  Voglio solo ricordare alcuni dei nomi che maggiormente contribuirono agli eccezionali sviluppi della matematica cui abbiamo fatto cenno:

i tedeschi: Kummer, Kronecker, Schwartz, Jaoobi, Gauss, Hilbert, Bessel, Dirichlet, Riemann, Weierstrass, Cantor, Klein, Dedekind, Listing, Hankel, Frege;

i francesi: Laplace, Poisson, Legendre, Fourier, Liouville, Hermite, Cauchy, Sturm, Galois, Picard, Poincaré,Briquebon, Poncelet, Lamé, Lebesgue;

i britannici: De Morgan, Clifford, Bode;

gli italiani: Ruffini, Betti, Cremona, Volterra, Peano, Beltrami, Enriques, Dini, Castelnuovo, Ricci-Curbastro, Levi-Civita;                                                                 

i norvegesi: Abel, Lee;

i russi: Lobacevskij, Tcebycheff, Minkowski (che studiò e lavorò in Germania);

l’irlandese: Hamilton;

il cecoslovacco: Bolzano;

lo svizzero Argand;

il  rumeno: Bolyai.

Chimica

        Dei pregressi della chimica, soprattutto di quella organica, abbiamo già parlato abbastanza nelle note del paragrafo precedente. Resta solo da aggiungere che quei progressi furono permessi dalla graduale sistemazione della chimica inorganica a partire dallo studio dei gas fino ad arrivare alla teoria della valenza ed alla tavola periodica degli elementi. Le tappe più importanti da ricordare sono:

1802 – il francese Gay-Lussac (1778-1850) estende la legge di Volta, relativa alla dilatazione termica dei gas, a tutti i gas;

1803 – il francese J.L. Proust (1761-1826) formula la legge delle proporzioni definite (mentre si trova a lavorare in Spagna!);

1808 – il britannico J. Dalton (1766-1844) avanza l’ipotesi atomica e stabilisce la legge delle proporzioni multiple;

1808 – Gay-Lussac formula la legge dei volumi dei gas;

1811 – l’italiano A. Avogadro (1766-1856) formula la legge che porta il suo nome (volumi uguali di gas, nelle stesse condizioni di temperatura e pressione, contengono lo stesso numero di grammomolecole);

1811 – Avogadro formula l’ipotesi che porta il suo nome e che permette di distinguere atomi da molecole (le molecole dei corpi semplici gassosi sono formate da atomi identici mentre le molecole dei corpi composti gassosi sono formate da atomi differenti); si osservi che si dovranno attendere circa 50 anni prima che questa ipotesi venga presa in considerazione, fatto quest’ultimo che permetterà enormi sviluppi nella chimica;

1815 – il britannico W. Prout (1785-1850) sostiene che i pesi atomici sono multipli interi di quello dell’idrogeno;

1826 – il britannico W.H. Fox Talbot (1800-1877) scopre che con l’analisi spettroscopica di sostanze incandescenti si può conoscere la loro composizione chimica;

1836 – lo svedese J.J. Berzelius (1779-1849) formula l’ipotesi che l’affinità chimica è dovuta alle cariche elettriche di segno contrario presenti nelle sostanze che reagiscono (altri importanti lavori di Berzelius avevano preceduto questo; le stesse leggi per la composizione chimica delle sostanze inorganiche valgono per le organiche; prima tabella dei pesi atomici; indicazione simbolica degli elementi con le loro iniziali latine);

1858 – l’italiano S. Cannizzaro (1826-1910) riprende l’ipotesi di Avogadro e suggerisce un metodo per la determinazione dei pesi atomici;

1869 – il russo S. Mendelejev (1834-1907) costruisce il sistema periodico degli elementi;

1874 – il francese A. Le Bel (1847-1937) e, indipendentemente, l’olandese J.H. Van’t Hoff (1852-1911 ) introducono le formule stereochimiche;

1876 – lo statunitense J.W. Gibbs (l839-1903) enuncia la regola delle fasi che permette di studiare l’equilibrio delle sostanze eterogenee su base matematica con stretti legami con la termodinamica;

1887 – lo svedese S. Arrhenius (1859-1927) fornisce una spiegazione della dissociazione elettrolitica in base all’ipotesi, già avanzata da Clausius nel 1857, dell’esistenza di ioni di segno contrario all’interno dell’elettrolito.

 Meccanica

         In questo campo si continua ancora a sistemare quanto trovato nei secoli precedenti puntando soprattutto a chiarire alcuni concetti (come quello di forza) ancora ritenuti oscuri. Un ruolo importante l’assume invece lo studio dei sistemi rotanti, con riguardo alle forze centrifughe ed ai moti relativi.

1829 – il francese D. Poisson (1781-1840) determina le equazioni generali del moto dei corpi;

1830 – il tedesco K.F. Gauss (1777-1855) enuncia il principio fondamentale della meccanica, detto principio del minimo sforzo;

1835 – il francese G.G. Coriolis (1792-1843) determina le condizioni per formulare l’equazione del moto relativo di un sistema di corpi stabilendo (l836), nel teorema che porta il sue nome, il ruolo della forza centrifuga;

1836 – l’irlandese W.R. Hamilton (l805-l865) ricava dalle equazioni di Lagrange le equazioni canoniche della dinamica o hamiltoniane;

1850 – il francese L. Foucault studia l’effetto della forza d’inerzia in un sistema in rapida rotazione».

 Spettroscopia (nascita della fisica dei quanti).

          E’ questo un campo nuovo che si apre in queste secolo, sulla scia della decomposizione dello spettro solare ottenuta da Newton con il prisma, e che avrà sviluppi formidabili fino alla prima formulazione dell’ipotesi dei quanti ad opera di  Planck nel  1900.  E tutto ciò  discenderà  da una felice  intersezione con i metodi ed i risultati della termodinamica. Seguiamone le tappe principali:

1802 – il britannico W.H. Wollaston (1766-1828), osservando lo spettro solare prodotto da un prisma, scopre l’esistenza di sette righe scure distribuite in modo irregolare;

1814 – il tedesco J. Fraunbofer (1787-1826) osserva il fenomeno in modo più  approfondito: conta 560 righe scure, scopre che una di queste righe (la D) coincide con la doppia riga gialla del sodio (Fraunhofer non sapeva ancora che quella doppia riga gialla era caratteristica del sodio: egli la otteneva osservando lo spettro prodotto da una candela, da una lampada ad elio e da una lampada ad alcool); (471)   costruisce la prima carta dello spettro solare, scopre nello spettro di Venere alcune righe presenti nello spettro del Sole, introduce i reticoli di diffrazione con i quali realizza le prime determinazioni della lunghezza d’onda dei vari colori dello spettro;

1827-1855 – in questi anni si sommano diversi contributi ed in particolare: la scoperta della fotografia ad opera del francese J.P. Niepce (1765-1833); la scoperta dell’emissione di spettri da parte di solidi portati all’incandescenza, ad opera del britannico J.W. Draper (1811-1882);

1857 – il tedesco R.W. Bunsen (1811-1899) scopre che utilizzando il gas illuminante, installato nel suo laboratorio nel 1855, si ottiene una fiamma non molto luminosa ma ad alta temperatura e costruisce il becco Bunsen, con il quale si possono ottenere gli spettri dei soli corpi portati all’incandescenza senza interferenze da parte della fiamma che non ha un proprio colore specifico;                                                                                                                                            

1859 – Kirchhoff e Bunsen gettano le basi della moderna spettroscopia, distinguendo con chiarezza la differenza esistente tra spettri di emissione e spettri di assorbimento: se sul becco si fa bruciare del sodio, lo spettro presenta due righe gialle che coincidono esattamente con le più brillanti delle linee oscure dello spettro del Sole (riga D); osservando poi lo spettro della luce solare  lungo la cui traiettoria è interposto il becco con del sodio che brucia, non appare più la riga D nello spettro solare ed al suo posto vi sono le righe gialle del sodio; questo ultimo fenomeno si verifica solo quando la luce solare è molto attenuata, in caso contrario si continua  a vedere la linea D; lo stesso fenomeno si può ottenere mantenendo costante l’intensità della luce solare e aumentando o diminuendo la temperatura della fiamma del becco. Da ciò Kirchhoff capì il significato dello spettro solare ed in particolare delle sue linee scure: la superficie del Sole emette radiazioni (fotosfera) di tutti i colori e l’atmosfera di gas incandescenti del Sole (cromosfera e corona), molto meno calda della fotosfera, assorbe una parte delle radiazioni emesse dal Sole, ed assorbe quelle che sono emesse dagli elementi componenti l’atmosfera solare. Come dice Kirchhoff: “le fiamme colorate nei cui spettri si presentano linee brillanti e marcate [spettro di emissione], indebolisce talmente i raggi del colore di queste linee quando passano attraverso di esse, che in luogo delle linee brillanti compaiono linee scure [spettro di assorbimento] quando si colloca dietro la fiamma una fonte di luce di sufficiente intensità e nel cui spettro mancano queste linee. Concludo quindi che le linee scure dello spettro solare, he non sono prodotte dall’ atmosfera terrestre, nascono dalla presenza nella infuocata atmosfera del Sole, di quelle sostanze che nello spettro di una fiamma presentano le linee brillanti nella stessa posizione.” (473)  Ed in questo modo Kirchhoff e Bunsen riuscirono a stabilire la presenza sul Sole di alcuni elementi: confrontando le righe che compongono lo spettro solare con quelle, ottenute in laboratorio, per elementi noti (all’esistenza di un dato insieme di righe nello spettro corrisponde sempre la presenza di un dato elemento).                                                                     

         Altro fondamentale risultato ottenuto da Kirchhoff nello stesso anno è il cosiddetto principio di inversione secondo il quale una sostanza assorbe le stesse radiazioni che è in grado di emettere. (474)

        Per portare avanti le loro ricerche i due ricercatori si servirono di uno spettroscopio, strumento da loro realizzato e  costruito da K. A. von Steinheil (famoso costruttore di strumenti ottici) nel 1853. I risultati qui esposti possono essere considerati il fondamento dell’astrofisica e della fisica teorica. Da questo momento si iniziò lo studio sistematico degli spettri di varie stelle ed il risultato di queste osservazioni portò a riconoscere che tutti gli elementi in esse presenti sono gli stessi che conosciamo sulla Terra.                       /

        Nello stesso anno Kirchhoff scoprì le proprietà del corpo nero. Dallo studio dei fenomeni ad esso connessi ne scaturì la scoperta della fisica dei quanti ad opera di Max Planck [nel sito vi è una ricostruzione dettagliata delle vicende che portarono ai lavori di Planck; ad esso rimando per approfondire la questione ed avverto che saltano qui le note 475 e 476].

1900 — Kelvin apre il nuovo secolo con un articolo che riassume bene tutte le difficoltà della fisica a quell’epoca, dal titolo significativo: Nubi del diciannovesimo secolo sulla teoria dinamica del calore e della luce. La prima nube è, secondo Kelvin, quella del moto relativo dell’etere e dei corpi ponderabili che, come abbiamo visto nel paragrafo 6 del capitolo 3, poneva difficoltà che sembravano insormontabili. Del diradarsi di questa nube ci occuperemo in seguito, basti per ora dire che il cielo si schiarì con la teoria della relatività di Einstein. La seconda nube e’ proprio relativa all’argomento irraggiamento di un corpo nero. Tutta la fisica classica era stata messa alla prova ed i risultati erano clamorosamente in disaccordo con l’esperienza. Dice Kelvin riportando parole di Rayleigh: “Siamo di fronte ad una difficoltà fondamentale, che non è semplicemente connessa alla teoria dei gas, quanto piuttosto alla dinamica generale. Ciò che sembrerebbe necessario è un qualche modo di sfuggire alla distruttiva semplicità della conclusione generale.” (476)

           E tutti i fisici dell’epoca erano d’accordo con questa conclusione;

1900 – alla fine dell’anno  Planck risolve la questione del corpo nero facendo l’ipotesi dei quanti

1905 – A. Einstein riprende l’ipotesi dei quanti calcolandosi la variazione di entropia di una trasformazione termodinamica che tratta la radiazione come un gas di oscillatori e che fa passare il volume della cavità del corpo nero da un valore V1  ad un valore V2, quando la pressione e’ mantenuta costante. Egli trova:

  D S  =    f(n/T). 1/e . k . log  (V2/V1)                            

dove f (n/T) è la solita funzione din/T ed e e = hn. Questa espressione risulta formalmente identica a quella che fornisce  DS per un gas perfetto,  formato da N particelle, che subisce la stessa trasformazione:

S  =  N. K . log (V2/V1)

da cui:   

S2  –  S1    =   N. K . log V2  – N. K . log V1 

che è ancora formalmente identica a quella trovata da Boltzmann:

                        S  = K . log P.

        L’analogia porta Einstein a concludere che la radiazione è costituita da corpuscoli (i quanti) di energia e = hn (è una euristica esigenza di simmetria che, per sua stessa ammissione, aveva mosso Einstein). A questo punto mediante la stessa ipotesi dei quanti, Einstein passa a dare una spiegazione di quello strano fenomeno, l’effetto fotoelettrico (477), scoperto dal tedesco H. Hertz nel 1877, e studiato dall’italiano A. Righi (1850-1920) nel 1888 e dal tedesco W. Hallwachs (1859-1922); nel far ciò Einstein implicitamente ammette che anche la propagazione dell’energia avvenga per quanti (fatto che radicalizza il contrasto con la teoria elettromagnetica della luce).

       Ha inizio la fisica quantistica che negli anni seguenti avrà enormi sviluppi. Alcune sue formulazioni però, ed in particolare l’introduzione in essa della probabilità fatta da Born nel 1926, vedranno lo stesso Einstein molto critico verso questa branca della fisica che nel frattempo diventava sempre più autoritaria ed efficientista.  (478)

Scarica nei gas

        Anche questo è un nuovo campo di ricerca che si inaugura agli inizi dell’ultimo quarto di secolo. L’innesto dei risultati delle ricerche in questo settore con alcune conclusioni che si traevano dai fenomeni elettrolitici portò all’affermazione dell’esistenza di una struttura discontinua dell’elettricità, a prevedere e quindi a provare l’esistenza dell’elettrone, a misurarne carica e massa dando il via a quell’altro vasto campo di ricerca della fisica che riguarda la struttura atomica, molecolare e, quindi, della materia. Ripercorriamo, anche qui, alcune tappe di rilievo:

1833 – Faraday stabilisce le leggi dell’elettrolisi ricavando che, in questo fenomeno,  “gli atomi dei corpi che sono equivalenti fra loro posseggono delle quantità uguali di elettricità, che sono loro associate per natura” (479) Pur non essendo un corpuscolarista, Faraday riesce a formulare una legge nella quale è implicito il concetto di quantità elementare di elettricità o elettrone. Ma Faraday non approfondirà la cosa;

1874 – l’irlandese G.J. Stoney (1861-1911), partendo dall’analisi delle leggi di Faraday per l’elettrolisi, postula l’esistenza di una quantità elementare di elettricità  “indipendente dai corpi sui quali agisce” (480) ed in seguito  (1891) darà  a questa quantità  elementare il nome di elettrone;

1879 – il britannico W. Crookes (1832-1921) produce una scarica elettrica in un tubo di vetro in cui aveva praticato un vuoto molto spinto (dell’ordine di un milionesimo di atmosfera). Da questa esperienza ricava l’esistenza di raggi emessi dal catodo costituiti, secondo la sua teoria, da molecole elettrizzate espulse dal catodo stesso (raggi catodici); (481)

1861 – anche il tedesco E. Riecke (1845-1915) sostiene la natura corpuscolare dei raggi catodici;

1881 – Helmholtz, studiando i fenomeni del l’elettrolisi, stabilisce la costanza e l’indivisibilità della carica elettrica degli ioni monovalenti, si convinse dell’esistenza di una carica elementare e la difende con molto impegno:  “Se ammettiamo l’ipotesi che le sostanze elementari sono composte da atomi, non possiamo evitare di concludere che l’elettricità, sia positiva che negativa, è suddivisa in particelle elementari definite che si comportano come atomi di elettricità”; (482)

1883 – il tedesco H. Hertz (1857-1894), insieme al suo assistente P. Lenard, fece una serie di esperienze con le scariche nei gas rarefatti. In particolare osservò (1892) che i raggi catodici erano in grado di attraversare lamine metalliche sottili. Da ciò egli concluse che non poteva trattarsi di fenomeni corpuscolari e che, al contrario, i raggi catodici non sono altro che vibrazioni dell’etere, allo stesso modo della luce. Hertz convince con queste argomentazioni i ricercatori tedeschi: le ricerche in questo campo proseguiranno essenzialmente in Gran Bretagna;

1886 – il tedesco E. Goldstein (1850-1930), servendosi di un catodo perforato, scopre l’esistenza di raggi anodici, o positivi o canale o di Goldstein;

1890 – il tedesco A. Schuster (1851-1934) riesce a misurare il rapporto tra la carica e la massa delle ipotetiche particelle emesse dal catodo, osservandone la deviazione in un campo magnetico (il valore da lui trovato  era molto lontano da quello oggi accettato, ma il metodo da lui introdotto si rivelò molto importante nel seguito); (483)

1892 – l’olandese H.A. Lorentz (l853-1928) elabora la sua teoria degli elettroni nella quale considera l’elettricità costituita da particelle dotate di carica e massa (del lavoro in cui Lorentz avanza questa teoria mi occuperò abbondantemente nei paragrafi seguenti, per la sua rilevanza ai fini della storia della relatività);

1894 – il britannico J.J. Thomson (1856-1940), usando di uno specchio ruotante, riesce a calcolare la velocità dei raggi catodici trovando un valore di circa 10.000 Km/sec,  velocità molto più piccola di quella della luce ed enormemente più grande di quella delle molecole di un gas. Quindi, conclude Thomson, né Hertz né Crookes hanno ragione: non si tratta né di vibrazioni dell’etere né di molecole, ma di particelle d’altra natura e cariche negativamente;

1894 – P. Lenard dimostra che i raggi catodici possono uscire dal tubo di scarica, attraversando foglie sottili di alluminio come finestre e quindi diffondendosi nell’aria;

1895 – il tedesco W.C. Rontgen (1845-1923)  scopre che, nelle vicinanze di un tubo di Crookes, le lastre fotografiche rimangono impressionate ed interpreta il fenomeno come originato da nuovi e misteriosi raggi provenienti dal tubo, che egli chiama raggi X;

1895 – il francese J. Perrin (1670-1941) dimostra che i raggi catodici sono costituiti da particelle cariche negativamente, gli elettroni;

1896 – Rontgen approfondisce lo studio dei raggi X scoprendo che essi sono generati da tutti i punti colpiti dai raggi catodici e che hanno la proprietà di scaricare i corpi elettrizzati;

1896 – il francese G. Gouy (1654-1926) scopre la rifrazione e la diffrazione dei raggi X;

1697 – J. J. Thomson dimostra che quando i raggi X passano attraverso un gas lo rendono conduttore di elettricità;

1697 – il tedesco K.F. Braun (1850-1918) dimostra che i raggi catodici sono deviati da un campo magnetico, ma anche da un campo elettrico e su questo principio costruisce un tubo (tubo di Braun), del tipo del video di un televisore. Sul fondo del tubo è cosparsa sostanza fluorescente sulla quale si produce una piccola scintillina quando è colpita da un raggio catodico;

1897 – il tedesco W. Wiechert (l86l-1928) fornisce un’altra determinazione del rapporto tra massa e carica dell’elettrone, dalla deviazione dei raggi catodici sotto l’influenza di un campo magnetico e dal confronto dei dati così ottenuti con quelli che erano stati ottenuti mediante elettrolisi; (484)

1897 – J.J. Thomson misura il rapporto e/m, tra carica e massa di un elettrone, trovando che esso vale 770 volte l’analogo rapporto per lo ione idrogeno;

1897 – il tedesco W. Kaufmann (1871-1947), usando il tubo di Braun, corregge in 1770 il valore trovato da Thomson. Per le sue misure Kaufman si basa sempre sulla deviazione dei raggi catodici mediante campo magnetico ma anche sulla differenza di potenziale tra gli elettrodi.

        A questo punto comincia a porsi il problema: se e/m calcolato per l’elettrone è tanto più grande del Q/M dello ione, ciò dipende dal fatto che è molto più grande di Q o dal fatto che è molto più piccolo di M ? Proprio allora il britannico C.T.R. Wilson (1869-1959) costruì uno strumento che permetteva di visualizzare le tracce delle particelle cariche (camera di Wilson o camera a nebbia).

1899 – J.J. Thomson, utilizzando una camera di Wilson, scopre che la carica di uno ione gassoso è la stessa dello ione idrogeno da fenomeni elettrolitici ed è anche la stessa di quelle particelle che vengono emesse da una superficie metallica per effetto fotoelettrico. Thomson trasse la conclusione che la carica dell’elettrone doveva essere uguale a quella dello ione idrogeno (che oggi sappiamo essere un protone), e di conseguenza era la massa m dell’elettrone che doveva essere molto piccola rispetto a quella di questo ione. Il valore che Thomson trovò per m era più piccolo di circa 1700 volte del valore della massa dello ione idrogeno. Questo valore fu in seguito perfezionato da ulteriori misure e mediante strumenti sempre più perfezionati.

        Scoperta l’esistenza di una carica negativa costituente la materia e dato per scontato che la materia è neutra, si cominciò a porre il problema delle cariche positive che, all’interno della stessa materia, avrebbero dovuto neutralizzare le negative.

        Come era organizzato il tutto ?

        Via via iniziarono le prime ipotesi sulla costituzione dell’atomo che da una parte usarono degli spettri atomici e dall’altro trovarono compimento con l’applicazione della fisica quantistica (e di quella relativistica) all’intero edificio atomico.

Ricerche diverse

        Altra grande mole di ricerche e scoperte viene realizzata nel secolo. Si tratta essenzialmente di varie derivazioni dalle cose che abbiamo precedentemente visto ma anche di cose nuove che avranno notevoli sviluppi (come la scoperta della radioattività) o che creeranno enormi polemiche (come la formulazione della teoria evoluzionista). Elenco di seguito alcune tappe degne di interesse:

1836 – Faraday scopre che all’interno di una gabbia metallica non si risentono le azioni elettriche esterne (gabbia di Faraday);

1837 – il tedesco G. Oberhäuser (1798-1868) costruisce un microscopio che ingrandisce 500 volte;

1844 – il russo E. C. Lenz (1804-1865) scopre che la conducibilità elettrica dei fili metallici à inversamente proporzionale alla temperatura (questo fatto troverà una spiegazione compiuta solo nel nostro secolo con la formulazione della teoria quantistica delle bande di energia, teoria che si può trovare nel sito);

1844 – il britannico C Wheatstone (1802-1875) costruisce un dispositivo (ponte di Wheatstone) per la misura di resistenze);

1848 — il francese J. Palmer costruisce un calibro a vite micrometrica per misure di precisione (piccoli spessori e curvatura di lenti);

1851 – l’italiano M. Melloni (1798-1854) costruisce la pila termoelettrica, che funziona da termometro ad elevatissima sensibilità ed è in grado di rilevare anche a notevole distanza la presenza di una qualsiasi fonte di calore radiante;

1859 – il britannico C. Darwin (1809-1882) pubblica L’origine della specie affermando definitivamente la teoria evoluzionistica;

1865 – il britannico J.N. Lockyer (1836-1920) scopre nello spettro solare una riga non attribuibile a nessun elemento terrestre conosciuto. Egli denomina quell’elemento elio;

1880 – lo statunitense E.H. Hall (1855-1936) scopre una differenza di potenziale che si stabilisce nei punti  opposti rispetto all’asse di un conduttore percorso da corrente quando è sottoposto all’azione di un campo magnetico costante (effetto Hall);

1884 – il britannico J.A. Fleming (1849-1945) formula la regola detta delle tre dita (della mano sinistra), che fornisce direzione e verso della forza elettromagnetica originata dall’azione di un campo magnetico su una corrente elettrica;

1889 – il britannico E. Rutherford (1871-1937) scopre della radiazione proveniente dall’uranio ed in essa individua due diverse specie di raggi (raggi a e raggi b) con differenti proprietà elettriche e di penetrazione ;

1896 – il francese H. Becquerel (l852-1908) ottiene la deviazione dei raggi  b mediante un campo elettrico e conclude che si tratta di particelle cariche. Scopre inoltre che alcuni sali di uranio riescono ad impressionare lastre fotografiche attraverso sostanze opache interposte e quindi ne ricava l’esistenza di un’altra specie di raggi (raggi g);

1896 – l’olandese P. Zeeman (1865-1943) scopre lo sdoppiamento delle righe spettrali emesse da un gas quando quest’ultimo è sottoposto all’azione di un intenso campo magnetico;

1898 – il francese P. Curie (1859-1906) dimostra che tutti i corpi ferromagnetici diventano paramagnetici al di sopra di una data temperatura (temperatura di Curie);

1900 – l’irlandese J. Larmor (1857-1942) enuncia il teorema sulla precessione delle orbite elettroniche nei campi magnetici.

        Più in generale, altri aspetti che vanno sottolineati sono:

– un grande sviluppo delle tecniche da vuoto che permetteranno via via ricerche fisiche sempre più sofisticate;

– un grande sviluppo della fisica delle basse temperature (in connessione con le esigenze di refrigeramento delle derrate alimentari per e dalle colonie) che permetterà di raggiungere una conoscenza sempre più profonda della costituzione della materia e di sviluppare ampiamente la termodinamica;

– la costruzione di strumenti di misura sempre più sofisticati e precisi che saranno alla base di ogni ricerca e misura e che deriveranno dal sempre maggiore affinamento della tecnica.  

NOTE

(465) Si veda quanto già detto nei paragrafi 3 e 5 del capitolo 2°.

(466) II giroscopio era  stato inventato da L. Foucault nel 1852.

(467) Bibl. 16, Vol. II, pagg. 494-495.

(468) Bibl. 17, Vol. V, pag. 69.

(469) Bibl. 24, pag. 126.

(470) E nel frattempo (1882) la Chiesa, con Papa Pio VII, dopo quasi 300 anni, sanziona ufficialmente l’accettabilità del sistema copernicano. A questo proposito viene da pensare alla cosiddetta riabilitazione di Galileo da parte di Papa Giovanni Paolo II (1980). E Giordano Bruno ? E gli altri ? E poi: hi ha bisogno di essere  riabilitato ?  (a questo proposito vi sono vari articoli sul sito).

(471) Fraunhofer osservò poi che per diversi spettri la doppia riga gialla si trovava sempre “esattamente nello stesso posto” risultando  “conseguentemente utilissima” come sistema di riferimento.

(472) Draper usava una fiamma brillante per portare all’incandescenza i corpi e per questo sosteneva che gli spettri delle sostanze solide fossero continui (era la fiamma brillante che originava lo spettro continuo). Occorrerà la fiamma di Bunsen, molto calda e poco luminosa, per avere spettri discontinui.

(473) Kirohhoff, Sulle righe di Fraunhofer, Monats. Akad. Wissens.; ott.1859, pag. 662. Riportato anche in bibl.89, pagg. 382-384.  

(474) In una memoria di Kirchhoff e Bunsen del 1880 (Analisi chimica mediante osservazioni spettroscopiche, Poggendorf’s Annalen, vol. 110, pag. 161) si legge: “uno di noi ha mostrato, per mezzo di considerazioni teoriche, che lo spettro di un gas incandescente è invertito, cioè che le righe brillanti sono trasformate in righe nere quando una sorgente di luce, di intensità sufficiente, che dia uno spettro continuo, è posta dietro lo stesso. Da ciò possiamo concludere che lo spettro solare, con le sue righe nere, non è altro che l’inverso dello spettro che l’atmosfera del Sole stessa mostrerebbe. Quindi l’analisi chimica dell’atmosfera solare richiede solo l’esame di quelle sostanze le quali, quando siano poste in una fiamma, producono righe brillanti che coincidono con le righe nere dello spettro solare.” Citato in bibl. 54. pag. 78.

(476) Bibl. 100, pag. 838.  

(477) Sull’ Effetto fotoelettrico si veda il mio articolo presente nel sito.

(478) Allo scopo si veda la seconda parte del testo di bibl. 57. Si veda anche la corrispondenza tra Einstein e Born riportata in bibl. 104.

(479) Bibl. 19, Voi. III, pag. 205.

(480) II calcolo che Stoney fa per la carica dell’elettrone gli fornisce un valore 20 volte più piccolo di quello oggi accettato.

(481) Le scariche nei gas rarefatti erano iniziate molto tempo prima. I britannici Watson (l75l) e Morgan (1785) avevano scaricato bottiglie di Leida in modesti vuoti. Davy (1822) aveva osservato, con esperienze analoghe, una luminosità verdognola. Faraday (l838), lavorando con vuoti più spinti, vede scariche più colorate e, in particolare, osserva uno spazio scuro che circonda il catodo. A pressione ancora più bassa il francese J.J.B. Abria (l811-l892) nel 1843 osserva la scarica dividersi in strati alternativamente chiari e scuri, Geissler (l857) costruisce una pompa per vuoti più spinti (a vapori di mercurio) e realizza un tubo di vetro chiuso, dentro cui sono fissati i due elettrodi. Plücker (1858), utilizzando tubi di Geissler, osservò la fluorescenza del vetro nella parte antistante al catodo e scoprì che un magnete è in grado di spostarla. Hittorf (1869) pone nel tubo di Geissler un oggetto tra anodo e catodo e dimostra, dall’ombra  che la luce emessa dal catodo provoca nella zona antistante, che questa luce si propaga rettilineamente; egli scopre anche che i raggi emessi dal catodo sono calorifici e che, sottoposti ad un campo magnetico perpendicolare, essi acquistano una traiettoria elicoidale. Il britannico Karley (l87l) ipotizza, dalla deviazione che i raggi subiscono sotto l’azione di un campo magnetico, che essi sono costituiti da particelle cariche negativamente.

(482) Bibl. 19, Vol. IlI, pag. 231.

(483) II valore da lui trovato per q/a era 550 volte più grande del rapporto Q/M calcolato per lo ione idrogeno nei fenomeni elettrolitici, cioè q/m  =  550 Q/M. Da quello che sappiamo oggi, anziché 550 occorre trovare circa 1840; infatti, poiché la carica dell’elettrone è uguale a quella del protone e poiché m è la massa dell’elettrone ed M è quella del nucleo d’idrogeno, cioè del protone, si ha: 1/m  =  1840 .1/M   => M = 1840 m, si trova cioè quel che sappiamo e che cioè la massa del protone è circa 1840 volte quella dell’elettrone. 

(484) Se non si dispone di due misure indipendenti è impossibile misurare separatamente la carica e la massa dell’elettrone; quello che si può ottenere è solo il valore del rapporto della carica sulla massa e/m. Indicando, una volta per tutte, con e la carica dell’elettrone e con m la sua massa, il valore per e/m trovato da Wiechert (confronta con la nota 483) doveva essere tra le 2 000 e le 4 000 volte il rapporto Q/M per lo ione idrogeno trovato nei fenomeni elettrolitici.

(485) Quando uno ione attraversa un vapore soprasaturo, agisce da nucleo di condensazione per il vapore ed intorno ad esso si forma una minuscola gocciolina. Con questo strumento è quindi possibile seguire il cammino di una particella carica in un dato recipiente riempito di vapore soprasaturo (camera a nebbia).

3 – ALCUNE CONSEGUENZE SPERIMENTALI DELL’OPERA DI MAXWELL: I LAVORI DI HERTZ.

[Da queste pagine ho tratto il materiale per l’articolo La verifica sperimentale delle teorie di Maxwell: i lavori di Hertz. Rimando quindi ad esso. Salteranno anche le note dalla (486) alla (540]

      4 – L’OTTICA DEI CORPI IN MOVIMENTO. IL PROBLEMA DELL’ETERE E L’ESPERIENZA DI MICHELSON – MORLEY.

         Verso la metà degli anni ’70, come abbiamo già visto nel paragrafo 6 del capitolo III, la situazione nell’ambito dell’ottica ed in particolare  relativamente all’ottica dei corpi in movimento era la seguente:

– la teoria ondulatoria della luce aveva avuto il suo riconoscimento ufficiale;

 – la teoria dell’etere immobile spiegava bene il fenomeno dell’aberrazione ma non riusciva a spiegare tutta una serie di fenomeni diversi come, ad esempio, l’esperienza di Arago e quella di Airy;

– la teoria del trascinamento totale dell’etere (Stokes, 1845) incontrava delle difficoltà nella spiegazione del fenomeno dell’aberrazione (si veda la nota 313);

– la teoria del trascinamento parziale dell’etere riusciva a spiegare, almeno al prime ordine di v/c, tutti i fatti sperimentali noti ed in più aveva un grosso sostegno nell’esperienza di Fizeau (misura della velocità della luce in un mezzo trasparente in movimento);

– il problema della determinazione delle proprietà di questo etere e dei suoi rapporti con la materia in moto si faceva sempre più pressante ed un invito ad indagare in questo senso fu anche rivolto ai ricercatori dall’Accademia delle Scienze di Parigi.

         Per altri versi gli sviluppi dell’elettromagnetismo avevano definitivamente stabilito che la luce ha una natura elettromagnetica, rendendo l’ottica un paragrafo dell’elettromagnetismo. Anche in questo campo di ricerca si cercava di capire quali fossero le proprietà dell’etere che, anche qui, serviva da sostegno alle ‘vibrazioni’. Risultato, allora, della scoperta identità tra luce ed onde elettromagnetiche fu la fusione dell’etere ottico con quello elettromagnetico. Da questo momento si avrà a che fare semplicemente con l’etere ed il problema della ricerca delle sue proprietà riguarderà da ora tutta la fisica. (541)

        Nel 1879 moriva Maxwell e nel 1880 veniva pubblicata postuma su Nature una sua lettera a D.P. Todd. In questa lettera, tra l’altro, Maxwell affermava: (542)

“Se  fosse  possibile  misurare  la  velocità  della  luce  in  un  solo  senso  fra  due stazioni terrestri in ciascuno dei due casi [nel primo caso la Terra si muove nello stesso senso della luce, nel secondo caso in senso contrario], la differenza tra i due tempi di transito dovrebbe dipendere in modo lineare dal rapporto tra la velocità v della Terra e la velocità c della luce rispetto all’etere. Si tratterebbe quindi di un effetto del primo ordine … Ma nei metodi terrestri per la determinazione della velocità della luce, la luce stessa torna indietro sempre lungo la stessa traiettoria, così che la velocità della Terra rispetto all’etere dovrebbe alterare il tempo necessario per il doppio passaggio di una quantità che dipende dal quadrato del rapporto tra la velocità della Terra e quella della luce [effetto del secondo ordine]: il quale è un valore troppo piccolo per poter  essere osservato.”

Per capire meglio quanto qui sostenuto facciamo un esempio semplice. Supponiamo di voler calcolare il tempo necessario affinché un battello, che parte da un certo punto A, risalendo la corrente di un fiume, raggiunga un altro punto B e, quindi, col favore della corrente, da B torni ad A, avendo percorso una distanza 2d (figura 29). Supponiamo che il battello sia dotato di una velocità u rispetto all’acqua del fiume e che la corrente dello stesso fiume abbia una

velocità v.

        Il tempo t AB    necessario per andare da A a B (per percorrere la distanza d controcorrente) sarà dato da:

tAB     =  d/(u-v)

in accordo con il principio classico di relatività (essendo v-u la velocità del battello rispetto alla riva del fiume).

        Il tempo tBA   per tornare da B ad A (per percorrere la distanza d a favore di corrente) sarà allora: 

  tBA    =   d/(u+v) 

sempre in accordo con il principio classico di relatività (essendo v+u la velocità del battello rispetto alla riva del fiume).

        Il tempo totale t1   necessario a completare il tragitto di andata e ritorno sarà dato da:

Come si vede questo tempo dipende dal secondo ordine in v/u, cioè da v2/u2. Ora, nel caso del battello e del fiume, le velocità sono dello stesso ordine di grandezza e pertanto la quantità v2/u2 è grande tanto da dare un contributo significativo al calcolo di t1 (se il battello ha una velocità di 50 km/h e la corrente di 10 km/h, segue che v/u = 1/5 da cui v2/u2 = 1/25).

        Supponiamo ora di voler fare lo stesso conto per il tempo impiegato dalla luce a fare un percorso di andata e ritorno sulla Terra (mediante, ad esempio, uno specchio). Se disponiamo i nostri strumenti in modo che il percorso della luce abbia la stessa direzione del moto orbitale della Terra, quando la luce marcerà in un verso sentirà un vento d’etere che si opporrà al suo movimento, quando marcerà in verso opposto il vento d’etere l’aiuterà nel suo movimento. E’ chiaro che il vento d’etere è quello prodotto dal moto della Terra in mezzo ad esso (l’analogo del vento d’aria che si sente andando in moto, che ha la stessa velocità della moto ma verso opposto). Ora, la velocità della Terra, rispetto all’etere, nel suo moto orbitale, è di circa 30 km/sec, mentre la velocità della luce, sempre rispetto all’etere, è di circa 300.000 km/sec. Il tempo t1  di andata e ritorno per un raggio di luce che debba percorrere un certo tratto d sulla Terra (nella direzione del moto orbitale di quest’ultima), analogamente al caso del battello, sarà:

dove 2d è la lunghezza del tragitto totale percorso dalla luce, v la velocità del vento d’etere, c la velocità della luce. Quanto vale v2/c2 ?

Questo era dunque il ragionamento di Maxwell: effetti cosi piccoli non si sarebbero potuti rilevare con nessuno strumento conosciuto. Egli allora proponeva di cercare il vento d’etere su altre esperienze, ma questa volta di carattere astronomico (in particolare suggeriva una versione modificata della misura fatta da Römer).

         Il problema era dunque quello di rilevare un moto assoluto della Terra rispetto all’etere ed, in ogni caso, di individuare la presenza e le proprietà di questa  sostanza.

         Proprio nell’anno della pubblicazione della lettera di Maxwell su Nature, il guardiamarina A.A. Michelson (1852-1931), docente di fisica al Nautical Almanac Office di Washington, si trasferiva dagli Stati Uniti in Europa per perfezionare i suoi studi, principalmente nel campo dell’ottica.

         Michelson già aveva lavorato in ottica riuscendo tra l’altro a realizzare (l873) un importante perfezionamento al metodo di Foucault per la misura della velocità della luce (sostituzione dello specchio concavo con uno specchio piano; la qual cosa permetteva di misurare c su qualsiasi distanza ed inoltre rendeva il costo dello strumento estremamente basso). Ma fatto interessante è che egli venne a conoscenza, in anteprima, della lettera di Maxwell a Todd, poiché quest’ultimo era suo collega al Nautical Almanac Office. Inoltre egli aveva già lavorato su esperienze utilizzanti metodi interferometrioi ed andò a proseguire i suoi studi dapprima a Berlino, nel laboratorio di Helmholtz, quindi ad Heidelberg, nei laboratori di Quincke e Bunsen, infine a Parigi, nei laboratori di Mascart, Cornu e Lippmann. (543)

        Già alla fine del 1880 egli aveva comunicato al direttore del Nautical la sua intenzione di riuscire ad individuare il moto della Terra attraverso l’etere; della cosa aveva già informato Helmholtz il quale non aveva avuto nulla da obiettare. (544)

        Michelson cominciò ad ideare lo strumento che riteneva necessario per eseguire l’esperienza che aveva in mente; da una ditta tedesca comprò un polarimetro ottico e ne sostituì la parte ottica piana con quella utilizzata nell’interferometro di Jamin (le due lastre uguali di vetro mostrate in figura 20) acquistata da una ditta di Parigi. Lo schema di funzionamento di questo primo interferometro di Michelson è mostrato in figura 30.

Figura 30

S è una sorgente di luce (dapprima monocromatica per la taratura dello strumento e quindi bianca); A e B sono le due lastre di vetro dell’interferometro di Jamin; M1 ed M2  sono due specchi piani; O è un oculare su cui è riportata una scala graduata. Il raggio di luce prodotto da S, interagendo con la lastra A, viene separato in due fasci che marciano tra loro ad angolo retto: il fascio 2, dopo aver attraversato A, essersi riflesso su M2  ed aver riattraversato A, va all’oculare O; il fascio 1, dopo aver attraversato B, essersi riflesso su M1 , aver riattraversato B ed essersi riflesso su A, va anche esso all’oculare O (si noti che: i due fasci si originano nel punto P; che la lastra B – lastra compensatrice – è utilizzata per rendere perfettamente uguali i due percorsi ottici; che i tratti PM1  e PM2  sono chiamati bracci dell’interferometro).

        L’idea guida dell’esperienza è ben espressa dallo stesso Michelson in apertura dell’articolo del l861 che ne fa un resoconto: (545)

“La  teoria  ondulatoria  della  luce  ipotizza  resistenza  di  un  mezzo  chiamato etere, le cui vibrazioni producono i fenomeni del calore e della luce e che si suppone riempia tutto lo spazio. Secondo Fresnel, l’etere che è racchiuso nei mezzi ottici condivide il moto di questi ultimi in una misura che dipende dai loro indici di rifrazione … Supponendo quindi che l’etere sia in quiete e che la Terra si muova in esso, il tempo necessario alla luce per passare da un punto all’altro della superficie terrestre dovrebbe dipendere dalla direzione lungo la quale essa si muove.”

Dunque si tratta di questo: quando la Terra si muove nello spazio con una velocità v, essa provocherà un vento d’etere con la stessa velocità v ma in verso contrario (si veda la figura 3l). Se si considera un raggio di luce che faccia un

percorso PM1P nella direzione del moto della Terra, esso impiegherà un dato tempo t1 diverso dal tempo t2  necessario ad un raggio di luce per percorrere una ugual distanza PM2P in direzione perpendicolare al moto della Terra. Ritornando all’esempio del fiume, incontrato un poco indietro, vediamone il perché riferendoci alla figura 32.

        Abbiamo già visto che il tempo t1  necessario ad un battello, che marci a velocità u, a percorrere il tragitto ABA in direzione della corrente è dato da:

Calcoliamoci ora il tempo t2  necessario allo stesso battello a percorrere una stessa distanza 2d ma, questa volta, in direzione perpendicolare alla corrente (tragitto ACA).

        Innanzitutto il pilota del battello, se  vuole arrivare da A a C, dovrà puntare la prua verso C”, in accordo con la composizione vettoriale delle velocità: la velocità risultante vR del battello sarà la somma vettoriale della velocità u , del battello rispetto all’acqua, e v della corrente rispetto alla riva (si veda la figura 33a). Analogamente al ritorno; se il pilota vuole arrivare da C ad A, dovrà puntare la prua verso C” e la sua velocità risultante sarà la medesima vR (si veda la figura 33b).

             E’ ora abbastanza facile calcolarci vR  (velocità del battello rispetto alla riva); basta applicare il teorema di Pitagora per avere:                    

Il tempo necessario a percorrere il tragitto ACA sarà allora:

            Come si può vedere i tempi t1 e t2 , forniti rispettivamente dalle (1) e (2), sono differenti.

            Ora, nel caso della luce illustrato in fig. 31, le cose vanno esattamente allo stesso modo a patto di sostituire alla velocità della corrente v la velocità del vento d’etere v, alla velocità del battello u la velocità della luce c, ai percorsi ABA e ACA i percorsi PM1P e PM2P.

            E questa era l’idea base di Michelson, il quale voleva evidenziare la differenza tra i due tempi t1 e t2, fatto che gli avrebbe permesso di mostrare l’esistenza dell’etere dal suo vento e conseguentemente il moto assoluto della Terra rispetto a quella misteriosa sostanza.

            In definitiva i tempi t1 e t2 necessari alla luce per percorrere rispettivamente i  tratti PM1P e PM2P erano teoricamente dati da:  (546)

avendo assunto che d è la lunghezza di ciascun braccio dell’interferometro. Calcoliamo ora quanto vale la differenza Dt fra questi due tempi:

Per poter procedere al calcolo conviene fare una approssimazione lecita solo se  v<<c, cosa senz’altro verificata. Allo scopo ricordiamo la formula binomiale che permette lo sviluppo del binomio di Newton:

Applichiamo questo sviluppo ai due termini dell’ultimo membro della (3):

Facciamo ora l’approssimazione annunciata. Poiché v<<c e, conseguentemente, v/c<<1, la quantità v2/c2 è certamente molto piccola e, a molto maggior ragione, v4/c4 è completamente trascurabile. Con tale assunzione si ha:

avendo trascurato i termini in v/c di ordine superiore al secondo.

            In questo modo la (3) che ci forniva  Dt diventa:

avendo indicato con  Ds il tragitto percorso dalla luce nel tempo  Dt.

            Tutto ciò che abbiamo detto era nell’ipotesi implicita che i bracci dell’interferometro fossero perfettamente uguali e lunghi d. Ora, mentre nel caso del battello metro più o metro meno, su percorsi di centinaia di metri, non crea alcun problema, in questo caso, dato il piccolissimo effetto da rilevare, anche una piccolissima ed inevitabile differenza tra i due bracci può essere fatale alla validità dell’esperienza (essendo tal piccola differenza quantomeno dell’ordine di grandezza dell’effetto da misurare). Per rimediare a questo inconveniente Michelson pensò di effettuare la misura, una prima volta con i bracci dell’interferometro sistemati come in fig. 30 e quindi, una seconda volta con i bracci ruotati di 90° sul piano orizzontale, di modo che il braccio prima disposto nella direzione del vento d’etere fosse ora perpendicolare ad esso (e viceversa per l’altro braccio). Operando in questo modo l’inconveniente veniva eliminato: i due bracci invertivano il loro ruolo e la seconda lettura, fatta per differenza con la prima, compensava gli effetti (anche analiticamente). (547) Nella seconda lettura si otteneva una differenza di tragitto analoga alla prima ma di segno contrario cioè, in totale, una differenza doppia della precedente.

            Rifacciamoci allora i conti, nell’ipotesi di bracci con lunghezza diversa: PM1 = d1 e PM2 = d2. Ripartendo dalla (3) si ha:

Invertendo ora i bracci dell’interferometro, la relazione precedente diventa:

La differenza tra questi due tempi sarà:

avendo, come prima, indicato con  Ds il cammino percorso dalla luce nel tempo Dt. Ora si tratta di andare a sostituire i valori numerici ricavati dalla struttura dell’apparato sperimentale; ed ora, e solo ora, possiamo supporre, nei limiti degli errori di misura, che  d1 ~ d2 = d e scrivere:

E questo risultato è in accordo con quanto anticipato: abbiamo ottenuto una differenza doppia e ciò vuol dire che gli effetti si sono compensati.

            In ultima analisi, l’esperienza di Michelson, per la prima volta, ci pone di fronte ad una dipendenza del secondo ordine in v/c. la differenza Ds di cammino ottico è quella che nell’oculare O dovrebbe originare frange di interferenza. (548) Considerando gli ordini di grandezza in gioco, cerchiamo di vedere se ciò è sperimentalmente realizzabile. Nell’esperienza di Michelson del 1881 si aveva  d1  ~  d2  = 120 cm ed allora  Ds ~ 2,4.102.10-8 cm = 2,4.10-6 cm. Se si confronta questa differenza di cammino ottico dei due raggi con la lunghezza d’onda della luce (l = 57.10-6 cm), si trova:

E ciò significa che, dopo aver fatto la prima misura con l’interferometro sistemato in una data posizione, quando si va a fare la seconda misura con l’interferometro ruotato di 90°, si dovrebbe osservare, nella figura d’interferenza, uno spostamento di 4/100 di frangia. E lo strumento a disposizione di Michelson era in grado di apprezzare spostamenti di frange di questo ordine di grandezza.

        Nonostante ciò, Michelson concluse la sua memoria del 1881 affermando: (549)

” L’interpretazione dei risultati ottenuti è che non esiste alcuno spostamento delle frange d’interferenza. Si mostra in tal modo che è errato il risultato dell’ipotesi dell’etere stazionario, e ne consegue la necessaria conclusione secondo cui l’ipotesi stessa è sbagliata.

Questa conclusione contraddice direttamente la spiegazione fino ad ora generalmente accettata per i fenomeni di aberrazione: spiegazione che presuppone che la Terra si muova attraverso l’etere e che quest’ultimo rimanga in quiete.”

E ciò vuol dire che la teoria di Fresnel, che prevede un etere immobile nello spazio, etere nel quale la Terra si infila senza creare alterazioni, a parte un piccolo trascinamento nei corpi trasparenti, va rivista. Le cose sembrano andare d’accordo con la teoria di Stokes; infatti, poiché la teoria prevede un trascinamento totale dell’etere sulla superficie della Terra, quest’ultima non e’ animata di moto relativo rispetto all’etere.

        Le condizioni in cui Michelson aveva lavorato in questa sua prima esperienza non erano delle migliori. Molti problemi si erano posti, legati soprattutto alle condizioni fisiche del luogo dove lo strumento era posto. Ad   esempio egli dovette trasferirsi da Berlino ai sotterranei dell’Osservatorio di Potsdam, poiché troppe erano le vibrazioni dovute al traffico cittadino che, di fatto, gli impedivano di far misure. Un altro grave inconveniente, ricordato dallo stesso Michelson nel suo lavoro con Morley del 1887, era legato alle difficoltà incontrate per ruotare manualmente lo strumento. Insomma, questo primo lavoro lasciò molti dubbi e sollevò molte critiche; lo stesso Michelson lo considerò un insuccesso.

        Dopo la realizzazione dell’esperienza, Michelson rimase ancora un anno in Europa. Passò prima ad Heidelberg dove, tra l’altro, ebbe modo di stare a contatto con Quincke il quale nel 1867 aveva introdotto la tecnica dell’argentatura di una delle superfici delle lastre di vetro di Jamin. In questo modo, dosando la quantità di argento che si faceva depositare sulla superficie, si potevano ottenere specchi semitrasparenti, con il risultato che le frange risultavano molto più nitide. (550)

         Una lettera scritta a Nature in questo periodo, per criticare una misura di velocità della luce eseguita di recente da Young e Forbes, gli valse l’amicizia di Lord Hayleigfa (1842-1919) che condivideva le sue opinioni su quella misura.

         Prima di tornare negli Stati Uniti, Michelson soggiornò qualche tempo a Parigi. Qui, come già detto (si veda la nota 546), scrisse una memoria nella quale riconosceva e correggeva il suo errore nella non valutazione del vento d’etere sul cammino ottico perpendicolare ad esso.

         Ripresa la sua attività negli Stati Uniti, per lungo tempo, Michelson non fece più riferimento all’esperienza di Potsdam. Egli si dedicò a svariati lavori di ottica e, in particolare, alla misura della velocità della luce ed alla ripetizione (l886) dell’esperimento di Fizeau, (551) fatto quest’ultimo ritenuto importante da molti, ora che si disponeva di apparati in grado di rilevare effetti al secondo ordine in v/c. Quest’ultima esperienza la condusse insieme al chimico E.W. Morley (1838-1923). (552)  Dopo 65 serie di misure (!)  con uno strumento che era una variante dell’interferometro di Michelson, i due  ricercatori trovarono per il coefficiente di trascinamento di Fresnel in acqua  il valore di 0,434 ± 0,03, che era in ottimo accordo con quello previsto teoricamente da Fresnel (0,438). Questo valore migliorava quello trovato da Fizeau  (0,5 ± 0,1) che, mentre era in buon accordo con quello previsto dal lavoro teorico di J.J. Thomson (cui abbiano fatto cenno alla nota 541), che aveva tentato di ricavare il coefficiente di trascinamento dalla teoria elettromagnetica, non lo era molto con quello previsto da Fresnel. In ogni caso il risultato era  in accordo e con la teoria di Fresnel e con l’esperimento di Fizeau, di modo che i due ricercatori statunitensi conclusero il loro lavoro affermando che “l’etere  luminifero  è  completamente  insensibile  al  moto  della  materia  che esso permea.” Ed in definitiva le cose sembravano svolgersi in accordo con la teoria di Fresnel: etere stazionario e trascinamento parziale.

        E’ a questo punto (l886) che viene pubblicata una memoria del fisico olandese H.A. Lorentz (1653-1928) nella quale si discuteva l’influenza del moto della Terra sui fenomeni luminosi. (553)  L’articolo in oggetto si apriva   con una frase che aveva il sapore di un programma: (554)

l’esame  di  questa  questione  non  interessa  soltanto  la  teoria  della  luce,  esso ha acquistato una importanza molto più generale da quando è diventato probabile che l’etere giochi un ruolo nei fenomeni elettrici e magnetici.”

Fatta questa premessa Lorentz passò ad esporre la sua teoria che prendeva le mosse da quella sviluppata da Stokes nel 1845 (555) e si integrava con quella   di Fresnel. Egli però, dopo aver dimostrato l’inconciliabilità delle due ipotesi di Stokes (l’etere dotato di velocità potenziale e l’etere totalmente trascinato dai corpi materiali: è impossibile che l’etere sia un fluido incompressibile e che si muova alla stessa velocità della superficie della Terra senza che in esso si producano vortici – questa era l’ipotesi di Stokes che  Lorentz dimostra non in accordo con i principi della meccanica -), optò solo per la prima, accettando quindi che l’etere sia dotato di una velocità potenziale (in questo modo si rendeva possibile la conciliazione di Stokes con Fresnel). Più in dettaglio, (556)  secondo Lorentz: l’etere è dovunque immobile nello spazio vuoto; la materia è completamente trasparente all’etere il quale rimane immobile anche quando è attraversato da un corpo materiale in movimento; poiché l’etere è immobile e la Terra è dotata di una certa velocità, l’etere che è a contatto con la Terra risulta in moto rispetto alla sua superficie ed è inoltre dotato di una velocità potenziale; sulla superficie della Terra i moti relativi dell’etere e della Terra stessa possono essere differenti a seconda delle situazioni particolari; nei corpi trasparenti c’è trascinamento parziale dell’etere secondo il coefficiente di Fresnel che dipende dall’indice di rifrazione del mezzo.

            Con questa elaboratissima ipotesi Lorentz ridusse la teoria di Fresnel ad un caso particolare della sua (si ha trascinamento di Fresnel quando la velocità potenziale dell’etere è uguale a zero) e dimostrò che, ad eccezione dell’effetto Doppler prodotto dalla luce delle stelle, non si poteva in alcun modo rilevare il moto della Terra da fenomeni ottici. C’è solo da notare che queste conclusioni Lorentz le ricavò facendo delle approssimazioni, a mio giudizio, non più lecite a questo livello di elaborazione teorica e sperimentale: egli trascurò termini in v/c d’ordine superiore al primo. In ogni caso questa teoria era in ottimo accordo con le conclusioni di Fresnel e spiegava allo stesso modo tutti i fatti sperimentali fino ad allora conosciuti. Inoltre, proprio in quello stesso anno, l’esperienza di Michelson e Morley, ripetizione di quella di Fizeau, aveva mostrato un completo accordo della teoria di Fresnel con l’esperimento.

               Il lavoro di Lorentz, a questo punto, proseguiva andando a discutere i supposti rapporti tra etere e materia ponderabile anche perché, nella seconda delle sue ipotesi iniziali, egli aveva ammesso che “alla superficie della Terra i moti di questa e dell’etere possono essere differenti” ed una questione di tal portata non si poteva lasciare in sospeso. Cosi scriveva Lorentz: (557)

Comunque stiano le cose, sarà bene, a mio avviso, non lasciarsi guidare, in una questione cosi importante, da considerazioni sul grado di probabilità o di semplicità dell’una o dell’altra ipotesi, ma indirizzarsi verso l’esperimento per arrivare a conoscere lo stato, di riposo o di movimento, nel quale si trova l’etere sulla superficie terrestre.”

E, secondo Lorentz, l’esperienza di Michelson del 1881 sembrava indicare che l’etere fosse immobile rispetto alla superficie della Terra, anche se questo esperimento non era sufficientemente preciso (e qui Lorentz faceva riferimento all’errore di sopravvalutazione degli effetti fatto da Michelson accennato nella nota 546) ed in ogni caso non in grado di fornire dati sulle velocità relative della Terra e dell’etere. Insomma il problema dell’etere si poneva come problema di rapporto tra etere e materia (preludio questo alla teoria degli elettroni di Lorentz della quale parleremo nel prossimo paragrafo).

        Rayleigh, anch’egli convinto che il problema centrale fosse di stabilire il rapporto esistente tra etere e materia, scrisse a Michelson mettendolo al corrente dell’articolo di Lorentz e facendogli presente che era diventato urgente ripetere l’esperienza di Potsdam.

        Nel marzo del 1887 Michelson rispose a Rayleigh (558) confidandogli anche la propria insoddisfazione per l’esperienza del l88l e che, per la verità, si era sentito molto scoraggiato quando i suoi stessi amici scienziati non gli avevano prestato attenzione sull’argomento. In ogni caso ringraziava Rayleigh per averlo incoraggiato e, dopo essersi impegnato a ripetere l’esperimento, gli chiedeva dei consigli che potrebbero oggi far sorridere ma che ben rendono conto delle problematiche complesse che c’erano dietro la vicenda dell’etere. Michelson si preoccupava di sapere se la sua esperienza poteva essere inficiata dalla particolare geometria del laboratorio se, ad esempio, una parete potesse ostacolare il vento d’etere. Così scriveva Michelson: (559)

” Supponiamo, per esempio, che le irregolarità della superficie della Terra siano schematicamente rappresentate da una figura come questa:

Se la superficie della Terra fosse in movimento nel verso della freccia, l’etere che si trova in 00 sarebbe trascinato con essa ? [e, cosa accadrebbe] in una stanza di questa forma?

        Immediatamente, ancora insieme, Miohelson e Morley si misero al lavoro realizzando uno strumento di misura che aveva superato tutti i difetti di quello di Potsdam.  (560)  Innanzitutto l’intero stramento era montato solidalmente con una grossa base di arenaria (figura 34a) la quale a sua volta era montata su di un galleggiante di legno sistemato in una vasca di ferro contenente mercurio (una sezione dell’intero apparato e’ mostrata in figura 34b). II tutto aveva una grossa 

stabilità e contemporaneamente poteva venir ruotato sul piano orizzontale intorno al suo asse (x), con facilità e senza provocare distorsioni (anzi l’apparato veniva manualmente messo in rotazione e continuava a ruotare per inerzia in modo cosi lento che le letture potevano essere fatte quando esso era in moto).

        L’altra questione riguardava la sensibilità dello strumento che era al limite della misura da effettuare: a Potsdam lo strumento era in grado di porre in evidenza uno spostamento delle frange pari ad un centesimo di frangia; ora, con un sistema di riflessioni multiple (figura 34c), si aumentava, moltiplicandolo per circa 10, il tragitto della luce ed in questo modo si aumentava di circa un fattore 10 l’effetto previsto; ora lo strumento, se l’effetto previsto si fosse verificato, avrebbe dato una risposta più grande (lo strumento era reso 10 volte più sensibile). Ci possiamo rendere conto di quest’ultima cosa se riprendiamo per un momento in esame la relazione (4) incontrata più indietro e sostituiamo  i valori ora a disposizione , che differiscono dai precedenti solo perché ora d ~ 11 m = 1,1.103 cm, si ha:        

e, come si vede, si è amplificato di un fattore 10 l’effetto previsto: ora, mentre si è in grado sempre di apprezzare lo spostamento di un centesimo di frangia,  l’effetto previsto è di ben circa mezza frangia.

        Con questo apparato, con estrema cura, venne eseguita l’esperienza nel mese di luglio del 1887: non si osservò nessun effetto. Nell’articolo che descrive l’esperienza,  (561)  tutto impostate per rispondere alle critiche di Lorentz sulla non attendibilità del lavoro del 1881, Michelson e Morley dicevano: (562)

si è deciso di ripetere l’esperimento con modifiche tali da assicurare un risultato teorico il cui valore numerico sia talmente elevato da non poter essere mascherato da errori sperimentali … Da tutto quanto precede [discussione dei risultati sperimentali] sembra ragionevolmente certo che, se esiste un qualche moto relativo tra la Terra e l’etere luminifero, allora esso deve essere molto piccolo; talmente piccolo da farci rifiutare la spiegazione dell’aberrazione data da Fresnel. Stokes ha elaborato una teoria dell’aberrazione nella quale si ipotizza che l’etere alla superficie della Terra sia in quiete rispetto a quest’ultima: in tale teoria si richiede solamente, inoltre, che la velocità relativa abbia un potenziale; ma Lorentz ha dimostrato che queste condizioni sono tra loro incompatibili. Lorentz ha quindi proposto una variante nella quale si combinano alcune idee di Stokes e di Fresnel, e si assume l’esistenza di un potenziale insieme al coefficiente di Fresnel. Se, sulla base del presente lavoro, fosse lecito concludere che l’etere è in quiete per quanto riguarda la superficie della Terra, allora, secondo Lorentz, non potrebbe esistere un potenziale della velocità; ed in tal caso la teoria dello stesso Lorentz fallisce.”

L’esperienza aveva così fornito un risultato del tutto negativo e la spiegazione immediata e più spontanea , nel contesto della fisica di fine Ottocento, era che l’etere che circonda la Terra fosse trascinato da essa cosicché esso risultasse in quiete rispetto alla superficie della Terra stessa. Di nuovo sorgeva la difficoltà rispetto al fenomeno dell’aberrazione; l’ipotesi di un etere trascinato dalla superficie della Terra e quindi in riposo rispetto ad essa non si conciliava con la spiegazione di questo fenomeno. Di nuovo la teoria di Fresnel non era in accordo con questo fatto sperimentale, non lo era quella di Lorentz e tantomeno quella di Stokes, che Lorentz aveva dimostrato essere inconsistente.

        In definitiva, a questo punto ci troviamo di fronte all’aberrazione che si spiega con l’etere immobile; alla costanza dell’aberrazione per differenti mezzi che si spiega con il trascinamento parziale; all’esperienza di Michelson-Morley che si spiega con un trascinamento totale. Sono conseguenze di differenti fatti sperimentali, tutte in disaccordo tra di loro.

        Per altri versi l’idea che sempre più andava facendosi strada era che questo etere non sembrava in grado di fornirci un sistema di riferimento privilegiato né per i fenomeni ottici né per quelli elettromagnetici. In particolare, non si era in grado di evidenziare il moto della Terra rispetto all’etere e,  d’altra parte,  lo  stesso etere  sfuggiva ad  ogni  rilevamento  sperimentale. (564)

                Cosa concludere da tutto ciò?  

                 Certamente occorreva mettersi al lavoro per raccordare con una sola teoria i vari fatti sperimentali. Bisognava inventare cose nuove poiché non era possibile rimettere in discussione né l’ottica in quanto tale, né l’elettromagnetismo, né, tantomeno, la meccanica che ci fornisce la composizione delle velocità, e questo per il semplice motivo che questi capitoli della fisica erano molto  ben  strutturati,   mirabilmente  formalizzati,   spiegavano  una  mole  notevolissima di fatti sperimentali e fornivano una tal base di certezze che sembrava, impossibile rimettervi le mani.

                 Da dove cominciare ?

                 Intanto da ciò che sembrava più semplice: cercare di ricondurre alla ragione quel pazzo interferometro. Quindi cercando di modificare l’elettromagnetismo (di cui l’ottica è ormai un capitolo) in qualche sua parte. Ma la meccanica no: essa era davvero intoccabile.

                 Non c’è dubbio che questo era un periodo di grande travaglio all’interno di quella parte del mondo scientifico che lavorava su questi problemi in modo diretto. Il resto della comunità scientifica non era toccata dalla cosa; la specializzazione crescente, la divisione del lavoro, la richiesta di efficienza (tutti e tre come portato del mondo esterno che imponeva i suoi ritmi ad una scienza che era buona in quanto presto o tardi sarebbe servita al mondo della produzione – e molto presto della guerra -), tutto ciò faceva sì che problemi complessivi non si ponessero e che un ripensamento sui fondamenti non venisse preso molto sul serio. Ma di questo torneremo a parlare nel paragrafo 6 di questo capitolo. E’ ora molto importante andare a vedere quali furono le immediate elaborazioni teoriche che seguirono il lavoro di Michelson-Morley.

NOTE

(541) Nel 1881 J.J. Thomson fece il tentativo di dedurre il coefficiente di trascinamento di Fresnel dalla teoria elettromagnetica estendendo le equazioni di Maxwell al caso di un dielettrico in movimento, ottenendo un risultato che, secondo Thomson, era in accordo con l’esperienza di Fizeau. Nel 1882 G.F. Fitzgerald si occupò per primo degli effetti che il moto della Terra dovevano produrre sui fenomeni elettromagnetici, trovando che questi effetti si devono cancellare l’un l’altro simultaneamente (bibl.124, pagg. 23-24).

(542) Bibl. 123, pagg. 132-133. Gli stessi concetti sono espressi da Maxwell nella voce Etere che egli scrisse per l’Enciclopedia Britannica.

(543) G.H. Quincke (1834-1924) aveva lavorato con metodi interferenziali sia in ottica che in acustica (tubo di Quincke). R.W. Bunsen (l8ll-l899) aveva lavorato, come già accennato, in spettroscopia con Kirchhoff, in fotometria ed in vari altri campi. A. Cornu (1841-1902) aveva lavorato in spettroscopia e a misure di c (migliorando il metodo di Fizeau). G. Lippmann (1845-1921) stava lavorando in tecniche avanzatissime di fotografia ed una sua realizzazione del 1893 gli valse il premio Nobel del 1908.

(544) Per questa ed altre interessanti notizie sulla storia delle esperienze di Michelson (e Morley) si vedano bibll.120 e 121. Questa prima esperienza di Michelson era stata finanziata da A.G. Bell (colui che nel 1876 aveva brevettato il telefono) ed iniziata a Berlino e quindi realizzata a Potsdam.

(545) A.A. Michelson, The Relative Motion of the Earth and the Luminiferous Ether, in American Journal of Science, S. 3, 22, l88l; pagg. 120-129. La traduzione qui riportata è tratta da bibl. 123, pagg. 134-139.

(546) Nella memoria di Michelson del 1881, il calcolo di questo tempo era errato, poiché Michelson non aveva tenuto conto del fatto che il vento d’etere si faceva sentire anche in questo caso. Egli dava quindi per t2 il valore 2d/c. L’errore, come lo stesso Michelson afferma nella sua memoria con Morley del 1887, gli fu fatto notare dal fisico francese M. A. Potier nell’inverno del 1881. Esso fu subito corretto ed i risultati furono pubblicati su Comptes Rendus, 94, 520; 1882. Ma le cose ancora non andavano bene e fu Lorentz nel 1886 a far notare che con i conti fatti da Michelson l’effetto da attendersi era sopravvalutato di un fattore 2.

(547) Con questa rotazione di 90° dello strumento viene eliminato anche un altro effetto: il fatto che non siamo ben sicuri della direzione del vento d’etere anche se possiamo sospettare che sia tangente alla traiettoria della Terra intorno al Sole.

(548) Si noti che in assenza di vento d’etere e nell’ipotesi di bracci perfettamente uguali, in O non si dovrebbe avere nessuna frangia d’interferenza, ma solo una interferenza costruttiva che darebbe il massimo di illuminazione. Ancora in assenza di vento d’etere l’inevitabile disuguaglianza della lunghezza dei due bracci provoca inrterferenza. Qualora ci fosse il vento d’etere queste frange d’interferenza dovrebbero spostarsi quando l’apparato viene ruotato di 90°. Questo era il risultato che si aspettava.

(549) Bibl. 123, pag. 139. Si tenga conto che le difficoltà nell’interpretazione dell’esperimento di Michelson sono di gran lunga maggiori di quanto qui si è discusso. Allo scopo si può consultare il saggio di Holton, Einstein, Michelson y el experimento crucial, riportato in bibl. 127. In particolare si veda la pag. 209.

(550) Per questa ed. altre notizie qui riportate rimando a bibl. 120.

(551) La richiesta di ciò era venuta da Rayleigh e Kelvin direttamente a Michelson mentre i due fisici britannici si trovavano negli Stati Uniti per un giro di conferenze (1884).

(552) A.A. Michelson, E.W. Morley, Influence of Motion of the Medium on the Velocity of Light, Amer. Journ. Sci., 31;  1886; pagg. 377-386.

(553) H.A. Lorentz, De l’influence du mouvement de la terre sur les phénomènes lumineux, Arch. néerl., 21; 1887; pagg. 103-176 (già pubblicata in tedesco nel 1886).

(554) Ibidem, pag. 103.

(555) Si riveda la nota 313. Si noti che verso la fine del secolo la teoria di Stokes fu ripresa e perfezionata da Planck con l’ammissione di un etere compressibile,  irrotazionale e con un piccolo scorrimento rispetto ai corpi gravitanti massicci, intorno ai quali è altamente condensato. Per una riproposizione, oggi, della teoria di Stokes-Planck si può vedere: AA.VV., Esperimenti di ottica classica ed etere, Scientia, Vol. III, fasc. 3°, 1976

(556) Per quanto qui dirò, mi sono servito di bibl. 124 e 128.

(557) H.A. Lorentz, De l’influence …, citata, pag. 162.

(558) Si veda bibl. 120, pag. 29.

(559) Ibidem.

(560) Tra l’altro la lastra di vetro P di figura 30 era ora sostituita da una lastra con la faccia posteriore leggermente argentata (cosa imparata da Michelson ad Heidelberg) in modo da ottenere uno specchio semitrasparente che forniva una figura d’interferenza molto più chiara. Per questo strumento e per le misure che esso permetteva, Michelson ebbe il premio Nobel nel 1907.

(561) A.A. Michelson, E.H. Morley, On the Relative Motion of the Earth and the Luminiferous Ether, Amer. Journ.Sci., S.3, 34; 1887; pagg. 331-345. Ed anche su Phil. Mag., S. 5, 24; 1887; pagg. 449-463.

(562) Phil. Mag. pag. 451 e pagg. 458-459. La traduzione qui riportata è tratta da bibl. 123, pag. 140 e pagg. 144-145.

(563) Si osservi che la conclusione dei due ricercatori statunitensi, per essere completamente corretta, doveva prevedere almeno un’altra misura in un periodo diverso dell’anno (meglio a 6 mesi di distanza). Supponendo infatti che, nel dato periodo dell’anno in cui l’esperienza fu fatta, l’etere e la Terra fossero l’uno relativamente all’altra immobili perché, ad esempio, l’etere riempiente tutto lo spazio si muoveva con la stessa velocità orbitale della l’erra con il verso della tangente alla traiettoria in quel momento, ebbene una misura a sei mesi di distanza, con la Terra dotata di velocità in verso opposto, avrebbe evidenziato un effetto doppio. Ebbene, anche se questa esperienza era preventivata, non fu mai eseguita da Michelson-Morley, contrariamente a quanto si legge su molti libri.

(564) L’esperienza di Michelson-Morley, sempre con gli stessi risultati, fu ripetuta dallo stesso Michelson ad una differente altezza dal livello del mare (Michelson continuava con i dubbi che aveva espresso a Rayleigh)^ nel 1897, quindi da Morley e Miller tra il 1902 ed il 1904 e poi da svariati altri ricercatori, almeno fino al 1958 con tecniche sempre più sofisticate. Si noti che furono anche ideate diverse varianti dell’esperienza: quella di Trouton e Noble (1903), di Trouton e Rankine (l908), e così via; anche qui il risultato fu sempre negativo.

 Torna al paragrafo precedente

Segue…

Torna alla pagina principale

5 – TENTATIVI SI CONCILIARE LA TEORIA CON I FATTI SPERIMENTALI SENZA RINUNCIARE ALL’ETERE. I PRIMI LAVORI SI LORENTZ.

        Nel lasso di tempo che va, da 1880 al 1890, l’ottica e l’elettrodinamica dei corpi in movimento acquistano rilevanza nell’ambito della ricerca fisica.

        Le esperienze di Hertz fornivano una base sperimentale alla teoria di Maxwell, al campo elettromagnetico, alla teoria elettromagnetica della luce, all’azione a contatto propagantesi con velocità finita. Le stesso Hertz aveva mostrato che, nel suo modo di derivare le equazioni di Maxwell, queste ultime risultavano invarianti rispetto ad una trasformazione di Galileo.

        Per altri versi la teoria del trascinamento parziale dell’etere elaborata da Fresnel sembrava rendere conto dei vari fatti sperimentali, pur ponendosi in contrasto con l’ipotesi del trascinamento totale riproposta da Hertz sulle orme di Stokes.  Ma la teoria di Fresnel era in grado di rendere ragione solo di effetti al primo ordine del rapporto v/c (altrimenti detto costante di aberrazione).

        Gli esperimenti di Michelson, al secondo ordine del rapporto v/c, sembravano contraddire l’ipotesi di un trascinamento parziale ed affermare l’ipotesi del trascinamento totale che a sua volta si trovava in gravi difficoltà nella spiegazione del fenomeno dell’aberrazione. Oltre a ciò il trascinamento totale di Stokes risultava inconsistente ad una attenta analisi fattane da Lorentz.

        In definitiva, da una parte la teoria elettromagnetica aveva mostrato la sua capacità di spiegare e predire vari fatti sperimentali, dall’altra proprio l’elaborazione della teoria in connessione con nuovi fatti sperimentali faceva sorgere il problema di un inquadramento in una teoria più generale che rendesse conto di quanto di nuovo emergeva e di quanto era solo postulato nelle teorie precedenti. Era ancora l’indeterminatezza logica della teoria di Maxwell che apriva ampi spazi all’elaborazione teorica.

        In questo contesto e nell’ambito della scuola continentale iniziò a lavorare il fisico olandese H.A. Lorentz.

         Già nella sua tesi di dottorato, Riflessione e rifrazione della luce nella teoria elettromagnetica (1875), il cui argomento gli era stato suggerito da Helmholtz, egli mostrò uno spiccato interesse per la teoria di Maxwell che, allo stesso modo di Hertz, egli aveva appreso dai lavori di Helmholtz. Il problema che Lorentz affrontava non era privo di difficoltà; si trattava di ricavare le leggi della riflessione e rifrazione non più dalle teorie elastiche dell’ottica (Cauchy, Poisson, …), teorie che si presentavano come elaborazioni nell’ambito della meccanica, ma dalla teoria di Maxwell-Helmholtz. Le teorie elastiche, per rendere conto dei fenomeni di riflessione e rifrazione della luce, dovevano ricorrere a 6 condizioni le quali potevano essere soddisfatte solo ammettendo che, a lato delle vibrazioni trasversali, vi fossero anche vibrazioni longitudinali. Lorentz dimostrò che, ricavando quelle leggi dalla teoria elettromagnetica (con la sola ipotesi che la costante di polarizzazione del dielettrico fosse un numero molto grande), occorre tener conto solo di 4 condizioni i due per il campo elettrico e due per il campo magnetico. Queste condizioni possono essere soddisfatte con la sola ammissione di onde trasversali. In fin dei conti Lorentz mostrò che è più agevole ricavare le leggi dell’ottica dalla teoria elettromagnetica che non dalla meccanica (egli diceva che la teoria di Maxwell deve essere preferita alla vecchia teoria ondulatoria) riuscendo in questo modo a ridurre l’ottica, anche in modo analitico, ad un capitolo dell’elettromagnetismo.

        In questa fase Lorentz era ancora un sostenitore dell’azione a distanza (il Trattato di Maxwell era stato pubblicato da poco ed ancora mancavano più di 10 anni alle esperienze di Hertz). In ogni caso, per sua stessa ammissione, la sua adesione all’azione a distanza non era un dogma intoccabile. Egli affermava che la teoria discende dalle equazioni e non dall’azione a distanza: si trattava di scrivere queste equazioni cosicché esse descrivessero nel modo migliore la realtà e quindi arrivare a dedurle direttamente dalla considerazione di forze molecolari.

        Lorentz quindi già annunciava un ben chiaro programma: ricavare le equazioni di Maxwell in forma microscopica annettendo inoltre alle stesse equazioni un dato che trascendeva le modalità del loro conseguimento.

        In conclusione del suo lavoro del 1875 egli affermava (565) che “lo studio di altri fenomeni attraverso questa teoria si prospetta ugualmente fecondo per l’allargamento delle nostre conoscenze” e, passando ad esemplificare, Lorentz faceva riferimento: ai fenomeni della dispersione e della rotazione del piano di polarizzazione (effetto Faraday), al probabile rapporto tra forze meccaniche e fenomeni luminosi, all’influenza esercitata sulla luce dalle forze esterne e dal movimento del mezzo, ai fenomeni di emissione e di assorbimento, al calore raggiante.

             Come si vede si trattava di un ben vasto programma, ma quello che è più interessante per gli sviluppi futuri è che Lorentz si proponeva qui di stabilire “il modo in cui questi fenomeni sono connessi alla struttura molecolare” ed in particolare di ricercare un probabile legame tra emissione di luce e vibrazione di molecole, sede di oscillazioni elettriche. (566) E così Lorentz concludeva:

Lungi dall’avere acquisito una forma definitiva, la teoria di Maxwell indica piuttosto la necessità di giungere al chiarimento dei numerosi punti oscuri dei quali oggi non si può fornire che una spiegazione inadeguata.”

Rimane ancora da segnalare il ruolo giocato dall’etere in questo primo lavoro di Lorentz: esso comincia a venir separato dalla materia mediante l’ammissione che i corpi ponderabili non lo perturbano e che solo i corpi elettrizzati modificano le forze elettromotrici in esso presenti.

        Si comincia cosi ad intravedere la futura teoria di Lorentzt particellare da una parte e di campo dall’altra. Occorrerà però fare ancora molta strada, continuando a ricavare dalla teoria di Maxwell le leggi che regolavano altri, diversi fenomeni.

        Nella sua memoria Sulle relazioni tra la velocità di propagazione della luce e la densità e composizione dei mezzi (1878), egli tornò ad occuparsi ancora della riduzione dell’ottica all’elettromagnetismo, con il tentativo di elaborare una teoria delle proprietà ottiche della materia come conseguenza della teoria elettromagnetica. Egli trovà oosì la prima giustificazione teorica alla formula della dispersione della luce (che era fino ad allora completamente non spiegata dalla teoria di Maxwell) e poiché allo stesso risultato era pervenuto (l869) anche il fisico danese L.Lorenz (del quale ci siamo occupati nel paragrafo 3 del capitolo III) la formula della dispersione in oggetto fu chiamata di Lorenz-Lorentz.   (567)

         Ma, al di là di questo successo, che pur sempre più lo sosteneva a proseguire sulla strada dell’interpretazione dei vari fenomeni fisici mediante la teoria di Maxwell-Helmholtz, occorre sottolineare il modo con cui Lorentz riuscì a conseguirlo. Egli non considerava più allo stesso modo il comportamento dielettrico dell’etere e della materia ponderabile, così come faceva Maxwell. Ora il solo vero dielettrico era l’etere. E, poiché “lo spazio fra le molecole deve essere considerato pieno di etere“, di cui le stesse molecole sono imbevute, allora il comportamento dielettrico dei corpi ponderabili diventava una conseguenza dell’interazione tra i campi nell’etere e le particelle materiali cariche che facevano parte del corpo ponderabile in considerazione. Quando un’onda luminosa entra in un corpo ponderabile essa pone in oscillazione le particelle cariche ivi presenti. Queste particelle vibreranno con una frequenza propria originando, ciascuna, una piccola onda. L’interferenza di tutte queste onde elementari tra di loro e con l’onda incidente origina una onda risultante che risulta modificata rispetto a quella incidente. In modo ancora più preciso, si può dire che Lorentz supponeva la materia come costituita da molecole e che cambiamenti sullo stato elettrico di queste molecole influivano sulla polarizzazione dell’etere. Se ora una molecola è dotata di un momento elettrico di dipolo, essa indurrà una polarizzazione in ciascun punto dell’etere che a sua volta indurrà una forza elettromotrice. A questo punto Lorentz supponeva che all’interno di ogni molecola vi fosse una particella carica dotata di massa. La luce che interagisce con la materia genera un momento elettrico di dipolo nelle molecole, mettendo in moto le masse delle particelle. Una forza elastica di richiamo tende poi a riportare le particelle cariche nelle loro posizioni di equilibrio. E così il processo continua fin quando la luce interagisce con la materia. Ed ecco, in conclusione,che le particelle cariche che si trovano sulla materia hanno influito sulla propagazione della luce ma solo mediante un meccanismo che vede la materia oggetto di azioni che si svolgono principalmente nell’etere. In questo modo i ruoli delle particelle materiali cariche e dell’etere venivano ad essere separati con un procedimento del tutto nuovo rispetto alle teorie precedentemente sviluppate. Oltre a ciò, si iniziava a parlare di campi microscopici, in qualche modo originati dalle vibrazioni di minuscole particelle cariche (quindi da particelle cariche accelerate). (568)    Infine l’etere, continuando a rimanere sede dei fenomeni elettromagnetici, iniziava a perdere le sue caratteristiche materiali poiché Lorentz faceva l’ipotesi che  “le proprietà dell’etere, ad eccezione che nelle immediate vicinanze delle particelle, sono le stesse del vuoto.” (569)

        A questo punto e per circa dieci anni, gli interessi di Lorentz si indirizzarono verso altri campi e principalmente verso problemi di teoria cinetica dei gas e termodinamica che, proprio in quegli anni, erano arrivate ad un elevatissimo grado di maturazione e completezza (si veda il paragrafo 7 del capitolo III). (570)  Si può avanzare l’ipotesi che proprio i successi che l’interpretazione microscopica in termini di corpuscoli aveva permesso di conseguire indussero Lorentz a sempre più convincersi, se non altro, dell’utilità della rappresentazione di altri fenomeni fisici in termini di particelle. D’altra parte, anche un suo illustre collega, Maxwell, pur avendo sostenuto nella sua opera principale, il Trattato, la teoria di campo con l’annessa azione a contatto, aveva poi lavorato con notevole successo in questioni di teoria cinetica. Oltre a ciò, certamente, un grosso influsso su Lorentz lo ebbe quella scuola continentale, che faceva capo ad Ampère, dei Weber,  Riemann, Clausius, L. Lorenz ed Helmholtz, e che sostituì ai fluidi elettrici le particelle cariche di elettricità positiva e negativa, fluenti in versi opposti con uguali densità e velocità. Già abbiamo visto infatti come fin dal suo primo lavoro Lorentz insisteva su particelle cariche presenti nella materia ponderabile, e questo fatto si andrà sempre più precisando negli anni successivi, soprattutto a partire dalla sua importante memoria del l892. (571)

        In questo lavoro, che segna la definitiva conversione di Lorentz all’azione a contatto e quindi più pienamente alla teoria del campo elettromagnetico di Maxwell ed Hertz, (572) comparve la prima elaborazione di Lorentz di quella teoria che più tardi sarà chiamata “teoria degli elettroni“. (573) Varie erano le motivazioni che il fisico olandese portava a sostegno del suo cambiamelo di punto di vista, ma i fatti che più influirono su di lui erano state certamente le esperienze di Hertz del 1888 (con le quali non solo si dimostrava l’esistenza delle onde elettromagnetiche ma anche che esse si comportavano esattamente come la luce dalla quale differivano solo per la frequenza) che, tra l’altro, gli confermavano l’idea, già precedentemente elaborata in embrione nel suo lavoro del 1886, di onde elettromagnetiche generate da cariche elettriche oscillanti (e quindi accelerate) e da Lorentz applicata nell’ambito microscopico.

         Ma Lorentz aveva anche ben presente l’elaborazione teorica di Hertz  e non ne era soddisfatto poiché in essa

Hertz non si preoccupa di stabilire una analogia tra le leggi elettomagnetiche e le leggi della dinamica … [mentre] si è sempre tentati di ritornare alle spiegazioni meccaniche

(si ricordi che in Hertz le cariche elettriche erano quasi sparite per lasciar posto al solo campo). Oltre a ciò egli trovava insufficienti le teorie di Hertz poiché si fondavano su quel trascinamento totale dell’etere, alla Stokes, da lui stesso dimostrato inconsistente.

        Per altri versi molte lacune si presentavano nella stessa teoria di Maxwell. Ad esempio, in essa, senza alcuna spiegazione di carattere teorico, venivano introdotte delle costanti (costante dielettrica, permeabilità magnetica, conducibilità elettrica) che non si capiva bene da dove nascessero e che ruolo fisico o teorico giocassero (oltre al fatto che, alla fine, avevano la loro corretta sistemazione nelle equazioni).

         Secondo Lorentz, quindi, certamente “le concezioni di Maxwell possono servire di fondamento per la teoria cercata“, ma sarebbe stato necessario fare qualche cambiamento. Leggiamo direttamente il brano originale in quei passi in cui viene stabilita la teoria degli elettroni nelle sue ipotesi fondamentali: (574)

Mi è sembrato utile sviluppare una teoria elettromagnetica fondata sull’idea che la materia ponderabile fosse perfettamente permeabile all’etere e potesse spostarsi senza comunicare a quest’ultimo il minimo movimento … Purtroppo una difficoltà si presenta fin dall’inizio. Come farsi un’idea precisa di un corpo che, spostandosi in seno all’etere ed essendo conseguentemente attraversato da questo mezzo, è allo stesso tempo la sede  di una corrente elettrica o di un fenomeno dielettrico ?

La risposta a questo quesito seguiva immediatamente:

Per superare la difficoltà ho cercato, per quanto possibile, di ricondurre tutti i fenomeni ad uno solo, il più semplice di tutti, e cioè al movimento di un corpo elettrizzato … Sarà sufficiente ammettere che tutti i corpi ponderabili contengano un gran numero di particelle di carica positiva e negativa e che i fenomeni elettrici siano prodotti dallo spostamento di queste particelle.

Seguendo questo punto di vista una carica elettrica è dovuta ad un eccesso di particelle di un dato segno, una corrente elettrica è un reale flusso di questi corpuscoli e negli isolanti ponderabili ci sarà ‘spostamento elettrico’ quando le particelle elettrizzate che essi contengono sono allontanate dalla loro posizione di equilibrio.”

E’ tutto così chiaro da risultare superflua ogni ulteriore spiegazione. E’ invece interessante notare che per la prima volta veniva fornito un quadro esplicativo ed unitario dei diversi fenomeni elettrici. Certo che, come anche lo stesso Lorentz riconosceva subito dopo, varie volte ed isolatamente erano state avanzate delle ipotesi simili alle sue; per questo motivo egli sosteneva che:

nella nuova forma che sto per darle, la teoria di Maxwell si avvicina alle vecchie idee [di Weber e Clausius].”

Subito dopo Lorentz affermava che però si poteva anche prescindere dal modo con cui le equazioni erano state ottenute: l’importante era il risultato e cioè le equazioni stesse. Passando poi ad un confronto della sua con le teorie di Weber e Clausius, egli scriveva:

Weber e Clausius consideravano le forze di interazione tra due atomi come dipendenti dalla posizione relativa, dalle velocità e dalle accelerazioni che questi atomi possedevano nel momento in cui si considerava la loro azione reciproca. Al contrario le formule a cui perverremo esprimono da una parte i cambiamenti di stato determinati nell’etere dalla presenza e dal movimento delle particelle elettrizzate; dall’altra esse indicano la forza con cui l’etere agisce su una qualsiasi particella.”

Il capolavoro di Lorentz si andava realizzando: egli riuscì a sintetizzare in un modo mirabile e semplice (almeno nella formulazione modellistica) le due principali teorie dell’elettromagnetismo, quella particellare della scuola continentale e quella di campo della scuola britannica; alle cariche elettriche veniva assegnato il ruolo di sorgenti del campo, la sede di quest’ultimo era l’etere (anzi l’etere sembra essere esso stesso campo), il campo così creato agiva a sua volta proprio sulle cariche che lo avevano generato, l’etere, pur rimanendo come indispensabile riferimento, scompariva come entità materiale: erano le grandezze elettromagnetiche del campo ad acquistare una realtà fisica.

        Ma come avveniva l’interazione tra etere (campo) e materia (cariche elettriche) ?

        Scriveva Lorentz:

Se la forza [con cui l’etere agisce su una qualsiasi particella] dipende dal movimento delle altre particelle è perchè tale movimento ha modificato lo stato dell’etere; in questo modo, il valore della forza, in un dato istante, non è determinato dalla velocità ed accelerazione che i corpuscoli posseggono in quello stesso istante; essa dipende piuttosto dai movimenti che hanno già avuto luogo. In termini generali si può affermare che le perturbazioni eccitate nell’etere dal movimento di una particella elettrizzata, si propagano con una velocità uguale a quella della luce,

e quindi con una velocità finita, conseguenza dell’accettazione dell’azione a contatto.

          Tra le ipotesi fondamentali alla base della sua teoria Lorentz poneva:

Le particelle cariche saranno considerate come appartenenti alla ‘materia ponderabile’ che può subire l’azione di forze; tuttavia supporrò che in tutto lo spazio occupato da una particella ci sia anche l’etere, ed inoltre che uno spostamento dielettrico ed una forza magnetica, prodotti da una causa esterna, possano esistere come se la ‘materia ponderabile’ non ci fosse affatto. Quest’ultima è dunque considerata come perfettamente permeabile all’etere.

          II fatto poi che lo spostamento di particelle materiali cariche costituisce una corrente elettrica era ritenuto ragionevole dal nostro a seguito dell’esperienza di Rowland che aveva appunto dimostrato che il trasporto meccanico di una carica elettrica equivale ad una corrente.

         Con tutto questo apparato concettuale, Lorentz iniziò a lavorare applicando le equazioni di Maxwell (si badi bene: nella forma semplificata che gli aveva dato Heaviside, con alcune notazioni introdotte da Fitzgerald, con l’introduzione dei potenziali ritardati ed usando di alcuni risultati nel calcolo integrale ottenuti l’anno prima da Poincaré) alle supposte particelle cariche.

         Alle equazioni di Maxwell, ora ridotte a quattro, che descrivevano la situazione del campo e quindi dell’etere, Lorentz dovette aggiungerne una quinta che rendesse conto di un fenomeno impensabile nella teoria di Maxwell, dell’interazione elementare tra campo elettromagnetico e carica elettrica. Questa equazione, risultato di grande importanza e ancora oggi nota come forza di Lorentz (575) con simbolismo moderno si scrive:

dove F  rappresenta la forza che si esercita su una carica q in moto con velocità  v  all’interno di un campo elettromagnetico E e B con una direzione formante un angolo a con quella del campo magnetico B [nel caso in cui a risulti uguale a 90°, cioè la direzione del moto di q risulti perpendicolare a quella del campo B allora la formula diventa F = q(E + vB)]. Ed in pratica ciò vuol dire che le cariche q in moto sono sorgenti di forze dipendenti dalla velocità.

         L’applicazione di queste cinque equazioni alle particelle cariche in moto permise a Lorentz di conseguire risultati di notevole importanza tra i quali emerge in modo particolare la deduzione teorica del coefficiente di trascinamento di Fresnel proprio come conseguenza delle equazioni del campo elettromagnetico. Cerchiamo di capire la strada seguita da Lorentz per arrivare a questo risultato.

        Innanzitutto consideriamo un mezzo trasparente investito da una radiazione luminosa. Queste mezzo sarà costituito da tante particelle cariche di segno opposto in modo che una data molecola sarà formata, nell’ipotesi più semplice, da una carica positiva ed una negativa (un dipolo) legate insieme da una forza elastica. Con un meccanismo già descritto qualche riga più su, quando un’onda luminosa interagisce con la nostra molecola-dipolo la mette in vibrazione: le due cariche si allontaneranno e riavvicineranno alternativamente. Conseguenza di ciò è che la forza elettrica cambierà alternativamente di direziono. Il nostro dipolo emetterà allora onde elettromagnetiche elementari che andranno ad interferire e con le altre onde elettromagnetiche elementari generate dalle altre molecole-dipolo e con l’onda primaria incidente. Questa interferenza che si produce all’interno del mezzo trasparente provoca un rallentamento nella velocità dell’onda incidente (in accordo con quanto sappiamo sulla rifrazione nel passaggio da un mezzo meno ad uno più denso). Bisogna ora osservare che il grado di vibrazione del dipolo dipenderà dal valore della forza elastica di richiamo, dipenderà cioè dall’intensità del legame tra cariche positive e negative nella molecola. Ora, la forza di legame tra le molecole è strettamente connessa al grado di polarizzazione che, a sua volta, è relazionato all’indice di rifrazione del mezzo trasparente in considerazione.

        In definitiva la velocità dell’onda risultante w sarà minore di quella dell’onda incidente c di una quantità dipendente dall’indice di rifrazione del nostro mezzo trasparente:   w = c/n. E tutto ciò nell’ipotesi che il nostro mezzo trasparente dielettrico sia immobile rispetto all’etere.

        Supponiamo ora di mettere in moto il nostro mezzo con una velocità v (è quello che accade per ogni oggetto che, trovandosi sulla Terra, è in moto rispetto all’etere considerato immobile). Le onde luminose che lo attraversano mettono in vibrazione i dipoli ivi presenti. Mentre questi dipoli vibrano, emettendo onde elettromagnetiche, sono soggetti ad un moto d’insieme rispetto all’etere con la velocità v, la stessa, del mezzo trasparente che li contiene. Poiché i dipoli sono delle cariche elettriche e poiché si muovono ciascuno rispetto all’etere con velocità v debbono originare un campo magnetico, un qualcosa di più rispetto alle onde elettromagnetiche che, nel frattempo, vanno emettendo. Questo campo magnetico così originato va ad interagire con i dipoli che stanno vibrando (si tratta di un campo magnetico che agisce su delle cariche elettriche) alterando la loro vibrazione e, conseguentemente, le onde elementari da essi emesse. In questo modo l’onda risultante, dovuta all’interferenza delle onde elementari tra loro e con l’onda primaria, ne risulterà modificata di una quantità che dipende, come Lorentz dimostrò, dalla velocità v di traslazione dei dipoli stessi e ancora dall’indice di rifrazione del mezzo trasparente. E così se indichiamo con c/n la velocità  dell’onda luminosa primaria nel mezzo trasparente, con w la velocità dell’onda risultante, con v la velocità di traslazione dei dipoli rispetto all’etere e con n l’indice di rifrazione del mezzo trasparente, si ha che la velocità w di propagazione della nostra onda risultante rispetto alla materia ponderabile è data da:

    w = c/n – v/n2

In questa relazione v/n2  rappresenta il rallentamento dell’onda risultante a causa dei meccanismi d’interazione tra la vibrazione dei dipoli, il campo magnetico generato dalla loro traslazione e l’interferenza tra onde elementari ed onda primaria (si tenga conto che la relazione in oggetto era stata ricavata da Lorentz trascurando termini del secondo ordine in v/c).

        Se la velocità w, anziché riferirla alla materia ponderabile (che è in moto con velocità v), la riferiamo all’etere immobile, alla relazione precedentemente vista dobbiamo aggiungere la velocità v di traslazione della materia ponderabile rispetto all’etere (composizione galileiana delle velocità), cioè:

w = c/n – v/n2          =>   w = c/n + v (1  – 1/n2)

che è la ben nota relazione ricavata per altra via da Fresnel e dimostrata sperimentalmente da Fizeau.

         Era questo un grande successo della teoria di Lorentz che, per via elettromagnetica, dimostrava che tutto andava come se vi fosse un trascinamento parziale, ma che in realtà si trattava di una interazione tra campo nell’etere immobile e cariche in moto.

         Siamo nell’anno 1892. Lorentz aveva elaborato una brillante teoria che si accordava e spiegava numerosi fatti sperimentali. L’unico neo era la non spiegazione dell’esperienza di Michelson-Morley del 1887 che, ormai, non poteva più essere messa in dubbio. D’altra parte tutto funzionava poiché l’intera teoria era stata ricavata al primo ordine di v/c fatto, a questo punto, non più sostenibile.

         Lorentz era ben cosciente di tutto ciò, anzi ne sembrava angosciato.

         Il 18 agosto del 1892 scrisse a Rayleigh per chiedergli chiarimenti sull’esperienza di Michelson-Morley. Dopo aver ricordato che il coefficiente di trascinamento di Fresnel rendeva conto di tutti i fatti sperimentali ad eccezione dell’esperimento di Miohelson-Morley, Lorentz scriveva: (576)

Sono talmente incapace di rimuovere questa contraddizione e malgrado ciòritengo che se dovessimo abbandonare la teoria di Fresnel, non avremmo nessuna teoria adeguata, poiché le condizioni imposte dal Sig. Stokes sul moto dell’etere sono inconciliabili tra loro.

Potrebbe esserci qualche aspetto nella teoria dell’esperimento del Sig. Michelson che sia stato fino ad ora trascurato ?

        Nel frattempo, il 16 giugno del 1892, veniva pubblicato su Nature un articolo del fisico britannico O.J. Lodge (1851-1940). (577) Lodge, dopo un’ampia rassegna dello stato delle problematiche dei rapporti tra etere e materia, sosteneva che l’esperimento di Michelson non riusciva ad essere spiegato in alcun modo a meno di ammettere un trascinamento totale dell’etere; inoltre egli faceva riferimento ad una sua recente esperienza dalla quale sembrava risultare “che l’etere non risente del moto della materia contigua almeno per una quantità pari ad 1/200 della velocità della materia“; ebbene, qualora si fosse accettata la spiegazione del trascinamento totale per rendere conto dell’esperienza di Michelson, quest’ultimo fatto sarebbe restato del tutto inspiegato.

         L’esperienza a cui Lodge faceva riferimento consisteva nel far passare un raggio di luce nello spazio interposto tra due dischi d’acciaio affacciati e ruotanti ad alta velocità. Nel caso in cui la materia in moto avesse trascinato con sé l’etere, la velocità della luce misurata sarebbe dovuta risultare modificata. Lodge non osservò nessun effetto.

         Insomma, le due esperienze, quella di Lodge e quella di Michelson, erano,  allo stato delle conoscenze, in conflitto.

        Subito dopo questo resoconto Lodge portava una testimonianza molto importante: egli affermava che per rendere conto dei fenomeni in oggetto ” il prof. Fitzgerald ha suggerito un modo per uscire dalla difficoltà supponendo che le dimensioni dei corpi siano una funzione della loro velocità attraverso l’etere.” (578)

        E’ la famosa ipotesi della contrazione; un oggetto si contrae nella direzione del moto di una quantità tanto maggiore quanto maggiore è la sua velocità.

        Non è ben certo se Lorentz conoscesse o meno l’ipotesi di Fitzgerald  (579) e questo è comunque poco importante (non sarebbe la prima volta che in fisica si realizzano scoperte simultanee in connessione con la maturazione di un determinato problema); resta il fatto che Lorentz elaborò quantitativamente questa ipotesi in un lavoro che fu comunicato all’Accademia di Amsterdam il 26 novembre del 1892  (580)   ed, in modo più accurato, in una successiva, grande memoria del 1895  (581)  (quando dovremo riferirci a quest’ultima memoria lo faremo indicandola con la prima parola del suo titolo Versuch).                                                                             

         A cosa serviva questa ipotesi ?

         Se ricordiamo l’esperienza di Michelson, la luce, per percorrere tragitti uguali nei due bracci dell’interferometro, nell’ipotesi di esistenza di un vento d’etere, dovrebbe impiegare tempi diversi: il tempo impiegato per il tragitto andata e ritorno nel braccio perpendicolare alla direziono del moto dovrebbe essere diverso dal tempo impiegato per il tragitto andata e ritorno nel braccio parallelo alla direziono del moto. Questa differenza di tempi dovrebbe originare interferenza in un dato oculare. L’esperimento, fatto con somma cura,  non dava indicazione alcuna di tempi diversi necessari alla luce per percorrere i due bracci dell’interferometro.

        Nella memoria del 1892 Lorentz scriveva: (582)

Questo esperimento è stato per me un rompicapo per molto tempo ed alla fine sono riuscito a trovare un metodo per riconciliare il suo risultato con la teoria di Fresnel. Esso consiste nel supporre che la linea che unisce due punti di un corpo solido secondo la direziono del moto della Terra, non conserva la medesima lunghezza quando il corpo ruota di 90°.”

E ciò vuol dire che un corpo rigido di una data lunghezza, quando è situato in direzione perpendicolare alla direzione del moto della Terra, assume una lunghezza diversa (minore)  di quella che assume quando esso è situato in direzione parallela al moto della Terra. In definitiva un oggetto si contrae se si muove in direzione parallela al moto della Terra o, che è lo stesso, in direzione parallela al vento d’etere.

        Così proseguiva Lorentz: (583)

Così come io vedo le cose, non è inconcepibile che la lunghezza dei bracci dell’esperimento di Michelson subisca delle variazioni. Che cos’è che determina la forma e le dimensioni di un corpo solido ? Evidentemente l’intensitàdelle forze molecolari: qualunque causa che la modificasse influirebbe anche sulla forma e le dimensioni. A tutt’oggi si può supporre, senza timore di sbagliare, che le forze elettriche e magnetiche agiscono attraverso l’etere. E non sembra gratuito supporre che la stessa cosa avviene per le forze molecolari. In questo caso però sarebbe molto diverso che la linea di unione tra le due particene, che si spostano insieme nell’etere, si trovi parallela o perpendicolare alla direzione dello spostamento.

       Non è impossibile contraddire questa ipotesi poiché non conosciamo bene la natura delle forze molecolari. Possiamo solo calcolare – e solo con l’aiuto di alcune ipotesi più o meno plausibili – l’influenza del moto della materia ponderabile sulla forza elettrica e magnetica. Forse vale la pena di dire che il risultato ottenuto nel caso di forze elettriche, fornisce, nel caso di forze molecolari, il valore esatto … della quantità di contrazione di uno dei bracci che è necessaria per spiegare l’esperimento di Michelson.”

      Ecco allora come è spiegato il risultato negativo dell’esperienza di Michelson:  il  braccio  dell’interferometro  che  si  muove  parallelamente  alla  direzione del moto della Terra si è contratto di una quantità tale da rendere nulla la differenza dei tempi necessari alla luce per percorrere i due bracci.

      La teoria comporta che se la Terra viaggiasse più velocemente, maggiore sarebbe la contrazione del braccio che si trova parallelo al suo moto e sempre tale da uguagliare perfettamente i tempi necessari alla luce per percorrere i due tragitti. Ciò vuol dire che l’esperienza di Michelson non può che dare risultati nulli e che, in ogni caso, nessuna altra esperienza sarebbe in grado di evidenziare un moto assoluto della Terra rispetto all’etere immobile.

             Scriveva Lorentz nella Versuch: (584)

Al fine di semplificare il problema supporremo di lavorare con il dispositivo impiegato nel primo esperimento e che in una delle posizioni principali il braccio P [ dell’interferometro] giaccia esattamente nella direzione del moto della Terra. Sia v la velocità di questo moto, L la lunghezza di entrambi i bracci e , quindi,  2L il cammino percorso dai raggi di luce. Secondo la teoria, la rotazione dell’apparato per un angolo di 90° fa si che il tempo durante il quale un raggio viaggia in andata e ritorno lungo P sia maggiore del tempo impiegato dall’altro raggio per completare il proprio cammino; la differenza è pari a:

 Lv2/c2

La stessa differenza si avrebbe se la traslazione non esercitasse alcuna influenza ed il braccio P fosse più lungo del braccio Q  per una quantità pari a:  

Lv2/2c2

Lo stesso vale per la seconda posizione principale. Vediamo quindi che le differenze di fase previste dalla teoria potrebbero anche sorgere qualora, durante la rotazione dell’apparato, prima un braccio e poi l’altro fossero rispettivamente il braccio più lungo. Me segue che le differenze di fase possono essere compensate da variazioni contrarie delle dimensioni. Se ipotizziamo che il braccio giacente nella direzione del moto della Terra è più corto dell’altro per una quantità  

Lv2/2c2

e che, nello stesso tempo, la traslazione abbia l’effetto previsto dalla teoria di Fresnel, allora il risultato dell’esperimento di Michelson è completamente spiegato. Pertanto si dovrebbe immaginare che il moto di un corpo solido … attraverso l’etere in quiete eserciti un’influenza che varia in funzione dell’orientamento del corpo stesso rispetto alla direzione del moto. Per sorprendente che possa apparire tale ipotesi a prima vista, pure dobbiamo ammettere che essa non è affatto artificiosa qualora si assuma che anche le forze molecolari vengono trasmesse attraverso l’etere, analogamente per quanto accade per le forze elettriche e magnetiche a proposito delle quali siamo attualmente in grado di accettare definitivamente tale assunzione. Se esse sono trasmesse in questo modo, la traslazione sarà molto probabilmente capace di influenzare l’azione tra due molecole o atomi in modo analogo a ciò che si ha nell’attrazione o nella repulsione tra particelle cariche. Ora, poiché la forma e le dimensioni di un corpo solido sono in ultima istanza condizionate dall’intensità delle azioni molecolari, non può mancare il prodursi di una variazione di dimensioni.

        Lorentz, già nel 1892, aveva ricavato che il campo di forze creato da una carica in movimento era uguale al campo generato da una carica ferma, ma contratto della quantità

nella direzione del moto della carica. (585) E questa contrazione è proprio quella che deve aversi per rendere conto dell’esperienza di Michelson, ora, nella Versuch del 1895, questo risultato veniva riaffermato. (586)

        Consideriamo infatti la relazione (3) che avevamo ricavato nel paragrafo precedente e relativa alla differenza complessiva Dt dei tempi necessari alla luce per percorrere i due bracci (supposti uguali e lunghi d) dell’interferometro di Michelson:

Ora, nelle ipotesi di Lorentz, il tempo t1, necessario alla luce per percorrere andata e ritorno il braccio parallelo al moto della Terra, sarà dato da:

a seguito del fatto che la lunghezza di questo braccio si è ora contratta ed è diventata d.(1 – v2/c2)1/2; il tempo t2 è invece rimasto invariato. Di conseguenza la (3) diventa:

Ecco allora che, in mancanza di tempi di percorrenza, l’esperimento di Michelson non può che dare risultato nullo.

        Ma possiamo estendere questo risultato anche al caso in cui i due bracci dell’interferometro non abbiano la stessa lunghezza d, ma siano lunghi rispettivamente d1 e d2. In questo caso più generale, la relazione che ci forniva la differenza dei tempi era la (3 bis) del paragrafo precedente:

dove  Dt’ era la differenza dei tempi che si aveva quando il braccio PM1 = d1  si trovavaparallelo alla direzione del moto della Terra ed il braccio PM2 = d2 si trovava perpendicolare a questa direzione, mentre  Dt” era la differenza dei tempi che si aveva quando i bracci erano ruotati di 90°, invertendo le loro posizioni.

        Introducendo la contrazione, durante la misura relativa a  Dt’, sarà d1 che si contrarrà, diventando d1(1 – v2/c2)1/2. Quando l’interferometro è ruotato di 90° sarà d2 che subirà la contrazione diventando d2 (1 – v2/c2)1/2. La (3 bis) diventa allora:

Ed anche qui, come si vede, la differenza dei tempi risulta nulla, con l’ovvia conseguenza del risultato nullo dell’esperienza di Michelson.

        Come si può notare, l’ipotesi della contrazione è in qualche modo conseguenza della teoria che già in precedenza aveva elaborato Lorentz e non propriamente un’ ipotesi ad hoc.   (587)

        In ogni caso l’elaborazione di Lorentz rappresenta la prima vera estensione dei fenomeni elettromagnetici ai fenomeni meccanici; un grande passo avanti sulla strada che tendeva, in quegli anni, all’unificazione di tutti i fenomeni fisici attraverso l’elettromagnetismo. Ma su quest’ultimo aspetto torneremo tra poco mentre è ora interessante fare una considerazione ed andare a cogliere gli altri importanti contributi di Lorentz nella Versuch del 1895.

        L’ipotesi della ‘contrazione‘ non è propriamente, almeno nella prima formulazione, quella di una contrazione. Spiego subito questo bisticcio riferendomi ad un brano dei paragrafi 90 e 91 della Versuch  (588)  che precedono quello, il 92,  (589)  in cui viene formulata la teoria delle forze che dovrebbero esercitarsi tra molecola e molecola nel caso di un corpo in movimento. Lorentz affermava che ambedue i bracci dell’interferometro di Michelson potrebbero subire una variazione di lunghezza tale da fornire risultato nullo all’esperimento. In realtà non si sa bene che cosa accade; potrebbe contrarsi il braccio che si muove parallelamente alla direzione del moto della Terra, mentre l’altro mantiene invariata la sua lunghezza; al contrario, potrebbe dilatarsi questo secondo braccio, mentre il primo mantiene invariata la sua lunghezza; potrebbe contrarsi un poco il primo e dilatarsi di un poco il secondo. E’ soltanto nel paragrafo 92 che il dubbio viene sciolto in favore della contrazione, ma non con un procedimento arbitrario, bensì facendo ricorso proprio alla teoria delle forze molecolari. (590)

        Ma qual è il valore di questa contrazione ? Di quanto si contrae, ad esempio,una sbarra posta parallelamente alla direzione del moto della Terra ?

        Lo stesso Lorentz ne fornisce una valutazione nel paragrafo 91 della Versuch:  (591)

Le contrazioni in questione sono straordinariamente piccole … La contrazione del diametro della Terra dovrebbe ammontare a circa 6,5 cm. La lunghezza di una sbarra di un metro

[posta parallelamente alla direzione del moto della Terra dovrebbe diminuire]

di circa 1/200 micron.”

        Come evidenziare queste variazioni di dimensione ?

        Solo con metodi interferometrici, affermava Lorentz,e noi siamo in grado di rendercene conto grazie proprio al risultato nullo dell’esperienza di Michelson. D’altra parte, osserviamo noi, è puramente illusorio pensare di riuscire a dare una valutazione di queste variazioni di lunghezza, ad esempio, con un regolo graduato. Se, infatti, pensiamo di eseguire questa misura, ad esempio di una sbarra, ci troviamo nella grave difficoltà che anche il nostro  regolo subisce le variazioni di lunghezza che subisce la sbarra. Rispetto alla direzione del moto della Terra, in qualunque posizione sistemiamo la sbarra da misurare, nella stessa posizione dovremo sistemare il regolo per la misura; il risultato è che in alcun modo possiamo renderci conto di una qualche variazione di lunghezza poiché esse risultano simultanee.  (592)

        Quanto detto è ciò che per ora c’è da dire su questa ipotesi della contrazione che da ora chiameremo di Lorentz-Fitzgerald.

        Ma vediamo in breve quali sono gli altri argomenti trattati nella Versuch. (593)

        In questo lavoro si segue un procedimento analogo a quello seguito da Hertz nella sua memoria del 1890, Sulle equazioni fondamentali dell’Elettrodinamica per i corpi in riposo; (594)  ora le equazioni di Maxwell non vengono più ricavate, ma vengono postulate prescindendo da ogni proprietà meccanica del supposto etere (quest’ultima essendo una caratteristica sempre presente nell’opera di Lorentz). Queste equazioni vengono per la prima volta date microscopicamente e quindi, con un processo di media tra i campi, (595) estese ai fenomeni macroscopici. Ora Lorentz aveva in mano uno strumento di calcolo più potente con il quale affrontò, un problema ormai ineludibile. Infatti tutti i corpi che si trovano sulla Terra sono trasportati da essa nel suo moto attraverso l’etere immobile; è chiaro allora che tutti i fenomeni ottici ed elettromagnetici, che avevano trovato una loro spiegazione nell’ipotesi che essi si verificassero in un sistema di riferimento immobile (la Terra) rispetto ad un etere in moto, dovevano ora trovarla nell’ipotesi che quel riferimento (la Terra) fosse in moto rispetto ad un etere immobile (il primato dell’ipotesi di etere immobile era già stato dimostrato da Lorentz quando, proprio con questa ipotesi, aveva ricavato, nella precedente memoria, il coefficiente di trascinamento di Fresnel da ipotesi puramente elettromagnetiche). Si trattava, in definitiva, di dimostrare che in un sistema in moto i fenomeni ottici ed elettromagnetici vanno come in un sistema in riposo.

        Noi conosciamo, ad esempio, la legge dell’induzione elettromagnetica che si esercita tra due correnti rettilinee. Ebbene, questa legge è stata ricavata nell’ipotesi che le due correnti fossero immobili rispetto all’etere. E se le due correnti, invece, sono considerate in moto rispetto al riferimento etere ? Analogamente per la forza elettrostatica che si esercita tra due cariche, per l’effetto Faraday, per la riflessione, per la rifrazione, …

        Per risolvere questa questione, che avrebbe generalizzato la sua teoria, Lorentz formulò un teorema detto degli stati corrispondenti:  (596)

Se per un sistema di corpi in riposo si conosce uno stato nel quale:

  Dx, Dy, Dz, Ex, Ey, Ez, Hx, Hy, Hz

  sono delle date funzioni di x, y, z e t, allora, se lo stesso sistema si muove con velocità v, può esistere uno stato in cui

  D’x, D’y, D’z, E’x, E’y, E’z, H’x, H’y, H’z

  sono le stesse funzioni di x’, y’, z’ e t’ “,

  dove D è lo spostamento elettrico, E è la forza elettrica ed H la forza magnetica.

         Rimane solo da dire che, nel passaggio da uno stato all’altro, alle variabili x, y, z si applicano le ordinarie trasformazioni di Galileo, alle quali Lorentz aggiunge anche l’equazione di trasformazione per il tempo. (597) Infatti, come si ricorderà, le trasformazioni di Galileo prevedevano che nel passaggio da un sistema ad un altro in moto rettilineo uniforme rispetto al primo, il tempo non subisse modificazioni e pertanto si aveva t  = t’. Ora Lorentz fornisce per il tempo l’equazione di trasformazione che egli ricava da un cambiamento di coordinate che effettua nel corso del suo lavoro:

                     t’ = t – (1/c2) (vx.x + vy .y + vz .z)

che, nell’ipotesi di uno spostamento con velocità v lungo l’asse x, diventa:

 (1)                                                                       t’ = t – (v/c2).x                                                

(in questo case infatti sono nulle le componenti della velocità lungo gli assi y e z, cioè vy = vz = 0). A questo tempo t’ Lorentz dà il nome di tempo locale. Supponendo di avere una particella che si muove con velocità v rispetto all’etere immobile,  egli  scriveva: (598)

La variabile t’ può essere considerata come un tempo misurato ad un dato istante che dipende dalla posizione della particella in questione. Questa variabile può quindi essere chiamata il tempo locale di questa particella in contrasto con il tempo generale t.”

        Soffermiamoci un poco a capire il senso che Lorentz assegnava a questa trasformazione, che ci fa passare dal tempo generale ad un tempo locale per un sistema in moto rettilineo uniforme con velocità v rispetto ad un sistema di riferimento in riposo.  

       Lorentz supponeva di disporre di un sistema di riferimento S solidale con l’etere immobile a cui associava le coordinate spaziali x, y, z e la coordinata temporale t (tempo generale, che non si discosta dal tempo assoluto di Newton). Ora, nell’ipotesi di avere una particella carica che si muove lungo l’asse X con velocità v rispetto all’etere immobile, egli associava a questa particella un altro sistema S’, con coordinate spaziali x’, y’, z’, e coordinata temporale t’ (tempo locale). Nella nostra ipotesi di particella che si muove lungo l’asse X, possiamo fare a meno di prendere in considerazione gli assi Y e Z.

        Supponiamo ora che ad un dato istante (t = 0), quando la nostra particella si trova ad una distanza h (ascissa x) dall’origine O del sistema di riferimento S (oppure OX) in riposo rispetto all’etere, essa cominci ad emettere onde elettromagnetiche (che, come sappiamo, si muovono con velocità c rispetto all’etere). La figura 35 serve a visualizzare la situazione.

Le onde emesse a t = 0  raggiungeranno l’origine O del sistema S in un tempo   t = h/c. Prendiamo ora in considerazione un sistema di riferimento S’ (oppure O’X’) che si muova rispetto al sistema S con una velocità v, in direzione parallela ad OX. Questo sistema S’ è solidale con la particella in moto e di conseguenza questa particella è in riposo rispetto ad S’. I due sistemi S ed S’ siano situati in modo che, al tempo t = 0, le loro origini O ed O’ coincidano, allo stesso modo che le loro ascisse x ed x’ (figura 36).

Riprendendo in considerazione quanto detto prima (e relativo alla figura 35) le onde elettromagnetiche, emesse a t = 0 dalla particella che si trova in X≡X’, raggiungeranno l’origine O del sistema di riferimento immobile rispetto all’etere nello stesso tempo t = h/c visto prima, mentre impiegheranno un tempo minore t’ =  h/(c + v)  per raggiungere l’origine O’ del sistema di riferimento in moto con velocità v rispetto all’etere immobile (e ciò perché mentre le onde elettromagnetiche si propagano dalla particella con velocità c, O’ si avvicina ad esse con velocità v: vale quindi la composizione galileiana delle velocità). Va sottolineato che quanto detto è conseguenza del fatto che la velocità delle onde elettromagnetiche è c rispetto all’etere immobile.

        Questa differenza di tempi, per i due sistemi in moto con velocità v l’uno rispetto all’altro, può essere interpretata come se i fatti che si svolgono in x’ nel sistema in moto avessero luogo in un tempo precedente nel sistema in riposo. E da qui nasce il concetto di tempo locale: ogni posizione occupata dal sistema mobile ha un tempo proprio; esso non coincide con quello misurato da un osservatore immobile e non coincide neppure con nessun altro dei tempi relativi agli altri punti del sistema in moto; in definitiva esso varia al variare della posizione del sistema in moto [infatti in un tempo t = t1 ≠ 0, la particella si troverà non più ad una distanza h, ma ad una distanza d > h dall’origine e, a parità di velocità v, si avrà  t’ = d/(c + v)]. (599)  In definitiva un osservatore che si trovi in O’ vedrà fenomeni che si svolgono in x’ tanto prima rispetto ad O quanto più grande è h.

         Vediamo di ritrovare la formula che Lorentz fornisce per il tempo locale (1) a partire dalle considerazioni ora svolte.

         Ponendo h = x, abbiamo trovato che:

(2)          t = x/c                                                       e                                              (3)           t’ = x/(c + v)

dove t è il tempo generale (o assoluto) misurato da un osservatore immobile rispetto all’etere, e t’ è il tempo locale misurato da un osservatore solidale con il sistema di riferimento in moto con velocità c,

         Trasformiamoci opportunamente la (3):

t’ = x/(c + v) = (x/c).[1 + v/c]-1

ed applichiamo la ormai nota formala che permette lo sviluppo del binomio di Newton; si ha:

t’ = (x/c).[1 + v/c]-1 = (x/c).[1 + (-1)(v/c) + (-1)(-2)/2.(v/c)2 + … ]

Trascurando termini in v/c, dal secondo ordine in poi, si trova:

t’ = (x/c).[1 – v/c] = x/c – (v/c2).x

e, ricordando la (2), si ha:

t’ = t – (v/c2).x

che è proprio la relazione che Lorentz presenta per il tempo locale. Occorre sottolineare che, come qui fatto, anche Lorentz trovò questa equazione di trasformazione trascurando termini del secondo ordine in v/c.

        Questa trasformazione permetteva a Lorentz di dare la stessa forma alle equazioni del campo elettromagnetico sia in un sistema solidale con l’etere, sia in un sistema in moto con velocità v rispetto ad esso.

        Con queste procedimento Lorentz poté enunciare il teorema secondo il quale, se si trascurano termini del secondo ordine in v/c, allora le equazioni del campo elettromagnetico hanno la stessa forma in due sistemi di riferimento che si muovono con velocità relativa e costante v rispetto all’etere immobile. (600)

        E’ utile far presente che nelle intenzioni di Lorentz non c’era alcuna volontà di porre in discussione il tempo assoluto; il tempo locale era una utile variabile ausiliaria che gli permetteva di scrivere nella stessa forma le equazioni del campo elettromagnetico per due sistemi in moto relativo. (601)

        In questo modo, al 1° ordine di v/c, le equazioni di trasformazione di Lorentz (nel caso in cui si abbia a che fare con due sistemi di riferimento unidimensionali che si muovono l’uno rispetto all’altro facendo scorrere parallelamente i loro assi x, come nell’esempio della particella che emetteva onde elettromagnetiche, discusso precedentemente) possono essere scritte:

dove le grandezze con apice sono relative al sistema in moto e dove per le coordinate spaziali valgono le trasformazioni di Galileo.

        Passando ora ad un’altra questione trattata nella Versuch, oome conseguenza della teoria che prevede che la luce sia emessa dalla vibrazione delle particene cariche all’interno della materia, dovrebbe accadere che, se si dispone una sorgente luminosa all’interno di un intenso campo magnetico, la vibrazione degli elettroni risulterà modificata di modo che lo spettro emesso da questa sorgente dovrebbe essere diverso da quello che si ha in assenza di campo. In particolare, osservando con uno spettroscopio la luce emessa dalla sorgente in oggetto, si dovrà» osservare: uno sdoppiamento di ogni riga spettrale, nel caso si osservi nella direzione delle linee di forza del campo; la formazione di tre righe (tripletto) per ogni riga spettrale ordinaria, nel caso si osservi in direzione perpendicolare alle linee dì forza del campo.

       La previsione di questo effetto fu confermata sperimentalmente dal fisico olandese P. Zeeman (1865-1943), allievo ed amico di Lorentz, appena un anno dopo (1896). Il fenomeno, noto come effetto Zeeman normale, (602) diede la prima evidenza sperimentale della struttura elettromagnetica delle supposte particelle costituenti la materia e la sua scoperta valse sia a Zeeman che a Lorentz il premio Nobel per la fisica dell’anno 1902.

        La scoperta dell’effetto Zeeman risultò di gran sostegno alla teoria di Lorentz e, per altri versi, permise anche di avanzare l’ipotesi che i raggi catodici, all’epoca molto studiati, potessero essere costituiti dalle stesse particelle ipotizzate da Lorentz.

        Ma, al di là dei successi, pur così rilevanti, la teoria di Lorentz presentava almeno un punto di grande debolezza: risultava, almeno in questa formulazione, antinewtoniana. Il fatto era già stato segnalato da Helmholtz nel 1892, in uno dei suoi ultimi articoli. Di fatto già abbiamo osservato che Lorentz respingeva 1’azione a distanza per aderire all’azione a contatto; oltre a ciò, in un modo analogo alle teorie di Weber, le forze si trovano a dipendere dalla velocità ed, in questo senso, proprio la forza di Lorentz è emblematica. Tutto questo non rientra in un quadro esplicativo newtoniano anzi ne risulta fortemente in contrasto. Ma vi è di più. L’ammissione di un etere perfettamente immobile, qualunque fosse il fenomeno fisico che si svolgesse in esso, risultava in ulteriore disaccordo non tanto con il quadro esplicativo di Newton quanto, addirittura, con una delle sue leggi fondamentali: il principio di azione e reazione. L’etere, infatti, sede del campo, agisce sulla materia ponderabile ma, al contrario, nessuna  azione è possibile da parte di quest’ultima sul supposto etere proprio perché, appunto, esso è comunque immobile: le tensioni di Maxwell ora non possono più avere luogo.

        Lorentz commentava questa situazione nelle prime pagine della Versuch, affermando:  (603)

“… La cosa più semplice sarebbe il supporre che una forza non agisce mai sopra un elemento di volume dell’etere, considerato come un tutto, o anche che mai deve impiegarsi il concetto di forza sopra tale elemento, che mai si sposta dalla sua posizione. Una simile concezione nega di fatto l’uguaglianza dell’azione e della reazione, perché in realtà dobbiamo affermare che, fondamentalmente, la forza dell’etere agisce sulla materia ponderabile; ma, fin dove io riesco a vedere, non c’è niente che ci obblighi ad elevare questa proposizione al rango di legge fondamentale di validità illimitata. Una volta decisi in favore della concezione che abbiamo appena illustrato, dobbiamo anche abbandonare dal principio le azioni ponderomotrici attribuibili alle tensioni dell’etere….Questo equivarrebbe ad accettare la forza tra distinte parti dell’etere, e come tali, se vogliamo essere conseguenti, non possiamo continuare ad accettarle.”

Lorentz decise quindi per una rottura clamorosa con la fisica di Newton. L’immobilità di un etere che serviva alla propagazione del campo e che, nelle intenzioni, doveva essere riguardato come lo spazio assoluto di Newton (anche se quest’ultimo non identificava le due cose), faceva respingere uno dei principi basilari della fisica newtoniana. (604)     Arrivati a questo punto probabilmente ci si sarebbe aspettati ben presto la messa in discussione del principio d’inerzia e del secondo principio della dinamica, dopodiché nulla sarebbe rimasto della meccanica. Si apriva la strada ad una interpretazione e costruzione elettromagnetica dell’intera meccanica sulla quale ci soffermeremo nel prossimo paragrafo. E’ ora interessante andare a cogliere gli  aspetti  salienti dell’inserimento nella problematica dell’elettrodinamica dei corpi in movimento del grande matematico e fisico-matematico francese Henry Poincaré  (1853-1912).                                                               

NOTE

(565) I brani qui riportati sono tratti da bibl. 84, pagg. 159-160.

(566) Su questi argomenti Lorentz tornerà nel discorso inaugurale da lui tenuto, il 25 gennaio 1878, all’atto di prendere possesso della cattedra di fisica teorica presso l’Università di Leiden. 

(567) La formula della dispersione di Lorenz-Lorentz è:

(n2 + 2)/(n2 – 1) = (A – B/l2)/(C/l2 – D)

dove n è l’indice di rifrazione, A, B, C, D sono delle costanti e l  la lunghezza d’onda della luce nel vuoto.  

(568) Un qualcosa di analogo era stato sostenuto da L. Lorenz nel 1867 (si veda il paragrafo 3 del capitolo III).

(569) Citato in Hirosige, bibl. 114, pag. 175.

(570) Elaborò (l880) una teoria cinetica della propagazione del suono; confermò (l88l) la validità dell’equazione di Van der Waals per i gas reali (che era stata messa in discussione da Maxwell); si occupò (l886) dell’effetto termoelettrico da un punto di vista termodinamico; completò (1887) il famoso teorema H di Boltzmann, che stabiliva l’unidirezionalità del tempo nei processi descritti dalla teoria cinetica, in modo analogo a quanto la termodinamica aveva ricavato per l’entropia.  

(571) H.A. Lorentz: La théorie électromagnetique de Maxwell et son application aux corps mouvants, Arch. neerl., 25; l892; pag. 363.

Occorre qui ricordare che, prima del 1892, Lorentz aveva scritto un’altra memoria, quella del 1886 (della quale abbiamo già parlato diffusamente alla fine del paragrafo precedente), nella quale si discuteva della Influenza del moto della Terra sui fenomeni luminosi e con la quale si andavano ampliando i suoi interessi in direzione dell’elettrodinamica dei corpi in movimento. E’ questa la memoria nella quale si sviluppava la teoria dell’interazione tra etere e materia, dell’immobilità dell’etere e del suo trascinamento parziale in alcune condizioni, dopo una discussione nella quale si dimostrava l’inconsistenza della teoria di Stokes e si metteva in discussione l’attendibilità dei risultati dell’esperimento di Michelson del l88l. In questa memoria l’etere e la materia giocavano ancora ruoli diversi; la materia costituita da cariche elettriche particellari e l’etere che, nei fatti, è esso stesso campo. In questa costruzione è sempre la carica elettrica, che con le sue oscillazioni origina il campo, l’elemento di unione tra l’etere e la materia.

(572) Occorre notare che la stesso Lorentz annunciò la sua conversione in una conferenza, Elettricità ed etere, che egli pronunciò al Congresso Olandese di Fisica e Medicina nell’aprile del 1891;  in questa conferenza egli addusse anche le ragioni per le quali la teoria di Maxwell era preferibile a quelle della scuola continentale. Si deve inoltre notare che Lorentz fu aiutato a modificare le sue concezioni anche dalla lettura di un lavoro di Poincaré: Électricté et optique. I.   Les théories de Maxwell et la théorie électromagnetique de la lumière, Parigi, 1890.

(573) In questa memoria e soprattutto in quella successiva del 1895 Lorentz parla di ioni. Solo nella memoria del 1899 si  introduce il termine elettrone. L’idea di una struttura discontinua della carica elettrica che portò poi alla scoperta dell’elettrone cominciò a porsi in relazione agli esperimenti di Faraday sull’elettrolisi del 1833. Questi esperimenti, come già accennato, rivelarono alcuni fatti inattesi e peraltro non spiegati dallo stesso Faraday, perché ad un elettrodo si liberi un grammo-atomo di un elemento di valenza Z, facente parte del composto in questione, la soluzione elettrolitica deve essere attraversata sempre da una quantità di elettricità pari a Z volte 96.522 Coulomb. La spiegazione di questo fenomeno fu data nel l874 dall’irlandese G.J. Stones (1826-1911). Egli mostrò che se la materia e l’elettricità sono considerate discontinue e formate di tante piccole particelle, allora tutti gli esperimenti di Faraday diventano semplici da spiegare. Se ciascun atomo di materia nel passare attraverso la soluzione elettrolitica porta con sé una quantità di carica definita e ben determinata, allora la quantità di materia depositata su di un elettrodo sarà direttamente proporzionale a questa quantità di carica. Ora, un grammo-atomo di materia contiene un numero di atomi pari a N (numero di Avogadro) e quindi ciascun atomo trasporta una carica q pari a:  

                       q = Z. (96.522/N) coulomb.

Così la carica che ogni ione elettrolitico di qualsiasi tipo esso sia, trasporta è sempre multipla di 96.522/N, che quindi  risulta essere la carica elementare (e). Il lavoro di Stoney fu pubblicato solo nel 1881 (Phil. Mag. 11, 384; 1881) anno in cui anche Helmholtz era diventato un fervente sostenitore dell’esistenza di questa carica elementare (J. Chem. Soc. 39, 277;1881). E’ importante sottolineare l’adesione di Helmholtz a questa teoria poiché il prestigio di cui egli godeva permise una più rapida propagazione dell’idea. Fu comunque ancora Stoney che ne1 1891 diede alla supposta carica elementare il nome di elettrone.

Va comunque notato che, come osserva Wittaker (bibl.112, Vol.1, nota 3 di pag. 392), al di là di uno stimolo concettuale, l’elettrone in quanto tale, così come era postulato dai lavori di Stoney ed Helmholtz, non ebbe alcuna influenza sullo sviluppo della teoria elettromagnetica. Anche la stessa scoperta sperimentale dell’elettrone, fatta da J.J. Thomson ne1 1897, non modificò in nulla l’elettromagnetismo classico. L’unica conseguenza che ebbe fu il fornire una solida base alla teoria di Lorentz. La ragione di ciò risiede nel fatto che, per l’elettromagnetismo classico, è poco importante che esistano delle particelle che possiedono la stessa carica. L’importante è che si abbiano delle cariche particellari, infatti  “l’uguaglianza o la disuguaglianza di queste cariche non fa differenza per le equazioni. Per fare un esempio dalla meccanica celeste, non vi sarebbe alcuna differenza nelle equazioni se le masse dei pianeti fossero tutte uguali“. Il fatto però che si fosse riusciti ad individuare ima carica elementare per altri versi ebbe una ricaduta enorme nella fisica: nello sviluppo della fisica dei quanti e della fisica atomica.

(574) Nella memoria citata in nota 571. La traduzione dei brani riportati è tratta da bibl. 84, pag. 167-174.  

(575) II primo che aveva dedotto questa formula in modo corretto era stato Heaviside nel 1889; J.J. Thomson vi si era avvicinato nel l88l. Come si può vedere la relazione che fornisce la forza di Lorentz è composta dalla somma di due termini; uno rappresenta l’azione sulla carica da parte del campo elettrico E, l’altro l’azione sulla carica in moto da parte del campo magnetico B. Si può subito ricavare che,  nel caso di carica ferma (v = 0), l’unica forza che agisce è la ben nota relazione elettrostatica F  = qE. In assenza poi di campo elettrico (E = 0) e nelle condizioni corrispondenti ad  a=90°, si trova F  = qvB. 

(576) Bibl. 120, pag. 32.

(577) O.J. Lodge: On the present state of our knowledge of the connection between ether and matter: an historical summary, Nature, 46, 165; 1892; pagg. 164-165. Si veda. bibl. 122.        

(578) La prima volta che Fitzgerald pubblicò i suoi risultati in proposito fu nel 1902, nel Vol. 34 dei suoi Scritti scientifici pubblicati a Dublino dalla University Press.         

(579) Nella nota 2 a pag. 121 di bibl. 134, Vol. 5, in un lavoro di Lorentz del 1895, quest’ultimo affermò che non conosceva l’ipotesi di Fitzgerald. Conoscendo l’onestà intellettuale di Lorentz c’è da crederci.

(580) H.A. Lorentz: The  Relative Motion of the Earth and the Ether, Arch. Néerl. Sci., 25, 363; 1892. Riportato su bibl. 134, Vol.4, pagg. 219-223.

(581) H.A. Lorentz: Versuch einer Theorie der elektrischen und optischen Erscheinungen in bewegten Körpen, pubblicata su bibl. 134, Vol 5, pagg. 1-137. La parte di questa memoria relativa all’esperienza di Michelson è stata tradotta in inglese e pubblicata in bibl. 131, pagg.3-7. Una sintesi di questa parte è anche tradotta in italiano in bibl.123, pagg. 145-148.

(582) Bibl. 134, Vol. 4, pagg. 221-222.

(583) Ibidem.

(584) Bibl.131, pagg. 4-6. Si veda anche bibl. 123, pagg. 146-148, dalla quale è stata ripresa la traduzione di questo brano.  

(585) Allo stesso risultato e nello stesso periodo era arrivato anche Heaviside.

(586) E’ utile notare che nel 1892 Lorentz aveva fornito per la contrazione il valore approssimato 1 – v2/2c2, che si ottiene dal valore dato  nel 1895, (1 – v2/c2)1/2 sviluppato in serie secondo il binomio di Newton e fermandosi al secondo ordine in v/c (come abbiamo visto nel paragrafo precedente).

(587) Quanto qui sostenuto è in accordo con quanto dice D’Agostino. Allo scopo si veda bibl.113, pag.35 e bibl.l5, fasc. Xl(c), pagg.11-12. Anche in bibl.54, pag.163 ed in bibl. 132, pag.58 è sostenuta la stessa tesi. L’eventuale ipotesi ad hoc starebbe nell’estensione delle forze elettriche e magnetiche alle forze molecolari.

(588) Bibl. 131, pagg. 5-6.

(589) Ibidem, pagg. 6-7.

(590) Si confronti anche con bibl. 113, pag. 135.

(591) Bibl. 131, pag. 6.

(592) Sulla questione della  simultaneità, che ora sembra scontata, dovremo tornare in seguito.

(593) Anche se non ne farò cenno nel testo, va ricordato che in questa memoria Lorentz ricaverà, in modo più semplice ed in un caso più generale, il coefficiente di trascinamento di Fresnel.

(594) Si veda la nota 524.

(595) La possibilità di operare in questo modo era stata mostrata dal fisico statunitense J. W.  Gibbs (1839-1903) nel 1882-1883. Allo scopo si veda bibl. 112, vol.I, pag. 396, nota 4.

(596) Bibl. 134, Vol.V, pag. 84. Si osservi che questo enunciato differisce leggermente da quello di Lorentz per il simbolo utilizzato per la velocità v e per gli apici sulle funzioni e sulle variabili.

(597) Lorentz aveva già introdotto un’equazione di trasformazione per la variabile tempo, come risultato di un cambiamento di coordinate, nella sua memoria del 1892:  t’ =  t – v/[c2(1 – v2/c2]1/2 (supponendo uno spostamento lungo l’asse x di un sistema in moto con velocità v rispetto ad un sistema in riposo).

(598) Ibidem, pag. 50. Citato in bibl. 114, pag. 207.

(599) E’ interessante riportare il modo con cui Kottler introduce il tempo locale (bibl.l46, pagg.240-24l):

Consideriamo al tempo t un’onda luminosa emessa al tempo zero da una sorgente di luce in movimento; essa si trova su una superficie sferica di raggio ct, e la sorgente luminosa si è allontanata dal centro di questa superficie della distanza vt nel verso del moto. I cammini percorsi dalla luce durante il tempo t appaiono allora come delle lunghezze disuguali, minima nella direziono del moto (c – v)t, e massima nella direzione contraria (c + v)t. Di conseguenza è estremamente scomodo il tenerne conto nel calcolo, poiché, per ogni direzione, bisogna considerare un’altra velocità. Il tempo locale di Lorentz fornisce un mezzo di calcolo comodo. Per esempio, invece di rappresentarci, nel verso del moto, un moto della luce di velocità c – v, avente luogo nel tempo t, possiamo rappresentarci un moto di velocità invariabile c, ma avente luogo durante un tempo più breve t’1, tale che il tragitto della luce resti lo stesso: ct’1 = (c – v)t . In modo analogo, per il verso opposto si ha in luogo della velocità più grande c + v > c, un tempo t’ più lungo: ct’2 = (c + v)t. In modo del tutto generale, per una qualunque direzione r, si ha, in luogo della velocità variabile c – vr, dove vr è la componente del moto della Terra per la data direzione, si considera il tempo variabile t’, dato che il tragitto della luce ct’  =  (c – vr)t resta invariabile. Da questo si ricava t’  =  (ct – vrt)/c [= t – vrt/c  = t – vrc t/c2]  =  t – vr r/c2, dove r = ct è il raggio dell’onda sferica.”

(600) Anche questo argomento, oltre a quelle relativo all’ipotesi della contrazione, fa concludere a Lorentz che è impossibile rilevare il moto della Terra rispetto all’etere, almeno al primo ordine di v/c.

(601) E’ interessante notare, con D’Agostino (bibl.113, pag.34), il modo con cui Lorentz costruisce la teoria  “per passi successivi, a partire da formulazioni matematiche a cui si attribuisce progressivamente significato fisico”.

(602) La spiegazione dell’effetto Zeeman si può ricavare solo dalla fisica quantistica. Per una fortunata coincidenza la teoria di Lorentz riusciva a renderne conto nel caso in cui l’effetto era normale. Nel caso più generale e più frequente, l’effetto Zeeman è anomalo, le righe che si producono formano uno spettro molto complicato, ed in nessun modo è riconducibile alla teoria di Lorentz. Si noti che la spiegazione teorica completa dell’effetto Zeeman normale fu elaborata e pubblicata da Lorentz nel 1897 (Phil. Mag., Vol. 43, pag. 232; 1897). Alla fine dello stesso anno T. Presten scoprì l’effetto anomalo.

(603) Bibl. 134, pag. 28. Citato in bibl. 111, pagg. 334-335.

(604) Anche Heaviside (1886 e 1891) si era scontrato con questo problema ed aveva percorso tutte le possibili strade per portarlo a soluzione, ma mai aveva ipotizzato il rigetto del principio di azione e reazione.

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: