1 – UNO SGUARDO SULL’ 800: RAPPORTI FRA SCIENZA, TECNICA, VITA CULTURALE E CIVILE NELLA PRIMA META’ DEL SECOLO
La complessità degli avvenimenti, sia politico-economici sia tecnico-scientifici, che si susseguono nel corso dell’800 è tale da sconsigliare, nell’ambito degli scopi di questo lavoro, un’indagine che abbia una qualchE pretesa di completezza. Cercherò, per quanto possibile, di cogliere gli elementi che ritengo più significativi, rimandando alla vasta bibliografia esistente per tutti gli aspetti e gli sviluppi particolari. Su alcuni punti comunque ritengo sia necessario soffermarsi, soprattutto per cercare di capire più a fondo le problematiche che alla fine del secolo porteranno all’affermazione della Relatività einsteniana. In questo senso mi occuperò con qualche dettaglio della nascita e degli sviluppi dell’elettromagnetismo e di alcune questioni di ottica e di termodinamica.
Anche se non l’ ho teorizzato, credo si sia capito, da quanto precedentemente scritto, che non ritengo si possa cogliere nella sua interezza il processo di crescita delle conoscenze e di articolazione dei dibattiti, dispute o controversie, senza avere come riferimento costante l’evolversi ed il dialettico intrecciarsi tra progresso delle scienze e delle tecniche con storia sociale e civile dei popoli. Nessuna pretesa di originalità quindi nel ricercare anche ora alcuni aspetti dell’interazione suddetta; solo convinzione di fornire elementi utili ad un proficuo approfondimento.
I primi anni del secolo XIX sono segnati, dal punto di vista politico-militare, dalle armate napoleoniche che dilagano in tutta Europa con continue guerre, mai nella storia precedente così sanguinose. Se da una parte la breve vicenda napoleonica scosse la vecchia Europa, retrograda e quasi sempre governata dall’assolutismo (illuminato o meno), diffondendo ideali di libertà, insieme ad una concezione di stato moderno con leggi ispirate ai diritti ed ai doveri del cittadino, d’altro canto essa urtò contro gli spiriti nazionali e, anziché contribuire al diffondersi degli ideali universali dell’illuminismo, generò una massiccia rivolta contro di essi sia da un punto di vista ideale che politico. In ogni caso la politica di Napoleone, fino al suo crollo definitivo (Waterloo, 1815), riuscì ad esportare alcune radicali trasformazioni negli apparati amministrativi degli stati che, già realizzate in Francia, ben presto divennero patrimonio di gran parte dell’ Europa.
In questa epoca la scienza francese, sorretta da massicci finanziamenti al fine di servire le armate napoleonicbe, fece notevoli balzi in avanti. Le scuole tecniche nate durante la Rivoluzione ebbero un notevole impulso. Una generazione di scienziati si formò in esse ( Malus, Arago, Poncelet, Cauchy, Sadi Carnot, Gay-Lussac, Thenard, Dulong e Petit). Inoltre nacquero altre scuole e questo fiorire di iniziative, cui partecipavano come insegnanti i massimi scienziati dell’epoca (Monge, Laplace, Lagrange, Berthollet, …), portò sempre di più ad affermare l’attività scientifica come professione. Fare lo scienziato assunse il significato di lavorare per lo sviluppo tecnico-economico-militare del Paese. Per questo si era pagati. Come conseguenza di ciò e proprio perché dallo studioso, a questo punto, si richiedevano prodotti di sempre più immediata utilizzazione, nacque la specializzazione scientifica. Il filosofo naturale, che si occupava con maggiore o minore successo di troppe questioni abbracciando con le sue ricerche e speculazioni campi molto distanti tra loro, andava via via scomparendo. Certamente rimanevano i Laplace ed i Gauss, ma erano gli ultimi residui della formazione in epoca precedente. Da questo momento e fino a quando le difficoltà che nasceranno all’interno delle singole discipline non imporranno una revisione generale trascendente la disciplina medesima, ognuno coltiverà le sue ricerche particolari sempre più specializzate e sempre più chiuse alla comunicazione reciproca. (128) La separazione tra scienza e filosofia, fatto del quale ancora oggi discutiamo, si realizzò in questo periodo. Gli ideali illuministici che postulavano l’unità del sapere cozzavano ora contro le esigenze militari e produttive. La scienza va sempre più legandosi con il mondo della produzione ed in questo secolo assistiamo al ribaltamento di quanto avvenuto nel secolo precedente; è ora la scienza che razionalmente studia a tavolino i prodotti tecnologici necessari all’aumento della produzione, all’accrescimento dei potenziali aggressivi e qualche volta difensivi degli stati.
” La scienza deve ora attestarsi su canoni metodologici che ne legittimino la ricerca di nuovi standards di esattezza e di rigore, sia manuali che teorici, giustificando lo studio delle leggi naturali e delle loro applicazioni non più in base all’illusione illuministica di essere direttamente uno stimolo per la produzione, ma piuttosto asserendo l’autonomia e la necessità di tale ricerca in quanto valida in sé e destinata prima o poi ad avere applicazioni utili.” (129)
La filosofia che comprenderà e teorizzerà questi Ideali sarà quella del Positivismo che, prima dell’ enunciazione di Comte (1798-1857), (130) “si instaura di fatto come atteggiamento generale e come metodo di lavoro nell’ambito dell’Ecole.” Il Positivismo postula la separazione completa della scienza dalla teologia (laicità dell’uomo e del mondo) ed il netto primato della scienza su altre forme di conoscenza umana. (131) La scienza offre una vasta gamma di risultati ‘positivi’ ma sono soprattutto i suoi metodi che permetteranno il superamento delle argomentazioni ipotetiche, infondate, inverificabili e perciò irrealizzabili. L’adozione di un metodo rigoroso, controllato e comune, il raggiungimento di un’ideale scienza unificata che, nel rispetto delle singole discipline, superi tutti i difetti dell’eccessiva specializzazione e della mancanza di interdisciplinarietà. La scienza è lo strumento indispensabile al progresso dell’umanità. La sua evoluzione permetterà all’uomo di risolvere tutti i suoi problemi di lotta per l’esistenza in una natura sempre meno ostile proprio perché la scienza sempre più è riuscita a sottometterla ai suoi voleri. In questo contesto la filosofia assolve, per Comte, un ruolo importante di ordinatrice e correttrice degli eccessi di specializzazione fino ad arrivare ad un ruolo di promotrice dell’integrazione dei vari risultati che scaturiscono dai vari campi di ricerca.
E tutto ciò proprio nel momento in cui molti scienziati, come dicevamo, sempre più si disinteressavano di filosofia, ritenendo le discussioni sull’argomento troppo generali, quindi generiche e perciò sterili. Questo atteggiamento, spesso definito come ‘ positivistico’, fu osteggiato dagli stessi positivisti ed al suo diffondersi contribuirono molto di più le correnti di pensiero che più decisamente si professavano antipositivistiche. (132) Il disinteresse sempre maggiore da parte dello scienziato per i problemi dell’uomo, con l’ autogiustificazione di far scienza e di stare comunque lavorando per il bene dell’umanità al di sopra di ogni bega contingente, al di sopra delle parti, fu uno degli aspetti più rilevanti ed una delle ‘tentazioni’ più forti dell’800. Basti pensare che ancora oggi ci troviamo a discutere, soprattutto dopo il 1968, della questione della “neutralità” della scienza e della “responsabilità sociale dello scienziato”. (133)
Ma ritorniamo a quanto tralasciato qualche riga più su. Abbiamo parlato del grande impulso che napoleone dette alla ricerca scientifica. In concomitanza con ciò, proprio agli inizi del secolo, in Francia si ebbe una grande ripresa dell’attività pratica (tralasciata, come abbiamo visto, per tutto il ‘700), gli scienziati francesi volsero i loro interessi alla scienza sperimentale ed empirica proprio per soddisfare le impellenti richieste degli eserciti di Napoleone. La caduta di quest’ultimo, il Congresso di Vienna (1815), la Santa Alleanza iniziarono quel periodo che va sotto il nome di Restaurazione. Le forze più conservatrici, legate soprattutto alla nobiltà terriera dell’ “ancien régime”, tentarono di ‘restaurare’ l’ordine sociale ed il potere politico precedente l’esplosione rivoluzionaria. Almeno fino al 1848 il tentativo riuscì e si ripercosse molto gravemente sulla vita scientifica e culturale che venne sottoposta a rigidi controlli. Ma un puro e semplice ritorno al passato era anacronistico. Le coscienze erano maturate e cresciute, era possibile reprimere ma non convincere. In questa fase la borghesia riprese coscienza del suo ruolo motore per lo sviluppo della società. I primi moti contro i nuovi oppressori si ebbero nel 1820-21 (forze liberali); e quindi nel ’48 (liberali + democratici), dopo un’importante parentesi rivoluzionaria (la Comune di Parigi), proprio la borghesia riprenderà quasi ovunque il potere. (134) Durante questa prima metà del secolo le vicende legate allo sviluppo della scienza, della tecnica, della cultura in generale e delle forze produttive si differenzia abbastanza da paese a paese.
In Francia, abbiamo già visto che, a partire dalla Rivoluzione c’è una grande ripresa dell’ attività pratica che comporta una trasformazione notevole della scienza. Uno dei primi compiti, di enorme impegno, che gli scienziati francesi (Monge, Borda, Lagrange, Laplace, Delambre, Coulomb, Berthollet, Lavoisier) si trovarono ad affrontare fu l’unificazione dei pesi e delle misure con l’introduzione del sistema metrico decimale. I lavori iniziarono nel 1793 e si conclusero nel 1799. Questo nuovo sistema fu rapidamente accettato da molti Stati e comportò notevolissime facilitazioni ai commerci. Altri compiti immediati che gli scienziati dovettero affrontare, e che non avevano nulla a che fare con la fisica-matematica settecentesca, erano immediatamente suggeriti dalle esigenze belliche. Monge studiò le questioni riguardanti la fusione e la perforazione dei cannoni. Fourcroy si occupò, come già aveva fatto Lavoisier (nel frattempo caduto sotto la ghigliottina), di sviluppare tecniche atte ad estrarre il salnitro per gli esplosivi dal letame. Allo stesso fine lavorava Berthollet ma con il clorato di sodio e Morveau mediante ossidazione dell’ammoniaca.
Certamente i problemi che si ponevano erano diversi da quelli teorici affrontati durante il ‘700. Questa tendenza ebbe un maggior impulso durante il periodo napoleonico ed in concomitanza con ciò anche l’evoluzione tecnica delle industrie francesi fece notevoli balzi in avanti.
Il periodo della Restaurazione vide in Francia un certo successo delle filosofie idealistiche e romantiche che si diffondevano dalla Germania. Personaggi come Chateaubriand, Lamartine, Madame de Staël potranno dar sfogo ad anacronistiche posizioni metafisiche con decisi caratteri antiscientifici. Per la verità la scienza fu poco toccata da tutto ciò la tradizione dell’ École era troppo forte ed ancora per anni riuscirà a produrre importantissimi risultati. (135) Ora però viene a mancare lo stimolo diretto alla produzione che gli imprenditori borghesi avevano fornito negli anni precedenti. Dopo un poco il filone si inaridì e per vari anni non produsse altro che la solita sistemazione dei risultati precedentemente raggiunti (e questo fatto trovava inoltre una teorizzazione nella filosofia del Positivismo che non accettava nessuna elaborazione ipotetica che andasse al di là dei fatti noti).
In Gran Bretagna, parallelamente a quanto avveniva in Francia nel periodo rivoluzionario e napoleonico, l’attività empirica degli scienziati passava un periodo di crisi. Lo scienziato del Regno Unito, al contrario di quello Francese, spesso langue in miseria non godendo della protezione dello Stato. Non si dispone di finanziamenti per formare scienziati professionisti in scuole pubbliche. L’attività scientifica, anche qui, cambia segno e gradualmente inizia ad interessarsi di questioni di carattere teorico. L’avvertita necessità di cambiamento trovò in Rumford un fecondo interprete, ma i suoi tentativi di rinnovamento, nell’ambito dell’organizzazione e dei metodi delle società scientifiche, non riuscirono a farsi strada in un ambiente restio a mettere in comune le innovazioni tecniche e scientifiche per la paura di concorrenze o plagi sul piano dei brevetti industriali. Riuscirà in parte Davy nel compito che si era prefisso Rumford. Egli otterrà finanziamenti ma presentando la scienza come un qualcosa che oltre ad utile può essere anche divertente.
In questo paese la Restaurazione non avrà che effetti marginali. Si tratta di contrasti tra la borghesia latifondista ed industriale sulla rappresentanza parlamentare spettante a ciascuna. Fino al 1831, anno in cui gli industriali ottengono una riforma elettorale che dà loro maggiore potere, è la borghesia latifondista che guida il paese, su livelli arretrati rispetto alle spinte innovatrici, “agitando lo spauracchio della Rivoluzione Francese”.
Abbiamo già detto della antiquata organizzazione della scienza nelle istituzioni di questo periodo (alla quale aveva in parte contribuito l’isolamento in cui si era chiusa la Gran Bretagna nel secolo precedente). Anche le scuole pativano gli stessi mali. Se si eccettuano le relativamente più giovani università scozzesi, le più prestigiose università inglesi (Oxford e Cambridge) impartivano insegnamenti vecchi e tradizionalisti sotto il controllo culturale di autorità clericali. Ed il dominio dello Stato e delle autorità religiose si cominciò a far sentire in tutti i campi. La scienza veniva sempre più considerata come un qualcosa di eminentemente teorico, visto che tutti i più prestigiosi strumenti della Rivoluzione Industriale provenivano da modesti tecnici senza una preparazione elevata. Si iniziarono comunque a fondare nuove scuole (gli Istituti di Meccanica) per fornire preparazioni diverse; si iniziò ad insegnare la matematica col più semplice simbolismo leibniziano; ma soprattutto si colse la necessità dello scienziato professionista (le ricerche che si dovevano sviluppare erano così complesse che soltanto lavorandovi a tempo pieno c’era la speranza di ricavarne qualcosa e per far ciò occorreva un finanziamento dello Stato o di una grande industria); si fondarono società scientifiche (ad es. l’Associazione Britannica per il Progresso della Scienza – 1831) diverse da quelle tradizionali e pure un tempo prestigiose; fatto però molto importante è che tutto ciò iniziò e si realizzò dall’iniziativa e dai finanziamenti di privati. Solo intorno alla metà del secolo l’intera situazione cominciò decisamente a migliorare portando la situazione strutturale ed organizzativa britannica ai livelli di Francia e Germania che, come vedremo tra poco, era nel frattempo emersa prepotentemente) e facendo di nuovo assumere alla Gran Bretagna una posizione di primato. (136)
Dal punto di vista tecnologico ed in concomitanza con la relativa stasi dell’industria non si conseguirono i risultati clamorosi della seconda metà del ‘700 ma si lavorò al perfezionamento ed alla migliore ed articolata utilizzazione di quanto già noto. Nell’ industria tessile alcuni miglioramenti tecnologici portarono, tra il 1800 ed il 1830, ad una espansione enorme della domanda a seguito di ribassi clamorosi nei costi di produzione. La generale sostituzione della forza motrice idraulica con quella a vapore comportò la realizzazione di centinaia di opifici non più in zone servite da corsi d’acqua ma in città che, conseguentemente, vissero imponenti fenomeni di inurbamento. (137) L’impiego poi del vapore nei trasporti ed in particolare nelle ferrovie, (138) oltre agli ovvi ed incredibili benefici pratici, produsse anche notevoli effetti psicologici sulle nozioni di tempo e distanza.
In Germania, infine, tra la fine del ‘700 e la prima metà dell’ ‘800, si ha m notevolissimo risveglio della vita culturale in netto contrasto con l’arretratezza di fondo delle strutture economiche, politiche e sociali. Abbiamo già detto di Kant, dello Sturm und Drang e della nascita del Romanticismo. Non è certo questa la sede per indagare la complessità, e l’eterogeneità del pensiero tedesco, (139) delle posizioni assunte, dei temi affrontati e degli sviluppi che, in sede speculativa, ne conseguirono. Basti solo dire che i principali indirizzi di pensiero assunsero caratteristiche sempre più antilluministiche e nazionalistiche. E se da una parte Fichte, facendo confluire il suo idealismo nei temi più. spiccatamente romantici, si rivolgerà. alla nazione tedesca perché insorgesse contro le truppe napoleoniche che invadevano la Germania, dall’ altra Hegel (l770-l83l) pretenderà, di determinare le leggi della natura a priori, ricavandole semplicemente su basi metafisiche. (140) A lato di ciò, negli ‘spiriti migliori’ i temi romantici si legavano alle legittime aspirazioni di libertà, ed indipendenza dei popoli. La Germania è un paese diviso in una miriade di piccoli Stati. Ma già nei primi decenni del secolo si fa avanti la Prussia, il più industrializzato tra gli Stati tedeschi, come polo di aggregazione. Della complicata storia della nascita dello stato tedesco, (141) elemento importante fu la fondazione (da parte dell’ imperatore Federico Guglielmo III) dell’ Università di Berlino (l8l0). Questa Università, insieme all’ attività dei ‘filosofi della natura’ che si ispiravano direttamente alla Naturphilosophie di Schelling, fu alla base della rinascita culturale della Germania e della successiva acquisizione da parte di questo Paese del primato scientifico su tutto il mondo. Fu proprio Oken, uno dei filosofi della natura, che fondò nel 1822 la prima società scientifica che rappresentò la rinascita della ricerca scientifica tedesca, su basi più empiriche e sperimentali di quanto fino allora aveva comportato l’eredità di Leibniz. Sulla strada da lui aperta altri si mossero e ben presto, ad imitazione della Francia, sorsero una miriade di scuole politecniche. Cattedre di scienze cominciarono a venir istituite in tutte le università tedesche e, a partire dalla metà del secolo, le scuole sia industriali che commerciali iniziarono a sfornare una gran quantità di tecnici altamente specializzati. E tutto ciò era proprio finalizzato allo sviluppo dell’ industrializzazione del Paese che, al contrario di quanto avvenuto in Gran Bretagna, non fu promossa da privati ma per diretta iniziativa dello Stato che contemporaneamente, mediante lo sviluppo massiccio dell’ istruzione pubblica, cercava da un lato “di elevare il livello culturale del popolo per incrementarne i bisogni materiali e spirituali e per portare il semplice operaio a comprendere i nuovi sistemi di produzione meccanizzati; d’altro lato di formare una categoria di tecnici in grado di soddisfare le maggiori esigenze tecniche e scientifiche poste dall’ industria.” (142) In questa dialettica tra Stato, imprenditori privati, popolo, sviluppo industriale ed istruzione, via via si realizzò una maggiore partecipazione della borghesia industriale alle scelte politiche del paese e conseguentemente si conquistarono importanti riforme costituzionali. In definitiva, intorno alla metà dell’ ‘800, è la borghesia industriale che detiene ovunque il potere economico. La pressione di questa borghesia per avere in mano anche il potere politico porterà alle vicende del ’48 che sancirono, praticamente ovunque, il suo trionfo. Con il terreno preparato per il decollo della seconda Rivoluzione Industriale si erano creati profondi cambiamenti economici e sociali che se da una parte avevano definitivamente affrancato l’Europa dall’ Ancien Regime, dall’altro avevano creato i presupposti per l’emergere di una nuova classe sociale: il proletariato, l’esercito degli operai dell’industria che dispongono solo della propria forza lavoro. L’affermazione della borghesia aveva creato la sua classe antagonista che, proprio a partire dal ’48, dette vita a tutti quei moti di ribellione sociale per migliori condizioni di vita che schematicamente si possono riportare alla nascita del socialismo scientifico di Marx (1818-1883) ed Engels (1820-1895) e che portarono (l917) alla prima Rivoluzione proletaria della storia: la ormai definitivamente tramontata Rivoluzione Russa.
Dal punto di vista infine del progresso tecnologico legato a quello scientifico ci sono alcune osservazioni che meritano di essere riportate. Innanzitutto c’è da osservare che gli imponenti sviluppi della tecnica del ‘700 e dei primi anni dell’ ‘800 riuscirono a mettere a disposizione degli scienziati strumenti sempre più perfezionati e precisi che tra l’altro permisero di percorrere strade assolutamente imprevedibili fino a qualche anno prima. C’è poi da notare che, soprattutto nella prima metà del secolo, c’è un generale riconoscimento dell’utilità del progresso tecnico che, si ammette, non può più essere affidato ad artigiani, che lavorano su basi esclusivamente empiriche, ma ha bisogno di essere sottoposto a trattamento teorico per ricavare da esso il massimo possibile in un contesto più ampio ed organico.
2 – LA NASCITA DELL’ELETTROMAGNETISMO (SCHELLING ED OËRSTED) E TENTATIVI DI RICONDURRE I NUOVI FENOMENI ALL’AZIONE A DISTANZA
[Da questo capitolo ho tratto il materiale per l’articolo: “Concezioni particellari nel XVII e XVIII secolo …”. Rimando pertanto ad esso. Salteranno anche le note che vanno dalla 143 alla 161].
3 – LE TEORIE ELETTROTONICHE NELLA GERMANIA DELLA PRIMA METÀ DELL’OTTOCENTO: WILHELM WEBER (1804 – 1890)
Le teorie elettrodinamiche, matematizzate da Laplace, Poisson ed Ampère, suscitarono un grande interesse negli scienziati tedeschi. A partire dal 1840 si iniziarono a proporre, in Germania, varie teorie elettriche che sostituivano ai fluidi cariche di elettricità di segno opposto, fluenti in versi opposti con uguale densità e velocità. Tra queste particelle cariche si dovevano prendere in considerazione delle forze agenti in ragione della carica trasportata dalle particelle stesse e della loro velocità. (162) Per mezzo di questa teoria, come fa osservare Rosenfeld, (163) Weber riuscì a ricondurre sia le leggi dell’ elettrodinamica che quelle dell’induzione elettromagnetica (si veda più oltre) ad una sola formula che fornisce la forza che si esercita tra due elementi di carica q1 e q2 la cui distanza r vari con il tempo in conseguenza del moto delle cariche. La formula di Weber, nel caso di cariche ferme, fornisce la legge di Coulomb mentre, applicata al calcolo delle azioni elettrodinamiche tra correnti, fornisce la legge di Ampère appena vista (il moto, dunque,origina delle modificazioni nelle forze !). In questa formula compare un parametro c che rappresenta il rapporto fra l’unità elettrostatica e l’ unità elettrodinamica di carica e l’introduzione di due distinte unità di carica elettrica è una diretta conseguenza dell’aver assunto la corrente come flusso di cariche elettriche.Questo parametro c è di fondamentale importanza; esso fu misurato per la prima volta proprio da Weber, insieme a Kohlrausch, nel 1855 nel corso di una complessa ed accurata serie di misure fatte per la determinazione assoluta delle varie grandezze che comparivano nei fenomeni elettrici e magnetici. Weber e Kohlrausch trovarono per c il valore di 3,11×1010 cm/sec, coincidente con quello che, negli stessi anni, era stato trovato da Fizeau e da Foucault per la velocità della luce nel vuoto in esperienze di natura completamente diversa (si veda più oltre). Questa coincidenza di valori fu notata da Weber (166) ma egli, nel contesto della sua fisica, non dette molta importanza alla cosa. (167) Oltre a ciò, come osserva D’Agostino, “come conseguenza della forma delle leggi di forza statiche e dinamiche, espressa dalla legge elementare di Weber, il rapporto elettromagnetico o viene a configurarsi anche come quella velocità limite a cui debbono muoversi le cariche affinché le loro azioni statiche vengano equilibrate da quelle dinamiche (168) – questo secondo significato di c, a differenza del primo, non è più citato oggi nei testi perché non rientra nel quadro che ora si dà dell’elettromagnetismo. Ma allora, a metà Ottocento, fu così che si presentò , per la prima volta, il concetto di una velocità limite in elettrodinamica … Fu questo doppio aspetto di c, come velocità della luce e come velocità limite, che a metà Ottocento indusse i maggiori studiosi di elettromagnetismo – Maxwell compreso – ad escogitare metodi per la sua misura.”
Molte obiezioni e di varia natura furono mosse alla teoria di Weber, soprattutto da Helmholtz e Clausius. Queste obiezioni riguardavano principalmente questioni di carattere energetico legate alla compatibilità della formula di Weber con il principio di conservazione dell’energia che in quegli anni si andava affermando (si veda più oltre). (170) La teoria di Weber resse comunque per molto tempo poiché descriveva abbastanza bene i risultati sperimentali che all’epoca si andavano accumulando e perché aveva dimostrato la sua utilità, ad esempio, nei calcoli fatti da Kirchhoff per valutare il ‘movimento dell’ elettricità nei fili’. (171) Affinché la teoria di Weber potesse reggere, potremmo oggi osservare, abbisognava della nozione di potenziale ritardato che tenesse conto del ritardo nella propagazione dell’interazione elettrica. Riemann fu il primo a rendersi conto di ciò (1859) quando affermò che “l’azione non è istantanea, ma si propaga con una velocità costante c“. Sulla sua strada si mosse poi Ludwig Lorenz (172) che ottenne risultati analoghi a quelli che, per altra via, conseguì Maxwell. Egli aprì la sua memoria del 1867 con l’ammissione, derivante – secondo Lorenz – da tutti i fatti sperimentali che si erano accumulati, che le varie forze agenti tra elettricità e magnetismo, tra calore, luce, azioni chimiche e molecolari dovevano essere riguardate come manifestazioni di una e medesima forza che, a seconda delle circostanze, si mostra sotto forme differenti. (173) Questa unità della forza però ci sfugge perché, sempre secondo Lorenz, a seconda dei fenomeni che studiamo ci serviamo, di volta in volta, di ipotesi modellistiche differenti: una volta i fluidi, una volta l’etere, una volta le molecole. Egli propose allora di sbarazzarsi dei modelli (174), che sono più di ostacolo che di aiuto, e di passare a costruire una fisica indipendente da essi. 33 senza far uso di modelli egli si propose di individuare l’ identità tra luce ed elettricità arrivando ad affermare che le vibrazioni della luce sono esse stesse correnti elettriche. Senza dilungarci troppo sull’opera di questo fisico, basti osservare che il risultato cui egli giunse “è che le vibrazioni di una corrente elettrica inducono vibrazioni nelle immediate vicinanze, in completa analogia con quanto accade nel fenomeno di propagazione delle onde luminose.” (175) Per arrivare a questo risultato Lorenz introdusse, come avevamo accennato, i potenziali ritardati. (176) In questo modo egli trovò, in modo più diretto, le stesse equazioni che troverà Maxwell, giungendo alla conclusione “che le forze elettriche richiedono del tempo per viaggiare e che queste forze solo apparentemente agiscono a distanza.” (177) Come mai dunque il programma weberiano, che pure con l’introduzione dei potenziali ritardati portava agli stessi risultati di Maxwell, fu abbandonato? Certamente contribuirono cause diverse, tra le quali, con D’Agostino:
” 1. Un graduale abbandono del quadro esplicativo di Newton ed Ampère non soltanto in elettrodinamica.
2. Una certa qual macchinosità delle formule di Weber nel loro adattamento alla spiegazione di quel tipo di fenomeni elettromagnetici che, alla fine del secolo, saranno al centro dell’ interesse – cioè l’irraggiamento da antenne -, in contrasto con la maggiore semplicità offerta, per gli stessi fenomeni, dalla teoria di Maxwell.
3. La fecondità dimostrata allora dalla teoria di Faraday -Maxwell nel suggerire nuovi esperimenti” (178) proprio perché sostenuta da un’impalcatura modellistica con apparati di maggiore intuibilità.
Resta il fatto che la teoria di Weber, pur muovendosi come sviluppo del programma amperiano, introdusse degli elementi non solo non riconducibili ma addirittura in contrasto con la fisica newtoniana. Mai Newton aveva, neppure ipotizzato, forze che potessero dipendere dalla velocità. Ma d’altra parte lo stesso Ampère aveva introdotto angoli tra elementi infinitesimi di circuito! Anche se si continuava a richiamarsi a Newton, questi sempre meno era rappresentato dalla fisica che si sviluppava intorno alla metà dell’Ottocento.
In chiusura del paragrafo resta solo da ricordare, per quanto vedremo più avanti a proposito di H.A. Lorentz, che la teoria di Weber fu perfezionata nel 1877 da Clausius che fornì una nuova espressione per la legge di forza fra elettroni. In questa nuova relazione non si ipotizzava più che le cariche elettriche fluenti in verso opposto dovessero necessariamente avere la stessa velocità ed inoltre le stesse velocità delle cariche erano considerate rispetto ad un etere immobile risultando quindi velocità assolute, al contrario di quanto accadeva nella formula di Weber dove le velocità erano relative.(178bis)
4 – CRITICA DELL’AZIONE A DISTANZA E FORMULAZIONE DELL’AZIONE A CONTATTO: L’OPERA DI FARADAY
5 – L’AFFERMAZIONE DELL’AZIONE A CONTATTO: MAXWELL, LA FORMALIZZAZIONE DELL’ELETTROMAGNETISMO E LA NASCITA DELLA TEORIA ELETTROMAGNETICA DELLA LUCE
[Da questi due capitoli ho tratto il materiale per l’articolo: “La nascita della teoria di campo i lavori di Faraday e Maxwell”. Rimando pertanto ad esso. Salteranno anche le note che vanno dalla 179 alla 268].
NOTE
(128) Nascono in questo periodo: la matematica pura, la geometria pura, l’analisi pura, la fisica-matematica come disciplina separata dalla matematica, la chimica separata dalla fisica, l’elettrologia come scienza a sé, la termodinamica.
(129) Baracca e Livi in Bibl. 24, pag. 15.
(130) I lavori di Comte saranno pubblicati in sei volumi tra il 1830 ed il 1842. Si osservi che Comte proveniva dall’École.
(131) 1 fatti vanno spiegati con i fatti e dal rapporto continuo e costante con i fenomeni nasce la legge fisica. Bisogna rifiutare ogni postulato metafisico e quindi le cosiddette «ipotesi ad hoc». Naturalmente si nega l’esistenza degli atomi che non sono un fatto ma una mera ipotesi. Si noti che Comte inizia una critica alla pretesa di voler ridurre tutte le scienze alla matematica; secondo il nostro è necessario che ciascuna scienza si sviluppi autonomamente e quindi, solo dopo che ciascuna sarà stata sviluppata a fondo, si tratterà di mettere insieme i risultati in un grande lavoro di sintesi.
(132) Vedi Bibl. 17, Vol. 4, pagg. 12-13. Visto l’atteggiamento assunto da molti scienziati, capeggiati da Bohr, agli inizi del nostro secolo ed in particolare le vicende della Scuola di Copenaghen, in relazione alla nascita ed all’affermazione della meccanica quantistica, sarebbe più corretto, oggi, definire l’atteggiamento dello scienziato che si disinteressa ai problemi filosofici come ‘neopositivista’. Per approfondire in parte questi problemi si può vedere bibl. 57, pagg. 189-233. Sull’argomento vi sono poi degli interessantissimi lavori di F. Selleri (Università di Bari) ma sono di difficile reperimento.
(133) Allo scopo si può vedere bibl. 53, pagg. 65-89 (contributo di Petruccioli e Tarsitani) e Bibl. 58. Ho fatto cenno a ciò proprio perché Einstein sarà scienziato di grande impegno morale e civile.
(134) Da questo punto in poi per chi volesse seguire con maggiori dettagli e con una impostazione da me completamente condivisa, le complesse vicende dei rapporti tra scienza, tecnica, industria e vicende politiche può senz’altro rivolgersi all’interessantissimo saggio di Baracca, Russo e Ruffo di Bibl. 54. Un’analisi più concisa, sugli stessi argomenti e con lo stesso taglio, si può trovare nel saggio di Baracca e Livi di Bibl. 24.
Un’impostazione diversa dei problemi in discussione, in cui però si ricostruisce la sola storia interna, con un taglio che io non condivido, ma che credo vada conosciuto, si può ritrovare nel lavoro di Bellone riportato in Bibl. 59.
Per capire poi meglio il senso della diversità delle impostazioni si può , ad esempio, vedere a confronto i tre articoli seguenti:
E. Bellone – La scienza ed i suoi nemici – Sapere n° 802 (luglio ’77)
E. Donini, T. Tonietti – Conoscenza e pratica – Sapere n° 808 (febbraio ’78).
A. Baracca. R. Livi, S. Ruffo ed altri – Nemici per la pelle – Sapere n° 808 (febbraio ’78)
Si osservi che rispetto al suo contributo (1972) a Bibl. 53 (La Rivoluzione scientifica dell’ ‘800), Bellone sembra aver cambiato opinione.
(135) Si pensi ai risultati – dei quali discuteremo più avanti – raggiunti da S. Carnot nello studio delle macchine termiche, da Ampère nella fondazione dell’elettrodinamica e da Fresnel nell’affermazione della moderna teoria ondulatoria della luce.
(136) A partire dal 1846 fu Kelvin che dette il contributo decisivo alla modernizzazione dell’insegnamento scientifico con l’introduzione della parte sperimentale nel lavoro di formazione di uno scienziato.
(137) Un’altra innovazione fondamentale fu l’introduzione dell’illuminazione a gas nelle grandi fabbriche; essa ‘permise’ di prolungare il lavoro fino a notte inoltrata.
(138) Solo verso la fine del secolo l’uso del vapore sulle navi permise il raggiungimento di tonnellaggi paragonabili con quelli delle navi a vela. La prima ferrovia è britannica (1825). Nel 1830 si costruì l’importantissima Liverpool – Manchester.
(139) Tra Romanticismo, Idealismo e Razionalismo. In ogni caso, qui in nota, vale la pena dare un brevissimo cenno della concezione romantica della conoscenza della natura.
” L’ideale romantico [postula] una completa fusione ed unità della ragione umana con il mondo anche al di là delle delle possibilità, e dei dati offerti da quell’analisi e da quell’indagine empirica e razionale care invece al precedente illuminismo, posto sotto accusa dai romantici proprio perché ritenuto troppo innamorato delle distinzioni, della chiarezza, e di classificazioni precise che compromettevano la possibilità di quella intima e dinamica fusione. Esso svolse anche, comunque, nonostante la sua componente irrazionalistica, una funzione di stimolo e rinnovamento scientifico, come nell’opera di Oërsted.” (Baracca e Rossi in Bibl. 56, pag. 197).
Un altro aspetto che emerge in alcuni filosofi romantici è che la mante umana ha dei limiti, oltre i quali non può andare, nella conoscenza della natura. Schopenauer, che è tra questi, sostiene che tutti coloro i qualki non si rendono conto di questi limiti diventano facilmente dei materialisti con una propensione particolare a deridere la religione. Solo la filosofia può permettere di superare i limiti che necessariamente sorgono nell’ambito delle scienze naturali. Il lavoro in cui Schopenauer sostiene queste cose è riportato in Bibl. 61.
(140) È interessante notare che questo ritorno alla metafisica da parte di Hegel, che si accompagna ad uno spirito accanitamente antiscientifico fornirà la base, in Italia, all’Idealismo di Croce e Gentile che tanti danni ha prodotto, tra l’altro alla struttura della nostra scuola (si veda allo scopo Bibl. 39). Occorre comunque osservare che questi danni, a 8o anni di distanza, non solo non sono stati riparati, ma addirittura si vanno rapidamente aggravando.
All’idealismo hegeliano occorre poi risalire per trovare la teorizzazione di tutti gli Stati totalitari: “il benessere e la felicità individuale sono fatti empirici, irrilevanti, che non hanno alcuna importanza se posti al confronto con l’autorità dello Stato. La vera e profonda libertà si realizza esattamente nel suo opposto: in una salutare costrizione capace di realizzare il superiore Spirito etico, la vera volontà sostanziale che manifesta l’idea dello Spirito”. E nell’ammirazione dello stato prussiano (” fra esercito, censura, polizia, galere ed un clero … intrinsecamente amorale”) Hegel esalterà la guerra che ” ha l’alto significato che attraverso di essa si preserva la salute morale dei popoli creando in loro l’indifferenza per lo stabilizzarsi di forme determinate” . Per ulteriori, illuminanti dettagli si veda Forti in bibl. 7, Vol. 5, pagg. 13-16 (da cui provengono le citazioni qui riportate).
(141) Basti qui ricordare che nel 1834 si riuscì a realizzare una Unione Doganale che liberalizzò il mercato interno.
(142) Klemm in Bibl. 22, pag. 271.
*******************************************
(162) L’ipotesi, elaborata nel 1845, è di G. T. Fechner.
(163) Bibl. 65, pag. 1633.
(164) La formula di Weber si scrive:
F = q1q2 /r2 . [1 – (1/2c 2)(dr/dt) 2 + (1/c2 ).r.(d2 r/dt2 )].
Poiché (dr/dt)2 rappresenta la velocità, elevata al quadrato, delle cariche, mentre d2 r/dt2 la loro accelerazione, si vede subito che, per cariche ferme, si ha la legge di Coulomb (a meno di un fattore moltiplicativo che dipende dalla scelta delle unità di misura). Per cariche non accelerate, quando cioè d2 r/dt2 = 0, se nella formula risulta c = dr/dt, si vede subito che F = 0, cioè che la forza si annulla. Ciò vuol dire che la forza elettrostatica fa equilibrio alla forza elettrodinamica.
Si osservi che una formula analoga era stata trovata da C.F. Gauss (1777-1855), maestro ed amico di Weber (tra l’altro Weber utilizza proprio il sistema di unità di misura detto di Gauss nel quale la legge di Coulomb – vedi più su – risulta essere F = q1 q2 /r2 ). Egli, come confida in una lettera allo stesso Weber (1845), non la pubblicò poiché non era riuscito a trovare, nella legge di forza tra cariche, “un meccanismo pe il quale la forza stessa non si esercitasse istantaneamente tra di esse, ma si propagasse con velocità finita al medesimo modo della luce”. (Moneti in Bibl. 63, parte II, pag. 145). Gauss riteneva ciò di fondamentale importanza ed annetteva a questa eventuale scoperta la possibilità di essere chiarificatrice per l’intera elettrodinamica.
(165) Per maggiori dettagli sull’ opera di Weber e sui suoi collegamenti con quella di Ampère, si veda Bibl. 60, pagg. 10-13 e Bibl. 65, pagg. 1633-1635. Si noti intanto che, come vedremo meglio più avanti, il parametro c che compare nella formula di Weber discende dall’adozione di un particolare sistema di unità di misura, quello appunto di Gauss (o Gauss-Weber o Gauss-Hertz). In questo sistema si misurano tutte le grandezze elettriche in unità elettrostatiche (u.e.s.) e tutte le grandezze magnetiche in unità elettomagnetiche (u.e.m.), fermo restando il fatto che le tre unità fondamentali sono il centimetro, il grammo-massa ed il secondo.
(166) Fu Kirchhoff che per primo la notò nel 1857. Per la verità c risultava radice di 2 volte la velocità della luce.
(l67) In un suo scritto Weber commenta ciò dicendo: “questo fatto non è tale da accendere grandi aspettative”. Vale appena la pena osservare che, come vedremo, da questo stesso fatto, Maxwell trasse ben altre conseguenze. È anche interessante notare che questo è uno di quei casi in cui da uno stesso fatto, in connessione con termini teorici differenti, si possono ricavare conseguenze diverse.
(168) Si veda .la prima parte della nota 164, quando si discute l’eventualità che c assuma il valore dr/dt.
(169) Bibl. 60, pagg. 11-12. La sottolineatura è mia.
(170) È interessante notare che in una risposta di Weber (1871) ad una obiezione di Helmholtz egli sostiene che l’obiezione non ha senso perché, se essa fosse vera, si dovrebbero avere particelle dotate di velocità superiori a quella della luce (la velocità della luce sembra già affacciarsi come velocità limite). Helmholtz fece anche un’altra obiezione (alla quale Weber non rispose), per rispondere alla quale, però, bisognava ammettere la propagazione con velocità finita delle onde elettromagnetiche (Bibl. 63, parte II, pag. 149).
(171) All’epoca si facevano i primi esperimenti e le prime messe in opera dei telegrafi aerei e sottomarini, i quali ultimi richiedevano la posa di cavi molto complessi da calcolare. Il telegrafo era stato inventato da Ampère e realizzato da Morse nel 1839.
(172) Fisico danese (1829-1891) che non va confuso con Hendrich Anton Lorentz (1853-1928) del quale ci occuperemo nel paragrafo 5 del capitolo 17°.
(l73) Si osservi che, oltre a quanto già visto a proposito di connessioni tra fenomeni di vario tipo, verso la metà del secolo, il fisico italiano Macedonio Melloni (1798-1854) colse l’identità della luce con i fenomeni di radiazione calorifica. Per maggiori dettagli si veda Bibl. 66.
Mi piace soffermarmi un istante su Melloni per ricordarlo, oltre che come grande fisico, il “Newton del calore” come venne definito, (del quale purtroppo si studia poco), come uomo di grandi ideali che partecipò attivamente e sempre dalla parte giusta al Risorgimento italiano (si veda Bibl. citata).
(l74) L’uso dei modelli era stato un punto di forza della fisica meccanicista a partire da Galileo.
(175) Bibl. 63, parte II, pag. 177.
(176) I potenziali ritardati, secondo la definizione di M.B.Hesse (Bibl. 9, pag. 253) sono “potenziali scalari e vettoriali propagantisi in un vuoto con velocità c, in modo che il loro arrivo ad. una distanza r dalla loro sorgente abbia luogo ad un tempo r/c dopo la loro emissione.” Per i dettagli analitici si può vedere bibl. 63, pagg. 178-179.
(177) Ibidem. Si noti che negli sviluppi della teoria di Lorenz non occorre alcun etere.
(178) Bibl. 60, pag. 13. La sottolineatura è mia.
(178 bis) Per approfondire questa parte si veda bibl.112, Vol. 1, pagg. 234-235.
6 – DALLE TEORIE SELLA LUCE ALL’OTTICA DEI CORPI IN MOVIMENTO : ULTERIORI FENOMENI NON RICONDUCIBILI ALLA FISICA DI NEWTON
E’ indispensabile richiamare alcuni fatti lontani per intendere quanto diremo in questo paragrafo. Lo faremo molto in breve e, senza scomodare né Platone né Aristotele, inizieremo a discutere la questione della natura della luce a partire da Descartes. (269) Abbiamo già visto all’inizio di questo lavoro (270) che, per Descartes la materia è estensione. Quindi ogni cosa o fatto che sia esteso ha un comportamento analogo a quello della materia. La luce si estende dappertutto: conseguenza di ciò è che essa deve essere intesa come un qualcosa di materiale che si propaga “istantaneamente come una pressione esercitata dalle particelle di una materia sottile“. Questa materia sottile, che permette la trasmissione delle pressioni, anche là dove non appare materia sensibile, è l’etere, di aristotelica memoria (la quintessenza), inteso come un corpo rigido ideale. Va ben chiarito che la luce non è, per Descartes, costituita dal moto delle particelle sottili, ma dalla loro pressione le une sulle altre in un ‘universo’ tutto pieno (oggi si direbbe; onde longitudinali). L’etere, che riceve una pressione, vibra, come diremmo oggi, intorno alla sua posizione di equilibrio, trasmettendo istantaneamente la pressione che ha ricevuto. (271)
La concezione di Newton è più articolata ed egli, anche se è universalmente noto come padre della teoria corpuscolare della luce, in realtà non prende una posizione precisa ma pone la questione in forma problematica. (272). In certi passaggi sembra evidente una sua adesione alla teoria corpuscolare che fa a meno dell’etere (questo almeno fino al 1671 quando una polemica con Hooke lo orientò verso nuove strade); in altre parti della sua opera (Una nuova teoria sulla luce e sui colori -1672) pare orientato verso la teoria ondulatoria sostenuta dall’etere («Le vibrazioni più ampie dell’etere danno una sensazione di colore rosso mentre quelle minime e più corte danno il violetto cupo; le intermedie colori intermedi»); in altri passaggi poi, come nella Ottica (Libro II, parte III, proposizione XII) del 1704, sembra invece propendere per un’ipotesi che “si direbbe un compromesso tra una teoria ondulatoria ed una teoria corpuscolare, particelle precedute da onde, le quali in certo qual modo, predeterminano il comportamento futuro delle particelle”.
Così scriveva Newton:
“I raggi di luce incidendo su una superficie riflettente o rifrangente, eccitano vibrazioni nel mezzo riflettente o rifrangente … le vibrazioni così eccitate si propagano nel mezzo riflettente o rifrangente, in modo analogo alle vibrazioni del suono nell’aria … ; quando ciascun raggio è in quella parte della vibrazione che è favorevole al suo moto, si fa strada attraverso una superficie rifrangente, ma quando si trova nella parte contraria della vibrazione che impedisce il moto, è facilmente riflesso … .” (273)
E’ solo nella parte finale dell’ Ottica, nelle Questioni 28, 29 e 30, che Newton avanza, come ipotesi da investigare, la sua nota teoria corpuscolare della luce. E’ superfluo notare che ogni ipotesi di Newton è legata ad una possibile, ma non definitiva e neanche tanto importante, spiegazione dei fatti sperimentali noti e via via osservati. Così, mentre l’ipotesi onda-particella, vista qualche riga più su, serviva a Newton per rendere conto e della colorazione delle lamine sottili e del fenomeno degli anelli (che portano il suo nome), la teoria corpuscolare discendeva da una spiegazione che Newton tentava di dare della diffrazione. (274) L’inflessione che un raggio di luce subisce Quando passa, ad esempio, al di là di un forellino è interpretata come il risultato di forze attrattive o repulsive tra la materia costituente il corpo diffrangente ed il raggio luminoso (che per questo è pensato costituito da corpuscoli che, in quanto dotati di massa, subiscono l’azione delle forze attrattive o repulsive).
” Si comprende come l’incentivo verso una concezione corpuscolare della luce, fosse veramente molto forte. Tanto più che l’ipotesi ondulatoria, [come vedremo] già avanzata da Huygens, in mancanza [della conoscenza del fenomeno e] del concetto di interferenza, prestava il fianco ad obiezioni veramente serie, riguardo alla difficoltà di interpretare la propagazione rettilinea.” (274 bis)
Quindi, il tentativo di spiegazione dei fenomeni di diffrazione unito al fatto che, secondo Newton, è impensabile una teoria che voglia la luce fatta di onde (“di pressioni“) perché le onde (“le pressioni“) ” non possono propagarsi in un fluido in linea retta” (275) poiché hanno la tendenza a sparpagliarsi dappertutto, (276) porta il nostro alla formulazione (dubitativa) della teoria corpuscolare che si trova nella Questione 29 dell’Ottica, introdotta con queste parole;
“Non sono i raggi di luce corpuscoli molto piccoli emessi dagli oggetti luminosi ? Infatti questi corpuscoli passeranno attraverso i mezzi omogenei in linea retta senza essere piegati nelle zone d’ombra, com’è nella natura dei raggi di luce.” (276 bis)
Newton passava quindi ad illustrare alcune proprietà degli ipotetici corpuscoli materiali affermando che essi agirebbero a distanza allo stesso modo dell’attrazione reciproca tra i corpi. I colori della luce ed i diversi gradi di rifrangibilità sono poi spiegati con l’ammissione che la luce bianca sia formata da corpuscoli di diversa grandezza (“i più piccoli producono il viola … e gli altri facendosi sempre più grandi, producono” via via gli altri colori fino al rosso). Infine, con questa teoria, è possibile spiegare il fenomeno della doppia rifrazione che, come vedremo, Huygens non era riuscito a spiegare con la teoria ondulatoria). In definitiva, in questo modo, la teoria della luce veniva ricondotta alla più vasta spiegazione che la gravitazione universale doveva fornire.
Riguardo ad Huygens va detto che il suo Trattato sulla luce fu pubblicato nel 1691 ma fu scritto intorno al 1676. (277) In questo lavoro, a chiusura del primo capitolo, fa la sua comparsa la teoria ondulatoria. Allo stesso modo del suono, dice Huygens, la luce deve essere un fenomeno vibratorio e cosi come l’ aria sostiene il suono, altrettanto fa l’etere con la luce (278) (l’etere è qui inteso come una materia estremamente sottile e perfettamente elastica).
Così scriveva Huygens:
“Ogni punto di un corpo luminoso, come il Sole, una candela o un carbone ardente, emette onde il cui centro è proprio quel punto … ; i cerchi concentrici descritti intorno ad ognuno di questi punti rappresentano le onde che si generano da essi … Quello che a prima vista può sembrare molto strano e addirittura incredibile è che le onde prodotte mediante movimenti e corpuscoli cosi piccoli possano estendersi a distanze tanto grandi, come, per esempio, dal Sole o dalle stelle fino a noi … Cessiamo però di meravigliarci se teniamo conto che ad una grande distanza dal corpo luminoso una infinità di onde, comunque originate da differenti punti di questo corpo, si uniscono in modo da formare macroscopicamente una sola onda che, conseguentemente, deve avere abbastanza forza, per farsi sentire.” (279)
Possiamo riconoscere in queste poche righe la formulazione moderna della teoria ondulatoria fino al principio di Huygens o dell’inviluppo delle onde elementari. Lo stesso Huygens illustra questo principio con la figura 15 che ha il seguente significato: “se DCEF è una onda emessa dal punto luminoso A, che è il suo centro, la particella B, una di quelle che si

Figura 15
trovano all’interno della sfera delimitata da. DCEF, avrà fatto la sua onda elementare KCL che toccherà l’onda DCEF in C, allo stesso momento in cui l’onda principale, emessa da A, raggiunge DCEF; è chiaro che l’unico punto dell’onda KCL che toccherà l’onda DCEF è C che si trova sulla retta passante per AB. Allo stesso modo le altre particelle che si trovano all’interno della sfera delimitata da DCEF, come quelle indicate con b e con d, avranno fatto ciascuna una propria onda. Ognuna di queste onde potrà però essere solo infinitamente debole rispetto all’onda DCEF, alla cui composizione contribuiscono tutte le altre con la parte della loro superficie che è più distante dal centro A.” (280)
Quanto abbiamo ora detto può essere riassunto da quanto già sappiamo e cioè che ogni punto in cui arriva una vibrazione diventa esso stesso centro di nuove vibrazioni (onde sferiche); l’inviluppo di un gran numero di onde elementari, originate in questo modo, origina un nuovo fronte d’onda, con centro la sorgente, molto più intensa, delle onde elementari che la compongono. Huygens proseguiva affermando che con questo modo di intendere le cose, si spiegherebbero tutti i fenomeni ottici conosciuti passando poi a dare le dimostrazioni delle leggi della riflessione, della rifrazione, della doppia rifrazione e della propagazione rettilinea della luce. (281) Quando passava però a dare una spiegazione dei fenomeni che oggi si spiegano con la polarizzazione egli molto semplicemente affermava che non gli era stato possibile trovare nulla che lo soddisfacesse. (282) Riguardo poi alla natura di queste onde ed al loro modo di propagazione, Huygens diceva:
“Nella propagazione di queste onde bisogna considerare ancora che ogni particella di materia da cui un’onda si diparte, deve comunicare il suo movimento non solo alla particella vicina …, ma lo trasmette anche a tutte quelle altre che la toccano e si oppongono al suo moto.” (282 bis)
E questa è una chiara enunciazione di quella che sarà la più grande difficoltà dell’ottica ondulatoria fino a Maxwell: il fatto che le onde luminose risultavano onde di pressione e quindi longitudinali. L’ammissione, inevitabile, di onde longitudinali e non trasversali impediva di pensare a qualsiasi fenomeno di polarizzazione (e quindi questa difficoltà era alla base di quanto Huygens confessava di non saper spiegare). Questo punto era ben presente a Newton che nell’Ottica lo cita e ne tenta una spiegazione ammettendo che i raggi di luce abbiano dei «lati» ciascuno dei quali dotato di particolari proprietà. Se infatti si va ad interpretare un fenomeno di polarizzazione mediante onde longitudinali, non se ne cava nulla poiché “queste onde sono uguali da tutte le parti“. E’ necessario dunque ammettere che ci sia una “differenza … nella posizione dei lati della luce rispetto ai piani di rifrazione perpendicolare.” Come già accennato solo la natura trasversale delle onde elettromagnetiche avrebbe potuto rendere conto, fino in fondo, dei fenomeni di polarizzazione.
C’è un altro aspetto che differenzia radicalmente la teoria ondulatoria da quella corpuscolare e riguarda la spiegazione del fenomeno di rifrazione (nel passaggio, ad esempio, da un mezzo meno ad uno più denso).
Secondo la teoria corpuscolare l’avvicinamento alla normale del raggio rifratto è spiegato “supponendo che i corpuscoli di luce subiscano un’attrazione da parte del mezzo più denso nel momento in cui vi penetrano. In tal modo essi vengono accelerati sotto l’azione di un impulso perpendicolare alla superficie di separazione e quindi deviati verso la normale. Me consegue che la loro velocità è maggiore in un mezzo più denso che in uno meno denso. La costruzione di Huygens basata sulla teoria ondulatoria, parte da presupposti esattamente contrari (fig. 16). Quando un’onda luminosa colpisce una superficie di separazione, genera in ogni punto della superficie un’onda elementare

Figura 16
se queste si propagano più lentamente nel secondo mezzo che è il più denso, l’inviluppo di tutte le onde sferiche, che rappresenta l’onda rifratta … è deviato verso destra.” (283) Anche questo quindi diventava un elemento cruciale per decidere sulla maggiore o minore falsicabilità di una. teoria. Se si fosse riusciti a determinare la velocità della luce in mezzi di diversa densità si sarebbe stati in grado di decidere quale teoria fosse più vera.
Fin qui le elaborazioni a monte. Abbiamo già visto che, durante il ‘700, l’ottica non fa importanti progressi, se si escludono alcune questioni di rilievo che provenivano da osservazioni astronomiche (aberrazione della luce) ed il perfezionamento di tutta una serie di strumenti ottici (introduzione lenti acromatiche, telescopi più grandi, fotometri, …). In ogni caso, in linea con tutti gli altri campi della ricerca fisica, i newtoniani decidono che Newton era un corpuscolarista e pertanto è la teoria corpuscolare della luce che trionfa (anche se coloro che portarono avanti queste idee abbandonarono l’altro punto che qualificava la teoria corpuscolare di Newton: il fatto cioè che il moto dei corpuscoli costituenti la luce originasse vibrazioni di un ipotetico etere). Questa scelta ha anche una giustificazione pratica di primo piano ed è che la teoria corpuscolare spiegava, più cose di quella ondulatoria; in particolare era molto più immediato con la prima teoria intendere la propagazione rettilinea della luce che, con la seconda, risultava piuttosto confusa (e, come abbiamo visto, non soddisfaceva neppure Huygens).
Proprio agli inizi dell’Ottocento un giovane medico britannico scoprì un fenomeno *incredibile*; luce sommata a luce, in alcune circostanze, origina buio! E’ il fenomeno dell’interferenza (284) che fu scoperto nel 1802 da Thomas Young (1773-1829). (285) Il modo più semplice di provocare interferenza è
” quando un raggio di luce omogenea (286), scriveva Young, cade sopra uno schermo su cui sono stati praticati due piccoli fori o fenditure, che si possono considerare come centri di divergenza, dai quali la luce è diffratta in tutte le direzioni. In questo caso, quando i due raggi, nuovamente formatisi, vanno ad essere intercettati su una superficie interposta lungo il loro cammino, la loro luce risulterà suddivisa da bande scure in porzioni approssimatamente uguali.” (287)
Anche Young si serviva di modelli meccanici e quello a cui egli si rifaceva per dar ragione di quanto avviene nell’ipotesi ondulatoria, è quello delle onde di acqua in uno stagno. Se due serie uguali di onde, provocate sulla superficie dell’acqua in punti a distanza opportuna, si incontrano, accadrà, egli osservava, che andranno a combinarsi in qualche modo. In ogni punto della superficie dell’acqua lo stato vibratorio risultante dipenderà dal modo in cui vanno a sommarsi o a sottrarsi gli effetti delle onde sovrapposte. E così, se le onde andranno a sommarsi, sovrapponendosi in concordanza di fase esse origineranno un’onda più grande delle due componenti prese separatamente; al contrario, se esse andranno ad incontrarsi in opposizione di fase, si distruggeranno l’un l’altra in modo da originare un’onda nulla (acqua immobile).
Conseguentemente, il principio d’interferenza per la luce era così enunciato:
“Quando due parti di una stessa luce raggiungono l»occhio seguendo due diversi percorsi di direzioni molto vicine, l’intensità è massima quando la differenza dei cammini percorsi è un multiplo di una certa lunghezza; essa è minima per lo stato intermedio.” (287 bis)
A questo punto Young passava, a calcolarsi la lunghezza d’onda dei vari colori costituenti la luce (288) a spiegare con la teoria ondulatoria i diversi fenomeni ottici conosciuti
Anche qui egli incontrò grande difficoltà a rendere conto della propagazione rettilinea della luce: ma la difficoltà insormontabile restava sempre quella della spiegazione tramite la teoria ondulatoria ed usando di onde longitudinali (che Young, in analogia con il suono, riteneva essere caratteristiche della luce) dei fenomeni che oggi chiamiamo di polarizzazione.
Proprio in quegli stessi anni, nel 1808, il fisico francese E.M. Malus (l775-l8l2) riuscì a mettere in evidenza l’esistenza della polarizzazione attraverso fenomeni di riflessione: un raggio di luce riflesso si comporta come uno dei raggi birifratti dallo spato d’Islanda e cioè non subisce più la doppia rifrazione se fatto passare di nuovo attraverso un cristallo dello stesso tipo. La spiegazione che Malus dava del fenomeno è riconducibile a quella newtoniana dei lati delle particelle, infatti egli pensava che i corpuscoli luminosi fossero asimmetrici e si orientassero sia durante la riflessione, sia durante una birifrazione, in modo da non potersi più orientare per successive riflessioni o birifrazioni.
Naturalmente la teoria corpuscolare era sostenuta da gran parte della scuola dei fisici-matematici francesi (288 bis) tra cui Biot e Poisson (che tenteranno in tutti i modi, senza però riuscirvi, di ricondurre i fenomeni di interferenza alla teoria corpuscolare), Laplace e, per un certo tempo, Arago. (289) E fu proprio quest’ultimo che, in un ambiente generalmente ostile, dette un importante sostegno al fisico che doveva dare nuovo impulso alla teoria ondulatoria fino a portarla al suo trionfo: Augustin Fresnel (1788-1827).
Venuto a conoscenza dell’esperimento di Young proprio da Arago, questo fisico profondamente meccanicista, si propose di indagarlo meglio. Poteva sorgere il dubbio, infatti, che le frange d’interferenza osservate non fossero altro che fenomeni di diffrazione provocati dal passaggio della luce nei piccoli forellini. Egli trovò così un altro modo di produrre interferenza che non poteva far sorgere dubbi. Anziché usare i forellini di Young fece riflettere (l8l6) un raggio di luce, proveniente da una sorgente puntiforme, su due specchi consecutivi formanti tra loro un angolo prossimo a 180° nel modo indicato in figura 17(a) e (b).

Figura 17
Riferendoci alla figura 17 (a), un raggio (onda) luminoso a emesso dalla sorgente puntiforme S, si riflette sullo specchio M1 e si dirige verso il punto P dello schermo C. Analogamente esisterà un altro raggio (onda) b, proveniente da S che si dirigerà verso P, Poiché i cammini dei due raggi sono differenti, i due raggi, in generale, risulteranno sfasati tra loro. Nel caso in cui vi sia concordanza di fase tra le due onde, P sarà un punto in cui si avrà un massimo di illuminazione; nel caso in cui le due onde siano in opposizione di fase, in P vi sarà buio; nel caso di sfasature diverse vi sarà una variazione dell’ intensità dell’illuminazione dal buio al massimo di cui dicevamo. L’effetto complessivo sarà un fenomeno d’interferenza, analogo a quello che sarebbe generato da due sorgenti puntiformi S1 ed S2 , (289 bis) che si osserverà sullo schermo C.
La figura 17(b) mostra invece più onde che vanno ad interferire in diverso nodo sullo schermo C. A seconda del tipo di interferenza, e quindi di sfasatura, tra le onde interessate, i punti P, Q, R saranno bui o illuminati a varie intensità.
Con questa esperienza Fresnel sgombrò contemporaneamente il campo sia dall’interpretazione erronea del fenomeno dovuta ai corpuscolaristi (le frange non hanno nulla a che vedere con l’interazione di tipo gravitazionale tra le pretese particelle di luce ed i bordi delle fenditure) sia da quella altrettanto erronea di Young (le frange non sono generate dall’interferenza delle onde dirette con quelle riflesse dai bordi delle fenditure). La chiave della corretta interpretazione di Fresnel fu proprio la ripresa del principio di Huygens: ogni punto di una superficie di un’onda può diventare fonte di onde secondarie. Ebbene, nel fenomeno d’interferenza creata con due forellini, ciascun forellino diventa sorgente di onde; sono le onde che provengono da un forellino che interferiscono con quelle che si dipartono dall’altro.
Ma fin qui le onde luminose pensate da Fresnel erano longitudinali. Egli, nella sua memoria del l8l6, diceva: “in ogni punto dello spazio dove sta condensato, l’etere è compresso e tende ad espandersi in tutte le direzioni“, e queste non sono altro che onde longitudinali.
Proprio nel l8l6, però, lo stesso Fresnel, insieme ad Arago, scopre che due raggi polarizzati sullo stesso piano interferiscono, mentre se sono polarizzati su piani tra loro perpendicolari non interferiscono più. Il risultato di questa esperienza fu conosciuto da Young il quale, in una lettera ad Arago (l8l7), avanzò l’ipotesi che le onde luminose fossero onde di tipo trasversale. Arago ne informò Fresnel il quale fece sua l’ipotesi e cominciò a lavorarvi con gran lena. Tra il 1821 ed il 1823 egli riuscì a dimostrare che, con questa ipotesi, era possibile spiegare tutti i fenomeni ottici conosciuti. (290) La stessa propagazione rettilinea poi, che era stata sempre un grosso problema per la teoria ondulatoria, interpretata correttamente mediante i fenomeni d’interferenza (il movimento che un’onda sferica trasmette si distrugge in parte per interferenza), non rappresentava più un problema per questa teoria.
Di problema, semmai, ne nasceva un altro e fu lo stesso Fresnel a prospettarlo nel l821. Ammesse le onde trasversali che così bene spiegavano tutti i fenomeni ottici, che caratteristiche avrebbe dovuto avere l’etere per permettere il loro passaggio ? Le onde longitudinali marciano bene in un fluido, ma per le onde trasversali occorre un solido e neppure un. solido qualunque. Questo solido dovrebbe avere una rigidità teoricamente infinita (vista l’enorme velocità di propagazione della luce), quindi più elevata di quella dell’acciaio, e nel contempo deve essere più, evanescente di ogni gas conosciuto per non offrire resistenza ai corpi celesti che da secoli vediamo muoversi nel cielo senza apprezzabili rallentamenti. (291) Fresnel comunque non ebbe modo di seguire il corso degli eventi: nel 1827, a soli 39 anni, morì. Ma la strada ad una gran mole di ricerche sia teoriche che sperimentali era aperta. In particolare l’analogia tra onde luminose ed onde elastiche, che scaturiva dalla teoria di Fresnel, apriva un vasto campo di ricerche sui fenomeni dell’elasticità. (292).
All’obiezione, prima vista, di quella strana doppia natura dell’etere, cercò di rispondere G. Stokes nel 1845, Secondo Stokes la rigidità à relativa e vi sono solidi, come il gesso e la ceralacca, che se da una parte sono rigidi tanto da trasmettere vibrazioni trasversali, dall’altra sono compressibili ed estensibili (risultando molto fragili all’urto meccanico). Si tratta solo di combinare opportunamente le caratteristiche che l’etere solido deve avere per far si che abbia la rigidità richiesta unitamente all’estrema sottigliezza. (293)
Di questi tentativi ne furono fatti tanti (294) e dal corpo della loro elaborazione analitica, con la matematica sviluppata dalla scuola francese nel ‘700, con quella sviluppata dai Green e dagli StoKes in Gran Bretagna e con altra che via via veniva ideata allo scopo, scaturirono moltissimi teoremi che furono poi di grande utilità per gli sviluppi ulteriori della fisica (un esempio di ciò l’abbiamo già visto con Maxwell).
Altro campo di ricerche aperto dalla polemica onde o corpuscoli era quello relativo alla velocità della luce. Non dimentichiamo quanto abbiamo scritto qualche pagina indietro: la spiegazione della rifrazione mediante la teoria corpuscolare prevede che la velocità della luce sia più grande nei mezzi più densi, esattamente il contrario di quanto previsto dalla teoria ondulatoria. C’è l’opportunità di un esperimento cruciale che possa decidere quale teoria descrive meglio i fatti sperimentali osservati. (295) Fino a circa la metà dell”800 però le uniche misure della velocità della luce (che da ora indicherò direttamente con c) erano state eseguite su fenomeni astronomici.
Nel 1676 Roëmer, confrontando le immersioni ed emersioni dall’ombra di Giove del suo satellite Io, notò che l’intervallo tra due eclissi successive era con regolarità minore quando la Terra si avvicinava a Giove e maggiore quando la Terra si allontanava da questo pianeta. Roëmer spiegò questo fatto ammettendo che la luce avesse una velocità finita di propagazione e dopo una serie di accurate osservazioni riuscì a darne il valore.
Nel 1728. Bradley, osservando un gran numero di stelle, si accorse che esse erano dotate di un moto apparente sulla volta celeste: nel corso di un anno esse descrivevano sulla volta celeste una piccola ellissi (a questo fenomeno si dà il nome di aberrazione). Partendo da questo fenomeno e dopo accurati calcoli, Bradley riuscì a fornire una nuova determinazione di c.
Ma nonostante queste importantissime misure effettuate sfruttando fenomeni astronomici, non si era ancora trovato il modo di misurare c sulla Terra: il suo elevato valore fa si che la luce percorre tragitti lunghissimi in tempi brevissimi e tragitti di tale lunghezza non esistono in natura sulla Terra (296) a meno di realizzarli con particolari artifici.
Il primo strumento in grado ai permettere misure di c sulla Terra, che appunto si serviva degli artifici suddetti, fu ideato dal fisico francese H. Fizeau (1819-1896) nel 1849. L’esperienza di Fizeau permise la misura di c nell’aria ma fu impossibile realizzarla in un altro mezzo perché la distanza su cui Fizeau aveva operato in questa sua prima esperienza, era di circa 9.000 metri. (297)
Chi riuscì ad effettuare la misura di c, non solo sulla Terra, ma nei limiti ristretti di una stanza di laboratorio, fu l’altro fisico francese, L. Foucault (1819-1868), nel 1850.(298) L’essere riusciti a portare questa misura in laboratorio apriva la strada, immediatamente percorsa, alla misura di c in diversi mezzi ed. in particolare nell’acqua.
L’esperienza fu eseguita prima in aria, poi in acqua, sia da Foucault che da Fizeau, ed il risultato comparativo della velocità c dava ragione alla teoria ondulatoria: la luce viaggiava, con una velocità minore nei mezzi più densi ed in particolare nel!’acqua risultava essere circa i 3/4 di quanto non fosse nell’aria.
Questo argomento sembrò decisivo: la teoria corpuscolare (od emissiva) non sembrava più conciliabile con la realtà dei fatti sperimentali.
L’ammissione della nuova teoria comportava però nuove difficoltà. Già abbiamo visto le strane proprietà di cui doveva essere dotato questo etere, contemporaneamente estremamente rigido e sottile, e già abbiamo detto che sulla strada del tentar di risolvere questi problemi si erano mossi una gran quantità di fisici-matematici, elaborando la cosiddetta teoria, elastica dell’ottica. L’altro problema che si apriva fu individuato dallo stesso Fresnel in collaborazione con Arago, in una corrispondenza che si scambiarono nel l8l8. Avverto, subito che è una questione di estrema importanza per gli sviluppi futuri di questo lavoro e quindi merita di essere seguita con particolare attenzione anche perché l’argomento è delicato. NOTE
(269) Per ampliare quanto diremo e per uno studio più approfondito dei problemi si può vedere l’importante lavoro di V. Ronchi (bibl. 86). Per studiare da un punto di vista analitico completo i vari fenomeni discussi ci si può rifare a bibl. 88.
(270) Si veda la nota (°) al cap. 1° e bibl. 3, pagg. 99-102. Alcune delle cose che aggiungerò qui, a proposito di Descartes, Newton ed Huygens, ed in particolare quanto riportato tra virgolette senza indicazione bibliografica, sono ispirate o tratte da bibl. 15, cap, 4.
(271) Le teorie ottiche di Descartes sono esposte nella Diottrica del 1637.
(272) Anche qui, come per le altre vicende riguardanti Newton (e non solo), bisogna distinguere tra Newton ed i newtoniani. Molto spesso si tende a confondere la posizione di Newton con quella che i suoi pretesi sostenitori volevano accreditare. Si capisce certamente la maggiore facilità che ha un preteso storico ad andare avanti per etichette: io non intendo sottoscrivere questo modo di procedere che, per amore di aneddotica, racconta cose non vere o quantomeno discutibili (si veda, ad esempio, E. Persico che in bibl. 88, a pagina 79, fa apparire Descartes come padre putativo della teoria corpuscolare). Questo modo di procedere è tipico di coloro che intendono il progresso scientifico procedente per accumulazione successiva di conoscenze e, naturalmente, con una sua precisa linearità di sviluppo.
(273) Bibl. 87, pag. 493.
(274) Questo fenomeno, noto già da tempo, era stato scoperto ed ampiamente studiato da padre Grimaldi (l6l8-l663) e proprio a costui Newton fa riferimento nell’ Ottica. Si osservi che la parola diffrazione fu introdotta dallo stesso padre Grimaldi, mentre Newton non la usò mai preferendo in sua vece il termine inflessione.
(274 bis) Bibl. 90, pag. 195.
(275) Bibl.87, Quest.28, pagg.525-529. Si osservi che Newton respinge qui la teoria ondulatoria affermando che se essa fosse ammessa un raggio di luce che attraversasse un ostacolo, ad esempio un forellino, dovrebbe sparpagliarsi al di là di esso. Non ammette quindi la teoria che gli avrebbe permesso di spiegare le inflessioni della diffrazione senza ricorrere all’interazione luce-materia.
(276) “E, dice Newton, non si è mai vista la luce seguire vie tortuose o penetrare nell’ombra.“
(276 bis) Ibidem, Quest. 29, pag. 529.
(277) Si osservi che già Hooke, a partire dal 1672, era diventato un sostenitore di una concezione ondulatoria della luce (pare che per far ciò si sia ispirato ad alcuni passi di padre Grimaldi nei quali quest’ultimo parlava di ” vibrazione della direzione dei raggi “).
(278) E’ importante dare qui alcuni riferimenti. Il primo che dimostrò che il suono non si propaga nel vuoto fu un discepolo ed amico di Galileo, Gianfrancesco Sagredo (l571-1620). Egli si serviva di una specie di campanello che era situato all’interno di una campana di vetro dalla quale l’aria veniva quasi completamente tirata via per mezzo di un forte riscaldamento. Si osservi che le prime macchine pneumatiche sono del 1650 (Otto von Guericke). Torricelli fece invece notare che un raggio di luce passa attraverso il vuoto. Altro fatto che merita di essere annotato è la scoperta della doppia rifrazione, fatta nel 1669, dal medico danese E. Bartholin (1625-1698) mediante un cristallo detto «spato di Islanda». Da ultimo osserviamo che un allievo di Bartholin, Olaf Roëmer (1664-1710), nel 1676 riuscì a misurare, per la prima volta, la velocità della luce (calcolando i tempi di immersione ed emersione di uno dei satelliti di Giove, Io, nella zona d’ombra del pianeta. Tutto questo per dire che sia Huygens che Newton lavoravano su questioni sulle quali già si avevano dati sperimentali da sottoporre a trattamento teorico e che interessavano diffusamente gli scienziati dell’epoca. E’ da notare infine che un accostamento,come quello fatto da Huygens, della luce con il suono, se da una parte rende ragione di un mezzo che deve sostenere la luce, così cose l’aria sostiene il suono, dall’altra differenzia completamente i due fenomeni. Insomma, visti i lavori di Sagredo, la luce ed il suono si possono supporre della stessa natura solo se si ammette un etere con particolari proprietà.
(279) Bibl. 87, pagg. 560-561.
(280) Ibidem, pag. 562.
(281) La propagazione rettilinea la si può ancora ricavare dalla figura 15 quando si osserva che il raggio luminoso proveniente da A segue una delle traiettorie rettilinee che si irradiano da A (come quella ABC, segnata) e che risultano perpendicolari al fronte d’onda sferico (ed anche Hooke si era mosso su questa strada). Si osservi che proprio sulla propagazione rettilinea Huygens attaccava i corpuscolaristi, anche se non era soddisfatto neppure della sua teoria; secondo il suo modo di vedere la luce, costituita da corpuscoli, che colpisse un oggetto si sparpaglierebbe dappertutto. Si noti poi che, stranamente, Huygens non si sofferma a spiegare la diffrazione: la spiegazione di questo fenomeno poteva diventare di valido sostegno alla sua teoria.
(282) Oggi sappiamo che quando uno dei due raggi (o tutti e due), prodotto dalla doppia rifrazione, viene fatto passare attraverso un altro cristallo di spato d’Islanda, per particolari orientazioni del cristallo, questo raggio non si sdoppia ulteriormente perché è polarizzato. Questa spiegazione non può prescindere dall’ammissione di luce propagantesi per onde trasversali e quindi dalla teoria di Maxwell (un’onda longitudinale non può infatti essere polarizzata !
(282 bis) Ibidem, pag. 561.
(283) Born in bibl.91, pagg.117-118. Le sottolineature sono mie.
(284) Ora, come nel seguito, non mi soffermerò a spiegare fenomeni che compaiono in tutti i testi di fisica per i licei.
(285) Mi piace notare che Young, come Faraday e, come vedremo, Einstein era un outsider. Sarà violentemente attaccato da tutti i fisici ufficiali e ci vorranno degli anni prima che la sua scoperta venga presa in considerazione. La sua posizione di antinewtoniano era una sorta di reazione allo stato di abbandono (del quale abbiamo già detto) in cui, all’epoca, si trovava la scienza britannica. Egli riteneva che non ci si dovesse cullare con Newton, ma avere fantasia ed imboccare strade nuove. Si noti che anche Young non conosceva la matematica ai livelli richiesti dalla fisica ufficiale
(286) Oggi diremmo: monocromatica.
(28?) Bibl. 89, pag. 374. Altri brani originali di Young, che illustrano tra l’altro la sua adesione al dinamismo fisico, si possono trovare in bibl. 56, pagg. 184-195.
(287 bis) Citato in bibl. 19, Vol. 3, pag. 164.
(288) Young fu il primo a tentare questa impresa trovando valori dell’ordine del milionesimo di metro. Questi valori così piccoli per le lunghezze d’onda dei vari colori – rispetto, naturalmente, alle dimensioni degli oggetti macroscopici – lo convinsero del fatto che la luce dovesse propagarsi in linea retta originando ombre nette. Altro fatto notevole, osservato da Young, fu che la velocità della luce emessa da una sorgente intensa è la stessa di quella emessa da una sorgente debole e questo fatto risultava più facilmente spiegabile con la teoria ondulatoria.
(288 bis) Si ricordi che Euler, nonostante fosse sostenitore delle idee di Newton in vari campi, in ottica fu sostenitore della teoria ondulatoria (sono le vibrazioni dell’etere che trasmettono la luce). Per leggere un brano originale di Euler sull’argomento, si veda. bibl. 12, pagg, 63-64.
(289) Arago si convertirà ben presto alla teoria ondulatoria, anche se ad un certo punto non avrà il coraggio di condividerne tutte le conseguenze. Allo stesso modo Laplace, pur non aderendo mai alla teoria ondulatoria, mostrerà grande ammirazione per i lavori di Fresnel. Si noti infine che il britannico David Brewster (l78l-l868) fu un convinto corpuscolarista.
(209 bis) S1 ed S2 sono due immagini virtuali e simmetriche di S. Lo strumento descritto è un particolare tipo di interferometro: più avanti ne incontreremo altri tipi.
(290) A questo punto però Arago si dissocerà da Fresnel perché, per sua stessa ammissione, non ebbe il coraggio di sostenere l’idea di onde trasversali.
(291) Poisson nel 1828 dimostrò che se l’etere fosse stato un quasi-solido, a lato delle vibrazioni trasversali se ne sarebbero originate altre longitudinali e, alla lunga, queste ultime avrebbero sottratto tanta energia da non rendere più visibile la sorgente.
(292) Per approfondire questi aspetti si può vedere bibl.15, fasc.VII (a) e bibl. 91, pagg. 139-150.
(293) Per leggere un brano originale di Stokes sulla natura della luce, si può vedere bibl. 56, pagg. 243-253.
(294) Agli sviluppi della teoria dell’elasticità, ed in particolare alla teoria elastica dell’ottica, contribuirono, oltre al citato Stokes, eminenti personalità del livello di Poisson, Cauchy (1789-1857), Green, Mac Cullagh (1809-1847), fino al già più volte incontrato W. Thomson.
(295) La crucialità di questa eventuale esperienza era stata sostenuta da Arago nel 1838. Si tenga conto che, come vedremo più avanti, anche Arago nel l8l0 aveva tentato un’esperienza che dirimesse la polemica tra teoria corpuscolare ed ondulatoria.
(296) Nel 1607 ci aveva provato Galileo utilizzando un paio di lanterne e la distanza esistente tra due colline vicine. Naturalmente non riuscì.
(297) Tra le località parigine di Montmatre e Suresne (8.633 metri).
(298) Mentre Fizeau si servì della rotazione di una ruota dentata, Foucault si servì di uno specchio ruotante (mosso da vapore!). Come già accennato nelle pagine precedenti, lo stesso metodo di specchio ruotante era stato per la prima volta utilizzato da Wheatstone nel 1834 per la determinazione della durata di una scintilla elettrica. Fu quest’ultimo che suggerì che lo stesso metodo poteva usarsi per la misura di c e fu Arago che ne trasse spunto ma, data l’età avanzata, lasciò il compito ad altri. Si noti che Foucault ripeté l’esperienza nel 1862 per dare il valore assoluto di c e trovando un valore molto vicino a quelli oggi accettati (298.000 km/sec). Gli anni che vanno dal 1850 al 1862 furono per Foucault densi di altri lavori: in particolare, nel 1851 ideò il famoso pendolo (che porta il suo nome) con il quale dimostrò la rotazione della Terra sul proprio asse (dai tempi di Copernico, la prima prova terrestre di ciò). Altro merito importante che va ascritto a Foucault è la scoperta delle correnti parassite.
(299) Allo scopo mi servirò diffusamente di bibl. 81, pagg. 183-192 e di bibl. 91, pagg. 150-180.
(300) E’ il fatto che la luce passa anche attraverso i corpi (si pensi a quelli trasparenti) che fa ipotizzare l’etere anche dentro i corpi. Si noti che per Huygens risultò una grossa difficoltà lo spiegare la differenza tra corpi trasparenti e corpi opachi (allo scopo si veda bibl.l5, Cap.4, pag.l5 e bibl.86, pagg. 199-200).
(301) Ricordo una delle possibili formulazioni di tale principio: “Le leggi della meccanica hanno la stessa forma in tutti i sistemi inerziali “. Per capire meglio quanto qui sostenuto si può leggere l’altro mio lavoro sull’ argomento (La relatività da Aristotele a Newton – Bibl.3, pagg. 129-144).
(302) Bibl. 91, pagg. 150-151.
(303) Lo stabilire poi se l’etere è un riferimento assoluto sarà un’altra questione che interessa più la speculazione filosofica che non l’indagine sperimentale.
(304) Le accelerazioni rimangono, comunque, assolute (si veda bibl. 3, pagg, 140-142).
(305) I risultati sono pubblicati in F. Arago: Mémoire sur la vitesse de la lumière, Comptes Rendus; 36; pagg. 38-49, 1810. Si noti che una esperienza di questo tipo era stata proposta da Boscovich nel 1766. Boscovich proponeva di utilizzare il metodo di Bradley per la determinazione della velocità della luce semplicemente con il cannocchiale pieno d’acqua al fine di fare un qualcosa di analogo a quanto fatto poi da Fizeau (vedi più oltre): determinare come il mezzo influisce su c. Ma proprio a seguito di questa, esperienza di Arago (come vedremo) si arrivò a stabilire che il moto della Terra non ha alcuna influenza sul fenomeno della rifrazione della luce proveniente dalle stelle. A seguito di ciò Fresnel ne concluse l’impossibilità dell’esperienza proposta da Boscovich. L’esperienza fu poi tentata da Airy tra il 1871 ed il 1872 confermando le previsioni di Fresnel (si veda più avanti).
(306) Gli spostamenti dell’immagine dall’asse dovevano essere proporzionali a 2v/c, dove 2v è la differenza tra la velocità della luce nelle due situazioni A e B, e c è la velocità della luce considerata rispetto all’etere supposto in quiete. Una dipendenza di questo tipo (proporzionale a v/c) è detta del primo ordine. Dall ‘esperienza di Arago doveva scaturire un effetto del primo ordine nel rapporto v/c (gli unici effetti che, all’epoca, potevano essere osservati come del resto notò anche Maxwell in una sua lettera pubblicata postuma nel 1880 – allo scopo si veda l’inizio del paragrafo 4 del Cap. IV).
(307) Tengo a sottolineare un fatto forse inutile, ma un risultato negativo di una esperienza è altrettanto importante di un risultato positivo. Vorrei poi ribadire quel che dicevo qualche pagina indietro: l’esperienza di Arago non era progettata per individuare un moto assoluto della Terra rispetto all’etere; solo una lettura a posteriori, non in accordo con la storia, può permettere una tale interpretazione. D’altra parte e’ certamente vero che negli anni immediatamente successivi, fin verso la fine del secolo, questa esperienza fu portata a sostegno della tesi dell’impossibilità di individuare un moto assoluto della Terra rispetto all’etere, al primo ordine di v/c.
(308) Ed inoltre la teoria ondulatoria si stava mirabilmente formalizzando.
(309) Fresnel si sta qui riferendo all’ipotesi di trascinamento totale dell’etere da parte della Terra, ipotesi con la quale, come dice subito dopo, risulta inspiegabile il fenomeno dell’aberrazione.
(310) A. J. Fresnel, Sur l’influence du mouvement terrestre dans quelques phénomènes d’optique, Annales de chimie et de physique; 9; pag. 57; 1818. Si veda bibl. 123, pagg. 51-52. La sottolineatura è mia.
(311) L’ipotesi in oggetto prevede che l’etere sia in riposo assoluto nel vuoto; in riposo quasi assoluto nell’aria, qualunque sia la velocità di cui quest’aria è dotata; parzialmente trascinato dai corpi rifrangenti.
(312) L’immagine è sia di Born che di Einstein.
(313) E precisamente quello che si condensa intorno alle sue molecole e che costituisce la quantità in più di etere contenuto nella Terra rispetto a quella che si avrebbe in una uguale pozione di spazio vuoto. Cioè, secondo Fresnel, si ha una maggiore densità di etere nella materia di quanta se ne abbia nello spazio vuoto; nel moto di un corpo nell’etere esso tende a perdere la massa di etere che ha in più (rispetto a quella che si avrebbe in un uguale spazio vuoto) rimpiazzandola via via con dell’altra presa dallo spazio circostante. In questo modo si origina un parziale vento d’etere, all’interno del corpo, che ha verso contrario al moto del corpo stesso. Fu G. G. Stokes che nella sua memoria On the Aberration of Light (Phil. Mag. , 27; 1845) sviluppò una teoria basata su due assunzioni fondamentali: a) il moto dell’etere è dotato di una velocità potenziale (l’etere è incompressibile ed in esso non si originano vortici); b) L’etere che sta all’interno dei corpi materiali partecipa totalmente al loro moto; così la Terra si trascina tutto l’etere che ha al suo interno e quello che ha nelle immediate vicinanze; questo moto dell’etere va via via decrescendo finché, nelle zone più lontane dello spazio, esso è totalmente in quiete (teoria del trascinamento totale dell’etere). Poste le cose cosi, in modo abbastanza semplice, si riesce a spiegare, ad esempio, il risultato negativo dell’esperienza di Arago (e di tutte le altre dello stesso tipo), infatti le cose vanno sulla Terra come se essa fosse immobile nello spazio. Una difficoltà molto grossa di questa teoria stava nella sua incapacità di “spiegare come mai la luce proveniente dalla stella non subisca variazioni di direzione e di velocità nell’attraversare lo strato che separa l’etere dello spazio dall’etere trascinato dalla Terra. Stokes fece un’ipotesi che tenesse conto di tutte le condizioni imposte dalle leggi dell’ottica; ma, come si vide in seguito, essa si dimostrò in contrasto con le leggi della meccanica” (bibl.91, pag.l67). In definitiva l’ipotesi del trascinamento totale incontrava gravi difficoltà nella spiegazione del fenomeno dell’aberrazione; ovviamente non riuscì a rendere conto dell’esperienza di Fizeau che invece ben si raccordava con l’ipotesi del trascinamento parziale di Fresnel; infine, per l’aver introdotto ipotesi in contrasto con le leggi della meccanica (come dimostrerà H.A. Lorentz nel 1886), fu presto abbandonata.
(314) Bibl. 92, pag. 179.
(315) Si ricordi che l’indice di rifrazione n è definito come il rapporto della velocità c della luce nel vuoto (nell’etere) con quella c1 della luce nel mezzo materiale: c/c1 = n => c1 = c/n. E’ importante notare che, da considerazioni relative all’aberrazione stellare, Fresnel fece l’ipotesi che il risultato negativo dell’esperienza di Arago non dipendesse dal prisma in sé, che esso fosse cioè indipendente dalla natura del .mezzo rifrangente.
(316) Per approfondire questa parte si può vedere bibl. 91, pagg. 167-173.
(317) Questo almeno al 1° ordine del rapporto v/c. In ogni caso la strumentazione dell’epoca non avrebbe mai permesso di apprezzare effetti al 2° ordine ( v2 / c2 ) ed in questo senso si era espresso anche Maxwell, come vedremo nel paragrafo 4 del capitolo IV. Occorre notare che il fenomeno dell’aberrazione, come già detto, trovava una soddisfacente spiegazione anche nell’ipotesi di etere immobile, mentre era spiegato con difficoltà dall’ipotesi di trascinamento totale. L’esperienza di Arago invece era spiegata solo dall’ipotesi di trascinamento parziale dell’etere.
(318) La memoria di Doppler in cui si descrive l’effetto è Sulla luce colorata delle stelle doppie e di qualche altro astro celeste (Memorie dell’ Accademia delle Scienze di Praga, 1842). Anche qui occorre notare che Doppler, per il suo lavoro, prendeva le mosse da una critica alla teoria ondulatoria di Fresnel ed in particolare alle supposte vibrazioni trasversali. La critica fu poi portata avanti in modo più compiuto in un altro lavoro del 1843.
(319) E già la cosa risultava molto difficile tanto che Maxwell nel 1867 dovette rinunciare ad una tale osservazione. Soltanto nel 1869, dopo l’introduzione in queste ricerche di uno strumento a doppio prisma ed a visione diretta, costruito nel 1860 dal fisico italiano G.B. Amici (1785-1863), fu possibile l’osservazione dell’effetto Doppler sulla luce proveniente dalle stelle.
(320) Sia Wollaston che Fraunhofer osservarono le righe scure che attraversavano lo spettro solare (di ciò parleremo più diffusamente nel paragrafo 2 del cap. IV). Si osservi che la prima verifica sperimentale dell’effetto Doppler acustico fu realizzata dal meteorologo olandese C.H. Buys-Ballot (1817-1890) nel 1845. La prima verifica sperimentale dell’effetto Doppler realizzata in laboratorio si deve invece al fisico russo A.A. Bielopolskij (1854-1934) che la effettuò nel 1900.
(321) Fizeau indicava anche la possibilità di misurare la velocità relativa degli astri mediante gli spostamenti delle loro righe spettrali. Si noti che Doppler applicò, a torto, la teoria del fenomeno alla spiegazione della luce colorata delle stelle.
(322) Per separare l’effetto del moto proprio delle stelle da quello della Terra che si avvicina o si allontana si può procedere per confronto mediante l’analisi degli spettri degli elementi costituenti la stella, fatta sulla Terra e lo spettro della stella (confronto ripetuto a sei mesi di distanza). Gli spostamenti di colore che si osservano alternativamente in un senso e nell’altro sono dovuti al moto della. Terra, gli spostamenti costanti sono dovuti al moto proprio della stella (bibl.91, pag.l54). Si deve notare che la prima prova sperimentale degli spostamenti delle righe spettrali degli astri in avvicinamento od allontanamento fu data da E. Mach nel 1860.
(323) Chi fosse interessato all’argomento può vedere bibl. 91, pagg. 155-161.
(324) Ricordo che il rapporto v/c si dice quantità del primo ordine, mentre il rapporto v2/c2 si dice quantità del secondo ordine. Detto questo vediamo il senso della frase cui si riferisce la nota. Supposto che v sia la velocità della Terra e c quella delle luce, poiché v = 30 km/sec e c = 300.000 km/sec, il rapporto v/c vale 1/10.000 mentre il rapporto v2/c2 varrà 1/100.000.000. Ciò rende conto della estrema piccolezza di questa quantità e dell’enorme difficoltà a rilevarla sperimentalmente. Arrivare comunque a queste misure di altissima precisione sarà un problema che si porrà molto presto (alla fine dell’Ottocento).
(325) Bibl. 91, pag. 160.
(326) L’esperienza, nei suoi dettagli costruttivi completi, è descritta in bibl. 93, Vol.4, pagg. 40 7-409. I risultati di Fizeau sono pubblicati su: A.H.L. Fizeau, Sur les hypothèses relatives à l’éther lumineux, et sur une expérience qui paraît dé montrer que le mouvement des corps change la vitesse avec laquelle la lumière se propage dans leur intérieur, Comptes Rendus, 33, pagg. 349-355, 1851.
(327) Si osservi che se il trascinamento fosse stato completo, il coefficiente di trascinamento a = 1 – 1/n2 sarebbe stato semplicemente uguale ad 1, di modo che sarebbe risultato: W = c/n ± v. Questo fatto certamente si accordava con il principio classico di composizione delle velocità, ma altrettanto certamente non tornava, ad esempio, per la spiegazione del fenomeno dell’aberrazione (come si può vedere in bibl.91, pagg. l74-177). Se invece non vi fosse stato trascinamento di alcun genere sarebbe stato W = c/n in ogni caso poiché, rispetto al mezzo (l’etere) in cui si muove, la luce manteneva la sua velocità non dovendo comporsi con nessun’altra.
(327 bis) Bibl. 124, pagg. 15-16.
(327 ter) Si veda la nota 305.
(327 quater) Bibl. 19, Vol. 3, pag. 177. La sottolineatura è mia.
(327 quinquies) Bibl. 124, pag. 22.
CAPITOLO IV
1 – LA RIPRESA DELLO SVILUPPO CAPITALISTICO A PARTIRE DAL 1848: VICENDE POLITICO-ECONOMICO-SOCIALI IN CONNESSIONE CON LO SVILUPPO TECNICO-SCIENTIFICO (438)
Abbiamo già accennato nel paragrafo 1 del precedente capitolo che la borghesia industriale è la detentrice del potere economico intorno alla metà del secolo XIX. Le vicende del ’48 non fanno altro che sancire questa egemonia a livello politico. La. Restaurazione delle classi aristocratiche e latifondiste è dovunque battuta e, nonostante una profonda crisi economica che si abbatte sull ‘Europa, il terreno è preparato per l’ imponente balzo in avanti indicato comunemente come seconda rivoluzione industriale.
Dopo il ’48 si sente il bisogno di un generale riassestamento dei sistemi politici ed economici dei vari Stati che passa attraverso un più decisivo ridimensionamento degli strati sociali più conservatori.
” Lo sviluppo capitalistico ha ormai bisogno di una struttura politica liberal-democratica, dell’unificazione dei mercati nazionali, di un. sistema economioo liberistico, di un aumento delle disponibilità finanziarie e monetarie. Nel ventennio che segue il 1848, infatti, prendono consistenza o si compiono i processi di unificazione nazionale (in particolare della Germania intorno alla Prussia e dell’Italia intorno al Piemonte); le borghesie nazionali incrementano gli investimenti all’estero, aboliscono le misure protezionistiche allargando e consolidando un’area internazionale di libero scambio, che incoraggia l’attività imprenditoriale, cui il temporaneo rialzo dei prezzi ed anche l’attività bellica forniscono un consistente sostegno; si sperimentano nuove forme di credito e si sviluppa un sistema bancario solido e compatto. Il trattato commerciale franco-britannico del 1860 ispirato alla libertà di commercio è seguito da tutta una serie di trattati aventi analoga ispirazione.” (439) Matura anche l’esigenza di superare la crisi economica mediante una ripresa della produzione per portarla a livelli superiori a quelli, pure importantissimi, del passato. D’altra parte le aperture doganali impongono una ristrutturazione industriale finalizzata alla penetrazione, in regime di concorrenza, sui mercati esteri e, contemporaneamente, alla. difesa dei prodottti nazionali da quelli di importazione. Si impone quindi un nuovo balzo tecnologico che trasformi l’industria, facendole superare i ristretti limiti che le erano imposti dal ferro e dal vapore su cui essa essenzialmente si fondava. Occorre inventiva, non più osservare, descrivere e sottoporre a trattamento teorico dei fenomeni, ma prefigurarli ed inventarli; la metodologia di ricerca deve mutare: l’uso delle ipotesi, dei modelli e delle analogie si fa sempre più spinto, l’elaborazione teorica sempre più astratta. In questo contesto le risposte dei tecnici diventano sempre più insoddisfacenti; nell’ultima metà del secolo è la scienza che si porrà come strumento formidabile per lo sviluppo della tecnica, finalizzata alla produzione industriale. La scienza, sempre più, acquisterà i connotati di scienza applicata e avrà i più importanti successi proprio in quei paesi che come la Germania, e gli Stati Uniti cureranno di più questo suo aspetto (attraverso la particolare struttura educativa, attraverso l’istituzione di laboratori di ricerca direttamente inseriti nell’industria, attraverso la promozione da parte dello Stato, attraverso lo stretto legame che si va instaurando tra laboratori universitari ed industria). Si inverte cosi il rapporto scienza-tecnica che fino alla prima metà del secolo aveva visto quest’ultima. come trainante per tutti i problemi che nascevano nella produzione industriale ed anche come suggeritrice di tematiche all’elaborazione scientifica. Il nuovo ruolo che la scienza acquista, come fattore determinante di un nuovo modo di produzione, comporta una specializzazione sempre più spinta nei vari settori di ricerca, come del resto era richiesto dal tipo di evoluzione che l’industria subiva.
La produzione di macchine per l’industria era stata, fino alla prima metà dell’Ottocento, la costruzione, ancora essenzialmente di tipo artigianale, di grosse macchine per la grossa industria, con costi molto elevati. Pian piano si affermò una duplice esigenza, da una parte di produrre macchine più piccole che potessero servire alle esigenze dell’industria che oggi chiameremmo piccola e media, (440) e dall ‘altra di alimentare gli standards di precisione costruttiva, in modo sii rendere intercambiabili alcuni pezzi ed, in definitiva, in modo da passare alla produzione in serie. Quindi anche nella costruzione di macchine si richiede una specializzazione sempre più spinta da raggiungersi con il perfezionamento delle macchine utensili, con l’uso di materiali più adeguati e con un’ingegneria più accurata.
Vale la pena soffermarsi un istante sulle piccole macchine e sulla produzione in serie.
Abbiamo già detto che si sentiva l’esigenza di macchine più piccole e meno costose per lo sviluppo della piccola e media industria che per molti versi sarebbe diventata un supporto formidabile alla grande industria. In genere quest’ultima delega la costruzione di piccole parti, di accessori, di particolari pezzi, ad una industria più piccola che per ciò stesso diventa satellite della prima. Ma se il ritmo di produzione delle due è sfasato, se cioè la grande industria produce più in fretta perché ha a disposizione macchine automatiche più veloci, mentre la piccola industria, essendo ancora legata a processi artigianali, produce più lentamente, non c’è raccordo possibile. E’ quindi necessario introdurre il nuovo modo di produzione anche in industrie più piccole , da necessario supporto a quelle grandi.
Una macchina ad aria calda (vapore surriscaldato), dovuta allo svedese J. Ericsonn (l803-l889) e basata sul ciclo di Carnot, fece la sua comparsa nel 1833 ed ebbe una certa diffusione intorno al 1850. Essa fu però abbandonata per la sua scarsa efficienza. Nel 1860 il belga E. Lenoir (1822-1900) costruì un motore ad accensione elettrica, alimentato da una miscela esplosiva di gas ed aria, che funzionava come una particolare macchina a vapore. Ebbe subito successo e se ne costruirono molti esemplari. Nel 1862 il francese A. B. de Rochas (1815-1887) inventa il ciclo a 4 tempi per il motore a scoppio. Fondamentali per questa scoperta furono i brevetti degli italiani E. Barsanti (1821-1864) e F. Matteucci (l808-l887), per il motore atmosferico (1854), per il motore bicilindrico a gas (1856), per il motore a pistoni concorrenti in un’unica camera di scoppio (1858), per il motore a pistone libero (l859). E’ doveroso notare che i motori Barsanti-Matteucoi furono i primi ad essere accoppiati a delle macchine utensili (cesoia e trapano nelle Officine della Ferrovia a Firenze, 1856) e che solo una non adeguata protezione dei brevetti permise di assegnare ad altri la paternità del motore a scoppio. In ogni caso, sulla base del ciclo di de Rochas, i tedeschi H.A. Otto (l832-l88l) ed E. Langen (1833-1895) ottengono un brevetto per un motore atmosferico identico (ed addirittura più arretrato relativamente alla trasmissione del moto) a quello di Barsanti-Matteucci. Questo motore ha il pregio di consumare 2/3 meno del motore Lenoir. ” In dieci anni furono vendute quasi 5.000 macchine atmosferiche da un quarto di cavallo fino a tre cavalli.” (441) Il successo fu grandissimo ed aumentò notevolmente quando, nel 1876, lo stesso Otto costruì il famoso motore silenzioso a quattro tempi, alimentato dalla solita miscela esplosiva di gas ed aria, che risultava, molto meno pesante ed ingombrante della macchina atmosferica.
Una caratteristica che mancava ancora alle piccole macchine motrici era la trasportabilità; infatti esse erano legate, come ad un cordone ombelicale, alla conduttura del gas.
Fu l’altro tedesco G. Daimler (l834-1900) che, nel 1883, costruì un leggero e veloce motore a benzina. Ma il motore che doveva avere i più clamorosi sviluppi (che poi portarono all’automobile) fu brevettato nel 1885, indipendentemente da O. Daimler e C. Benz (1844-1929). Da ultimo, alla fine del secolo (l892), vide la luce il motore con accensione per compressione di R. Diesel (1858-1913) estremamente versatile sia all’uso in impianti fissi che mobili, sia in impianti della più disparata potenza.
Connesso con lo sviluppo dei motori a benzina ebbe un grande incremento la richiesta di materia prima, il petrolio, da cui la benzina ed il gasolio venivano ricavati. A partire dal 1857, quando in Romania venne perforato il primo pozzo di petrolio e dal 1859 quando iniziarono le prime perforazioni negli Stati Uniti, la produzione di questa materia prima crebbe sempre di più anche se la sua importanza diventerà fondamentale solo dopo la fine della prima guerra mondiale.
La richiesta di piccole macchine , a prezzi accessibili, sarà comunque soddisfatta, come vedremo, dalle applicazioni pratiche della scienza elettrica.
Passiamo ora a discutere brevemente dell’altra esigenza di cui si diceva: l’accuratezza ingegneristica nella costruzione di macchine per permettere 1’utilizzazione di pezzi intercambiabili.
Le prime macchine a vapore erano state costruite con utensili molto rozzi e con una mano d’opera scarsamente qualificata. Già Smeaton, nel 1760, doveva lamentarsi molto di questo stato di cose; nelle sue macchine, tra cilindro e pistone, c’era uno spazio di circa mezzo pollice (su un diametro del cilindro di circa 28 pollici). (442) Questa approssimazione nella costruzione era responsabile di alte perdite di potenza. Si cercò di porvi rimedio coprendo la parte superiore del cilindro con uno strato d’acqua ma, nel progetto di Watt, dovendo la macchina funzionare con cilindro sempre caldo, questo sistema, non poteva essere adottato. Ci furono quindi serie difficoltà per la realizzazione del progetto di Watt che furono superate solo quando J. Wilkinson (1728-1808) riuscì a brevettare (1774) un trapano perfezionato che rese possibile la fabbricazione di cilindri di precisione. Il problema era quindi quello di una sempre maggiore precisione nella progettazione e, soprattutto, nelle macchine per la costruzione di macchine.
Che sulla strada di ricerca di precisione si marciasse dovunque, lo dimostra il fatto che nel 1765 il costruttore francese di armi, Le Blanc, introduce, nel processo di fabbricazione dei moschetti, l’intercambiabilità dei pezzi. Ciò vuol dire che ogni pezzo deve essere esattamente uguale ad un altro di modo che, in caso di rottura del primo, sia possibile montarne un secondo al suo posto.
Quindi, via. via, vengono realizzate macchine (443) sempre più in grado di costruire pezzi uguali tra loro. Questo aspetto non è indipendente però dalla ricerca di materiali sempre più affidabili. Si realizzeranno così acciai sempre più adatti ai fini che si volevano conseguire. E per far questo si dovette anche lavorare sui particolari convertitori per produrli (Bessemer, Siemens, Thomas, Martin,…). (444) Per alimentare questi giganteschi “forni” si ricercano sempre nuove e più affidabili fonti di energia. In tal senso lo sviluppo dell’elettricità è perfettamente funzionale ad ogni esigenza produttiva. L’elettricità gode della proprietà di essere “localmente” controllabile. Non serve cioè avere un generatore nel luogo d’uso, ma basta un cavo per trasportare la fonte di energia dove si vuole (445). Tutte le realizzazioni, le innovazioni, le scoperte subivano imponenti accelerazioni (ad opera essenzialmente di tedeschi e statunitensi, in connessione con la ripresa dello sviluppo capitalistico dopo le vicende del ’48) nell’ultimo quarto di secolo. L’elettricità in soli 70 anni divenne completamente matura. Ma questo processo riguardò moltissimi altri settori, tra cui quello chimico, a partire dall’industria dei coloranti (446); quello dell’automazione e dei miglioramenti dei rendimenti termodinamici (447); insomma, veramente dovunque, si avanzò in modo da cambiare radicalmente la struttura del mondo produttivo, dei modi di produzione, delle condizioni di vita della gente (448).
Inizia ad emergere con chiarezza lo stretto legame che l’industria instaura con la ricerca da cui attinge a piene mani. D’altra parte lo stesso mondo scientifico, almeno quello più intraprendente, lavorava direttamente per l’industria (Weber, Kohlraush, Kirchhoff, Kelvin,…)
Per dare solo un indice di come tutto ciò rivoluzionò l’intero modo di produzione industriale, si pensi che alla fine del Settecento (1787) il lavoro nei campi di 19 contadini riusciva a produrre un surplus sufficiente ad alimentare una persona che viveva in città, mentre agli inizi del Novecento (1935) gli stessi 19 contadini riuscivano a produrre un surplus sufficiente ad. alimentare 66 persone che vivevano in città (i dati sono riferiti agli Stati Uniti). Si può quindi ben capire come industrializzazione e meccanizzazione dell’agricoltura dovessero andare di pari passo: sarebbe stato altrimenti impossibile distogliere mano d’opera dai campi per servire alla produzione nell’industria.
Ma per lo sviluppo di tutti i ritrovati tecnici che si andavano accumulando era indispensabile una enorme disponibilità di capitali.
” Sul piano finanziario l’immissione di nuovo oro sul mercato e l’introduzione della carta moneta aumentano notevolmente le disponibilità monetarie e, con la caduta del saggio d’interesse, si espande contemporaneamente il volume del credito … Le banche commerciali per azioni, nate in Gran Bretagna, si diffondono rapidamente sul continente, favorendo una grande mobilitò di capitali e una notevole efficienza nell’utilizzazione delle risorse finanziarie.” (449)
Con la crisi poi che graverà su tutta l’Europa a partire dal 1873 fino al 1896 (grande depressione economica dalla quale solo la Germania riuscì ad uscire quasi indenne) “il sistema bancario e finanziario subisce trasformazioni profonde per rispondere alle nuove esigenze: da un lato la domanda di capitali per il dilatarsi delle imprese industriali con ritmi crescenti di innovazione tecnologica, dall’altro la quota, sempre più elevata di investimenti all’estero. Il capitale si da’ così forme nuove: nascono società finanziarie per azioni i cui rappresentanti siedono nei consigli di amministrazione delle aziende ed il cui potere di controllo si esercita a tutti i livelli della vita economica, politica e sociale.” (450)
Ma all’interno delle fabbriche non si produceva soltanto con le macchine e con il capitale: occorreva anche la forza lavoro degli operai. Leggiamo in proposito un brano scritto nel 1844 da un industriale tedesco, F. Harkorts:
” I grandi capitali sono sorti soprattutto attraverso le colpe delle amministrazioni, dei monopoli, dei debiti pubblici e del deprecato traffico della carta moneta. Essi sono alla base dei giganteschi impianti, conducono alla truffa che va oltre il bisogno, ed. opprimono le piccole officine, mediante le quali, prima, anche chi non era dotato di mezzi poteva farsi una strada con la propria diligenza, con una giudiziosa tendenza all’agiatezza. Con l’introduzione delle macchine, con la suddivisione del lavoro che viene spinta fino all’inverosimile (ad esempio nell’industria degli orologi esistono 102 rami diversi a cui vengono indirizzati i vari apprendisti), (451) sono necessarie soltanto una forza limitata ed assai poca intelligenze, e con la concorrenza il salario deve essere limitato al minimo indispensabile per restare in vita. Se appena si verificano quelle crisi di sovraproduzione, che sempre si ripetono a breve distanza, le paghe scendono subito al disotto dei limiti minimi; spesso il lavoro cessa completamente per qualche tempo …. Così come stanno ora le cose i fanciulli vengono impiegati soltanto per deprimere le paghe degli adulti; se i minorenni verranno eliminati dalla cerchia di coloro che possono lavorare, i più anziani troveranno migliori compensi per il lavoro delle loro mani. Anch’io appartengo alla categoria dei padroni dell’industria, ma disprezzo di tutto cuore la creazione di qualsiasi valore e ricchezza che si faccia a spese della dignità umana, ed abbassi la. classe dei lavoratori. Il compito della macchina è di sollevare l’uomo dalla servitù animalesca, non quello di creare ulteriore schiavitù.” (452)
Harkort concludeva questo brano affermando che, migliorando le condizioni di vita dei lavoratori (case e cibi sani, riduzione dell’orario di lavoro, educazione scolastica, compartecipazione agli utili, …), si sarebbe raggiunta una produzione di gran lunga maggiore. E quanto scriveva Harkort non era che lo specchio di una condizione di vita operaia veramente insopportabile: bassi salari, completa precarietà del lavoro, giornate lavorative fino a 16 ore, abitazioni e cibi malsani, mortalità infantile che arrivava fino a 300 per ogni mille nati vivi (” il punto più basso nello sviluppo sociale che l’Europa abbia conosciuto dall’alto Medio Evo”, così lo ha definito lo storico liberale Lewis Mumford), ritmi frenetici con conseguenti molteplici incidenti, abbondanza di malattie professionali per le condizioni di lavoro in fabbrica (la fabbrica era definita dallo stesso Mumford come ” La casa del Terrore”). Anche i fanciulli, perfino di 6 e 7 anni, venivano impiegati e perfino nelle miniere (si pensi che ci volle la legge mineraria inglese del 1842 per vietare il lavoro in miniera alle donne ed ai bambini di età inferiore a … 10 anni ! Si pensi poi che l’uso dei bambini nelle fabbriche di cotone durò, negli Stati Uniti, fino al 1933).
Vi furono vari tentativi di accordo tra operai e padroni dell’industria ma, l’accordo stipulato in un certo periodo, veniva regolarmente non rispettato dai padroni in un periodo successivo.
Verso la metà del secolo fu il tedesco Karl Marx (l8l8-l663) che, con estrema lucidità, denunciò le condizioni di lavoro degli operai, analizzando i rapporti esistenti tra capitale, lavoro salariato e profitto, arrivando a prospettare l’organizzazione rivoluzionaria degli sfruttati per l’abbattimento della società capitalistica e per l’emancipazione del proletariato, (454) ed operando attivamente a questo fine “combattendo con una passione, con una tenacia e con un successo come pochi hanno combattuto … Marx era perciò l’uomo più odiato e calunniato del suo tempo. I governi, assoluti e repubblicani, lo espulsero, i borghesi, conservatori e democratici radicali, lo coprirono a gara di calunnie.” (455) Ma l’eredità che questo uomo ha lasciato al movimento operaio di tutto il mondo è il bene più prezioso di cui esso dispone. “Marx ed il movimento dei lavoratori che a lui si collegava contribuirono a far si che lo Stato, a partire dall’ultimo quarto del XIX secolo, si sforzasse di migliorare le condizioni di lavoro e di vita dei lavoratori dell’industria, con una legislazione di politica sociale progressista.” (455 bis)
A parte queste considerazioni pur fondamentali, e per le quali rimando ai vari testi specializzati, rimane il fatto che, a partire dalla metà dell’Ottocento, iniziarono conflitti sempre più estesi tra i padroni dell’industria e gli operai in essa. occupati, soprattutto a partire dall’inizio degli anni ’70 quando, come abbiamo già accennato, una profonda crisi economica, che avrà il suo culmine nel crack del 1873 e sarà superata solo nel 1896, si abbatté su tutta l’Europa.
“Qui, come in occasione delle altre crisi cicliche, il meccanismo di accumulazione capitalistica si inceppa, si restringono i margini di realizzazione del profitto ed emerge drammaticamente la contraddizione tra il livello di produttività raggiunto e la struttura rigida del mercato nell’ambito dei rapporti di produzione esistenti. La caduta del saggio medio di profitto diventa una concreta realtà che impone una trasformazione di tutto il complesso della struttura produttiva al fine di rimettere in moto e dare nuovo slancio al meccanismo di sviluppo capitalistico. [A questa crisi il mondo industriale risponde con] la chiusura della fase di libero scambio che aveva caratterizzato il ventennio precedente e tutti i governi innalzano nuovamente rigide barriere doganali: si sviluppa così l’esigenza sempre più pressante del controllo dei mercati d’oltremare e delle fonti di materie prime e le nazioni europee fanno a gara nella conquista di nuovi territori in Asia e in Africa. Contemporaneamente l’urgenza di uscire dalla crisi e di superare la fase di depressione impone un radicale processo di riconversione produttiva, alla ricerca di più elevati standard di organizzazione e livelli tecnologici.”(456)
Da una parte quindi si inaugura l’età del colonialismo e dell’imperialismo e dall’altra la necessità di riconversione porta alla fine di tutte le imprese più deboli e ad una grossa espulsione di operai dalle fabbriche. La strada che si imboccò fu quella dell’ulteriore automazione che porterà alle teorizzazioni e realizzazioni dello statunitense F.W. Taylor (1856-1915), fondatore del metodo dell’organizzazione scientifica del lavoro (parcellizzazione), all’introduzione delle catene di montaggio e ad un grosso aumento di produzione.
Oltre a ciò si costruirono grosse concentrazioni industriali sotto forma di società per azioni, cartelli e trusts che ben presto assunsero il ruolo di multinazionali,
: Nel processo di ristrutturazione, a partire dalla crisi de ’73, la Gran Bretagna e la Francia persero il loro primato produttivo, economico, industriale, commerciale e scientifico-tecnologico. Questo primato passò alla Germania ed agli Stati Uniti.
Indagare con una qualche pretesa di completezza questo passaggio di primato ci porterebbe troppo lontano, ma alcuni elementi per comprenderlo possono essere delineati.
Certamente la struttura produttiva della Gran Bretagna era, ancora alla metà del secolo, di gran lunga la più possente tra tutte le altre; e qui già si può cogliere un primo elemento del declino di questa potenza (che per molti versi è simile a quello della Francia): una struttura. solida, che ha dei processi produttivi consolidati già da anni, presenta molto maggiori difficoltà alla riconversione industriale e tecnologica (a meno che si rinunci a gran parte del profitto per le cicliche indispensabili innovazioni). Altro elemento fondamentale, alla base della perdita del primato britannico, fu la struttura scolastica ed educativa. Questa difficoltà non si presentò invece alla Germania (ed agli Stati Uniti) che paradossalmente risultò avvantaggiata dalla sua preesistente arretratezza. (456 bis)
Mentre la Gran Bretagna, manteneva ancora una scuola profondamente classista in cui solo chi aveva soldi poteva andare avanti e non c’era alcun incentivo statale alla pubblica istruzione, mentre in questo paese l’istruzione non aveva alcun legame con il mondo della produzione e forniva una preparazione rigida e poco flessibile, al contrario, in Germania, c’era una grossa promozione statale alla pubblica istruzione, che era obbligatoria a livello primario, non c’era selezione sul censo, c’era una grossa selezione ma solo sulle capacità e la preparazione, c’era una scuola strettamente legata alle esigenze produttive, una scuola molto elastica e flessibile che preparava personale disciplinato ed altamente qualificato, in grado di poter cambiare mansione in caso di necessità; oltre a ciò vi erano anche moltissime scuole per adulti ed in particolare per operai che erano facilitati a frequentarle per il fatto che la legislazione dello Stato faceva obbligo agli industriali di lasciar loro del tempo libero per poter accedere ad esse.
Per quanto riguarda poi l’istruzione tecnico-scientifica a livello superiore, essa lasciava molto a desiderare in Gran Bretagna, pochi erano gli istituti che vi si dedicavano, pochi coloro che li frequentavano. La stessa struttura rigida della produzione che aveva creato il miracolo britannico ora diventava un ostacolo alla successiva espansione, non richiedendo il contributo di nuovi tecnici e scienziati.
In Germania, invece, le scuole tecniche prolificavano. Vi erano una quantità di istituti di ricerca altamente specializzati, gli studenti potevano preparare liberamente piani di studio, i laboratori erano attrezzatissimi, vi si faceva molta ricerca alla quale erano avviati anche gli studenti, vi erano borse di studio vere per studenti meno abbienti, vi si sviluppava, una grande sensibilità ai problemi della produzione. Oltre a ciò, come già accennato, era la stessa industria che da una parte si legava strettamente a questi centri di ricerca (soprattutto per la chimica) e dall’altra manteneva propri laboratori con molti ricercatori al lavoro.
Ed a proposito del declino della Gran Bretagna, Cardwell osserva che “il fallimento non fu affatto, in quel periodo, un fallimento economico; fu, invece, sostanzialmente un fallimento scientifico e tecnologico.” (458)
E’ quindi interessante notare che questo fallimento sul piano scientifico e tecnologico è riferito essenzialmente a quanto sia la scienza che la tecnica potevano fare per lo sviluppo dei processi produttivi, infatti non è per nulla vero che in Gran Bretagna non si facesse più scienza, anzi se ne faceva e molto sofisticata (Maxwell, Rayleigh, J.J. Thomson, Rutherford,…), ma non era la scienza che serviva per i settori trainanti dal punto di vista produttivo, non era scienza applicata e non fu in grado di inserirsi nei rivolgimenti scientifici di fine secolo e degli inizi del novecento. Come osservano Baracca e Livi tutto ciò mostra “ancora una volta che l’evoluzione della scienza non dipende solo dalla pura rilevanza fisica dei risultati, ma dal modo in cui essi si inseriscono in un processo più complesso, caratterizzato dai livelli di integrazione della scienza nel sistema produttivo e dalla capacità di quest’ultimo di valorizzarne nel modo più completo la ricaduta tecnologica.” (459)
La situazione degli Stati Uniti era in parte simile ed in parte radicalmente diversa da quella della Germania. Questo paese era di relativamente recente costituzione. Negli anni che vanno dal 1861 al 1865 esso aveva dovuto affrontare la sanguinosissima guerra di secessione degli Stati del Sud che, per altri versi, segnò un grosso sforzo produttivo a sostegno delle esigenze belliche, che comportò anche un grosso sforzo tecnologico sia per le stesse esigenze belliche in senso stretto sia per sopperire alla mancanza di mano d’opera, principalmente nei campi, proprio per effetto della guerra. E’ dalla fine di questa guerra che gli Stati Uniti iniziarono la lunga marcia verso il primato produttivo, scientifico e tecnologico a livello mondiale.
Le enormi distanze nel territorio, la scarsità di mano d’opera, le enormi ricchezze della terra sia per usi agricoli che estrattivi, furono da stimolo ad uno sviluppo che si differenziava da quello europeo. In questo Paese la necessità imponeva soprattutto di occuparsi di trasporti, comunicazioni (la conquista del West) ed automazione (per sopperire alla scarsità di mano d’opera) (460) sulla base, soprattutto, di una notevole mole di tecnologia empirica. (461) D’altra parte anche le prestazioni operaie erano scarsamente qualificate a causa della inesistente tradizione culturale e quindi educativa di quel Paese. Pertanto gli Stati Uniti puntarono essenzialmente sulla quantità di prodotto e sulle industrie di assemblaggio, al contrario di quel che faceva la Germania che puntava sulla qualità del prodotto e sulle industrie di trasformazione ad alta tecnologia. Tutto ciò comunque portò gli Stati Uniti al primato che condivise con la Germania alla fine del secolo. La Gran Bretagna invece, alla fine del secolo, pur mantenendo ancora un certo primato in alcuni settori produttivi, che erano stati quelli che avevano fatto la sua fortuna all’epoca della prima rivoluzione industriale (industrie tessili e minerarie), si trovava nella situazione in cui il resto delle sue industrie “erano per lo più filiali di ditte americane e tedesche o erano state impiantate da stranieri naturalizzati.” (462)
Quelli che ho dato sono certamente brevi cenni ma possono servire da spunto di riflessione per eventuali integrazioni e necessari ampliamenti.
Prima di concludere questo paragrafo ci rimane da fare alcune considerazioni sulle correnti di pensiero dominanti nella seconda metà dell’Ottocento.
Il primo dato che emerge e’ il tramonto del Romanticismo in connessione con una diffusa fiducia nelle capacità della scienza di risolvere i problemi dell’uomo e di essere il motore del progresso (non meglio identificato). Questo atteggiamento di fiducia nella scienza, che ai può senz’altro definire positivistico, non è tanto rintracciabile nell’opera di un qualche autore dell’epoca (occorre rifarsi a Comte) quanto appunto in un diffuso stato d’animo che nasceva, nelle classi che facevano cultura, in connessione con i successi della scienza e della tecnica. Si trattava di una sorta di ammirazione attonita che non si preoccupava di andare a comprendere l’infinità delle implicazioni sociali che il balzo tecnologico comportava, ma si accontentava soltanto di considerare i dati più appariscenti della questione. Questo atteggiamento culturale può essere riassunto in un semplice slogan: e’ solo la scienza che fornisce verità; la religione e la metafisica (e quindi la filosofia) non ci aiutano ad andare avanti.
Questo atteggiamento si accompagnava ad un declino della filosofia tradizionale in tutta Europa. Da una parte la scienza con le sue problematiche in terne, esterne e sui fondamenti, dall’altra l’incapacità, da parte di quella filosofia, di cogliere il dibattito per mancanza degli strumenti di comprensione della materia del contendere. La scienza era sempre più strutturata nel suo formalismo che tendeva via via ad anticipare fatti piuttosto che a spiegarne di noti, ed al suo interne nacquero e si svilupparono tutte quelle tematiche che, in connessione con la crisi del meccanicismo e le formulazioni evoluzionistiche, aprirono un dibattito e talvolta uno scontro tra visioni diverse del mondo e dello stesso modo di fare scienza.
La filosofia che non coglieva questa dinamica e non diventava filosofia della scienza rimaneva esclusa dal dibattito dovendo ripiegare su se stessa.
Ci furono certamente dei tentativi di salvaguardare la ‘purezza’ della filosofia insieme al suo primato sulla scienza (considerata, appunto, una forma di conoscenza inferiore) e tra di essi vanno ricordati quelli tardopositivisti (dei quali ci occuperemo ancora) e quelli irrazionalisti (per i quali rimando ad un testo di filosofia).
Una menzione a parte la merita invece la corrente di pensiero pragmatista, che vide la luce nell’ultimo quarto di secolo negli Stati Uniti, secondo la quale, ed in accordo con la visione della scienza cose forma inferiore di conoscenza, sono solo le applicazioni che danno una misura della validità del sapere scientifico (anche ‘la filosofia’ ha ben capito chi è che paga).
In ogni caso, al di là delle singole correnti di pensiero, emergeva con forza il problema dei rapporti scienza-filosofia.
Questa scienza che cambia i suoi metodi ed i suoi contenuti; mette in discussione i fondamenti; si impone all’attenzione per le sue potenzialità produttive; ebbene, questa scienza rappresenta l’elemento più importante da discutere alla fine del secolo. Se solo si pensa che anche Marx ed Engels (463) (e più tardi Lenin) sentirono il bisogno di occuparsi di scienza, entrando in argomento, in modo discutibile se si vuole ma certamente con cognizione di causa e puntuale conoscenza dello specifico, ci si rende conto di quanto attuale fosse il problema da qualunque parte fosse guardato. Ma la separazione scienza-filosofia si andava via via consumando con effetti incalcolabili che ancora oggi stiamo pagando.
Nei settori più consapevoli, comunque, per capire le connessioni ed i rapporti esistenti tra scienza e scienza e tra scienza e società, nacque l’esigenza di una storia delle scienze che non fosse una semplice cronaca dei fatti ma che andasse a ricercare l’origine profonda dei concetti, dei fatti, delle leggi, delle varie formulazioni e teorie, che non si succedono staticamente in un processo di accumulazione successiva ma si articolano dinamicamente in una dialettica molto complessa che non ha solo referenti interni ma anche e, per quanto abbiano visto, soprattutto esterni.
La fine dell’Ottocento vide anche un’altra novità che a buon diritto può essere considerata rivoluzionaria. Molta enfasi viene spesso data all’inaugurazione galileiana del metodo sperimentale, ma quasi mai si pone attenzione alla svolta che si operò alla fine dell’Ottocento, a partire dai lavori di Maxwell. Per la prima volta si rompeva lo schema galileiano e, con il demandare agli altri la verifica sperimentale delle ipotesi e delle teorie, si inaugurò quel processo che, come portato della divisione del lavoro e della sua sempre più spinta specializzazione, approdò alla separazione tra teoria ed esperimento, con la nascita prima del fisico teorico e poi della fisica teorica.
E, sempre in questo contesto, in cui la scienza si rivestiva di un alone di superiorità, gli addetti ai lavori iniziarono a trovare un alibi al di-sinteresse dell’uso che veniva fatto delle loro scoperte scientifiche. E quest’ultimo aspetto non ha più un carattere di storia ma di cronaca contemporanea soprattutto se si pensa che ancora oggi c’è chi dice che è la curiosità che muove la scienza, e che quest’ultima è perfettamente neutrale. (464)
NOTE
(438) Per quel che riguarda la bibliografia generale che serva ad approfondire quanto qui solo accennato rimando alla nota 134.
(439) Bibl. 24, pag. 29. La frase fra parentesi è mia.
(440) Questa esigenza è ben espressa in uno scritto dell’ingegnere P. Reuleaux (1829-1905) che, nel 1875, così si esprimeva: Solo il grande capitale può permettersi di acquistare ed. usare le potenti macchine a vapore … Bisogna rendere l’energia indipendente dal capitale. Il modesto tessitore sarebbe liberato dal prepotere del capitale se potessimo mettere a disposizione del suo telaio, nella misura giusta, la forza motrice che gli serve. Lo stesso potrebbe farsi con successo nel campo della filatura … Altri campi sono quelli della costruzione di mobili, di chiavi, di cinghie, quelli dello stagnino, del fabbricante di spazzole, di pompe, ecc… Quindi ciò che la meccanica deve fare per ovviare ad una gran parte del capitale, è fornire piccoli quantitativi di energia a buon prezzo o, in altre parole, realizzare piccole macchine motrici, il cui esercizio esiga spese assai modeste.” (Da Klemm, bibl. 22, pagg. 347-348).
(441) Bibl. 22, pag.347. Si ricordi che un cavallo potenza (HP) vale circa 76 Kgm/sec, mentre un cavallo vapore (CV) vale 75Kgm/sec. Riguardo alla nascita del cavallo come unità di misura di potenza si può vedere bibl. 45, pagg. 44-45.
(442) II pollice, unità di misura di lunghezza, corrisponde a 2,54 cm.
(443) – Nel 1794 il britannico J. Bramah (1746-1614) inventa il porta-utensili scorrevole per torni paralleli e nel 1795 la pressa idraulica;
– nel 1797 il britannico H. Maudsley (l771-l83l) migliora il porta-utensili per filettare munendolo di un banco a slitte e di un accoppiamento a madrevite;
– nel 1801 il francese M. Brunel (1769-1849) costruisce i primi trapani;
– nel 1832 lo statunitense E. Mhitney (1765-1825) costruisce la prima fresatrice per la realizzazione di superfici piane e costruisce le prime armi statunitensi a pezzi intercambiabili;
– nel 1802 ancora J. Bramah realizza la prima piallatrice meccanica;
– nel 1807 il britannico W. Newberry inventa la sega a nastro;
– nel l8l0 ancora Maudsley completa la realizzazione del primo tornio di precisione, interamente costruito in ferro, con il quale si possono fabbricare viti con filettature precise e cilindri molto ben centrati e rettificati (con questo tornio inizia la produzione standardizzata di viti e cilindri);
– nel 1825 il britannico J. Glement (1779 -1844) realizza una macchina in grado di spianare perfettamente le superfici metalliche; “con l’aiuto di questi cilindri e superfici piane perfetti l’inglese J. Whitworth (l803-l887) sviluppò, negli anni 1830-50, il suo misuratore di precisione a vite, che permetteva di misurare con una sensibilità fino ad un milionesimo di pollice, e i suoi torni di precisione, le sue macchine spianatrici, perforatrici, tagliatrici e modellatrici che gli diedero fama mondiale” (bibl. 16, Vol. II, pag. 530).
– nel 1840 lo stesso Whitworth propose che si adottassero, nella costruzione di macchine, sia pezzi intercambiabili lavorati entro strette tolleranze, sia filettature unificate.
(444) L’acciaio, per le sue caratteristiche, era di gran lunga preferibile per la costruzione di macchine che, proprio perché soggette a rapidi movimenti, erano enormemente sollecitate. I prima acciai si cominciarono a produrre a partire dal 1783 quando il britannico H. Cort (l740-l800) inventò il sistema di puddellaggio, atto alla loro fabbricazione. Nel 1811 il tedesco F. Krupp (1787-1826) inaugurò ad Essen la prima fonderia d’acciaio (nella Germania e già nel 1812 iniziò la produzione dei primi acciai inossidabili.
Leghe di acciaio furono anche studiate e create da M. Faraday (!) nel 1822 ma gli acciai speciali ad alta robustezza e resistenza si cominciarono a realizzare a partire dal 1856 quando, il britannico H. Bessemer (l8l3-l898) inventò il convertitore,che porta il suo nome, per la produzione, appunto, dell’acciaio ed il tedesco P. Siemens (1826-1904), uno dei quattro fratelli Siemens, inventò il forno a rigenerazione,sempre per la produzione dell’acciaio.
Nel 1862 la Krupp aveva già installato il primo convertitore Bessemer del continente.
Appena tre anni dopo (l865) i fratelli Martin, francesi, misero a punto un processo che, integrato con quello Siemens, permetteva, un notevole risparmio di combustibile (processo Siemens-Martin).
Sia il convertitore Bessemer che il processo Siemens-Martin erano però adatti alla lavorazione di minerali senza tracce di fosforo e si adattavano quindi bene ai giacimenti britannici e continentali esclusa la Germania i cui giacimenti erano ricchi di minerale fosforico. La soluzione a questo problema fu trovata dal britannico S.G. Thomas (1850-1685) che con il processo che porta il suo nome permise lo sfruttamento dei giacimenti del Belgio, della Lorena e della Germania.
Intanto nel 1668 era stato installato negli Stati Uniti il primo convertitore Bessemer.
A questo punto il grosso era fatto ma le richieste dell’industria si facevano sempre più pressanti;
-nel 1881 Siemens costruisce il forno elettrico per la fusione dell’acciaio;
– nel 1884 il processo Thomas viene esteso ai forni Martin;
– nel 1888 viene prodotto il primo acciaio speciale con forti percentuali di manganese;
– nel 1889 viene prodotto un altro acciaio speciale, quello al nichel;
– nel 1900 F.H. Taylor produce i primi acciai rapidi per utensili che consentono elevate velocità di taglio.
(445) Certo, perché l’elettricità arrivasse a questo grado di funzionalità, sono stati necessari molti successivi passi, ciascuno dei quali, anche se in tempi relativamente brevi, ha rappresentato una tappa complessa e piena di implicazioni soientifico-tecnologiche. Cerchiamo di ripercorrere questi passi a partire dalle due fondamentali scoperte alla base della tecnologia elettrica: quella di Volta e quella di Faraday.
– Nel 1800 A. Volta costruisce la pila elettrica, prima tappa fondamentale nello sviluppo dell’elettrotecnica;
– nel 1803 il tedesco J. Ritter (l776-l8l0) progetta l’accumulatore elettrico;
– nel 1809 H. Davy costruisce l’arco elettrico;
– nel 1820 il tedesco T.J. Seebeck (l770~l83l) riesce a magnetizzare l’acciaio;
– nel 1822 lo stesso Seebeck dimostra, che la corrente fa variare la temperatura di un circuito dando inizio alla termoelettricità;
– nel 1822 il britannico P. Barlow (1766-1862) dimostra la trasformabilità dell’energia elettrica in energia .meccanica (ruota di Barlow);
– nel 1822 il tedesco G. S.. Ohm (1787-1854) ricava la legge che porta il suo nome e che lega tensione, corrente e resistenza;
– nel 1624 il francese J.C. Peltier (l785-l845) scopre l’effetto termoelettrico;
– nel 1825 lo statunitense M. Sturgeon (1783-1850) costruisce il primo elettromagnete d’uso pratico;
– nel 1831 M. Faraday scopre il fenomeno dell’induzione elettromagnetica e costruisce il primo semplice generatore di corrente alternata;
– nel 1831 lo statunitense J. Henry (1797-1878) costruisce il primo semplice motore elettrico;
– nel 1832 il francese H. Pixii (1776-1861) costruisce una macchina per produrre corrente alternata con il primo dispositivo commutatore per ‘raddrizzarla’;
– nel 1832 ancora Henry scopre il fenomeno dell’autoinduzione;
– nel 1833 Gauss e Weber realizzano il primo telegrafo elettrico;
– nel 1836 il francese A.P. Masson (l806-l880) realizza correnti elettriche indotte ad alta tensione;
– nel 1837 lo statunitense J. P. Morse (1791-1872) costruisce la prima linea telegrafica di uso pratico;
– nel 1838 il tedesco H. von Jacobi (l801-l874) costruisce un motore elettrico ad elettromagneti, alimentati da una batteria di pile, con il quale fa muovere un battello sulla Neva;
– nel 1840 ancora Masson insieme a L.F. Breguet (l804-l883) costruiscono un trasformatore;
– tra il 1840 ed il 1844 ad opera, indipendentemente, del britannico W. Grove (1811-l896), del ‘britannico de Moleyns, dello statunitense J.W. Starr, del francese L. Foucault, vengono realizzati i primi tentativi per lampade ad incandescenza;
– nel 1845 G. Wheatstone modifica i generatori elettrici sostituendo i magneti permanenti con elettromagneti;
– nel 1848 G. Kirchhoff estende la legge di Ohm a circuiti complessi a più rami ;
– nel 1850 viene posato, attraverso la Manica, il primo cavo telegrafico sottomarino;
– nel 1851 il tedesco W. J. Sinsteden (l803-l878) costruisce il primo alternatore elettrico monofase;
– nel 1855 l’italiano De Vincenzi brevetta la prima macchina da scrivere elettrica;
– nel 1859 l’italiano A. Pacinotti (l841-1912) costruisce un indotto per macchine elettriche (anello di Pacinotti) , ad alto rendimento, per la trasformazione dell’energia meccanica in elettrica e viceversa;
– nel 1865 termina la posa in opera del primo cavo transatlantico sottomarino (a cui lavora la ditta Siemens);
– nel 1866 W. Siemens (l8l6~l892) scopre il principio elettrodinamico e costruisce la prima dinamo elettrica;
– nel 1867 il belga Z.T. Gramme (l826-190l) inventa la dinamo ad autoeccitazione per ottenere una corrente continua costante;
– nel 1869 lo stesso Gramme costruisce una dinamo elettrica a corrente continua in grado di trasformare energia meccanica in elettrica e viceversa;
– nel 1870 ancora Gramme, utilizzando i lavori di Pacinotti, costruisce la prima dinamo industriale;
– nel 1871 l’italiano A. Meucci (1804-1889) costruisce il primo rudimentale telefono;
– nel 1874 il tedesco S. Schuckert (1846-1895), collaboratore di Edison, inventa la commutatrice, una macchina rotante capace di convertire la corrente alternata in continua e viceversa;
– nel 1875 ancora Gramme costruisce il primo alternatore ad induttore rotante;
-nel 1875 lo statunitense G. Green prospetta l’idea di alimentare le locomotrici ferroviarie mediante un filo aereo;
– nel 1876 lo statunitense G.A. Bell (1847-1922) chiede il brevetto per il telefono ;
– nel 1878 il britannico J. Swann (1828-1914) costruisce una lampada ad incandescenza a filamento di carbone;
– nel 1879 lo statunitense T.A. Edison (1847-1931) costruisce la prima lampada ad incandescenza;
– nel 1879 ancora W. Siemens costruisce il primo locomotore elettrico;
– nel 1880 di nuovo W. Siemens costruisce il primo ascensore elettrico;
– nel 1881 gli Stati Uniti presentano una centrale telefonica automatica;
– nel 1881 W. Siemens inventa un sistema scorrevole di collegamento alla linea elettrica (trolley);
– nel 1881 W. Siemens accoppia una macchina a vapore ad un generatore di corrente per la produzione di energia elettrica;
– nel 188l negli Stati Uniti viene inaugurato il primo impianto di illuminazione elettrica pubblica;
– nel 1881 W. Siemens costruisce forni elettrici per la fusione dell’acciaio;
– nel 1881 viene inaugurata a Berlino la prima tramvia elettrica (Siemens);
– nel 1882 viene inaugurata negli Stati Uniti, a New York, la prima centrale elettrica per la fornitura di energia elettrica per uso domestico (Edison);
– nel 1884 il francese L. Gaulard (1850-1889) costruisce il trasformatore statico, dimostrando contemporaneamente la possibilità del trasporto a distanza dell’energia elettrica;
– nel 1885 viene inaugurata la prima centrale elettrica tedesca;
– nel 1885 Edison sviluppa la dinamo multipolare;
– nel 1885 l’italiano G. Ferraris (1847-1897) scopre il campo magnetico rotante e, in base ad esso, costruisce il primo motore elettrico a corrente alternata polifase;
– nel 1886 negli Stati Uniti entra in funzione il primo impianto di distribuzione di corrente alternata;
– nel 1886 lo statunitense E. Thomson brevetta il motore elettrico a repulsione;
– nel 1888 il tedesco H. Hertz dimostra l’esistenza delle onde elettromagnetiche;
– nel 1889 la statunitense Westinghouse costruisce i primi alternatori polifasi;
– nel 1889 la statunitense Otis Broters & Co. inizia la produzione industriale di ascensori (con il parallelo sviluppo degli acciai e del cemento armato – Francia 1867 – si renderà possibile la costruzione di grattacieli);
– nel 1891 il russo M. Dolivo-Dobrowolski (1862-1919) inventa l’indotto a gabbia di scoiattolo per i generatori elettrici;
– nel 1891 in Germania si sperimenta la trasmissione di energia elettrica ad alta tensione (25.000 V), su una linea di 178 Km;
– nel 1891 negli Stati Uniti viene installata la prima linea ad alta tensione;
– nel 1892 Siemens sperimenta la prima locomotrice elettrica a corrente alternata. polifase;
– nel 1892 la Westinghouse costruisce i primi trasformatori raffreddati ad acqua;
– nel 1895 il russo A. Popof (1858-1905) costruisce un’antenna per la ricezione delle onde elettromagnetiche;
– nel 1895 l’italiano G. Marconi (l874-1937) compie i primi esperimenti di radiocomunicazione ;
– nel 1897 Marconi stabilisce il primo contatto radiotelegrafico a distanza;
– nel 1900 lo statunitense Hewitt (186l-1921) inventa il raddrizzatore a vapori di mercurio;
– nel 1900 la Westinghouse installa la prima turbina a vapore per la generazione dell’energia elettrica;
– nel 1902 la Westinghouse introduce l’elettrificazione a corrente monofase ad alta tensione per uso ferroviario;
– nel 1904 il britannico J.A. Fleming (1849-1945) costruisce il diodo;
– nel 1506 lo statunitense L. De Forest (l873~196l) costruisce il triodo.
(446) Le tappe più importanti dello sviluppo della chimica, dopo la scoperta delle leggi dei gas e di svariati elementi, soprattutto per quel che riguarda il suo massiccio sfruttamento nell’industria sono:
– nel 1825 M. Faraday scopre il benzene che è un ottimo solvente organico e materia prima per molti derivati;
– nel 1826 M. Faraday scopre che la gomma naturale e’ un idrocarburo aprendo la strada alla fabbricazione della gomma sintetica;
– nel 1826 il tedesco 0. Unverdorben (l806-l873) scopre l’anilina, che e’ una sostanza importantissima per la fabbricazione di coloranti e prodotti farmaceutici;
– nel 1827 i francesi P.J. Bobiquet (1760-1840) e J.J. Colin (1784-1865) isolano l’alizarina (composto organico che si estrae dalle radici della robbia, pianta abbondante nella Francia meridionale, utilizzato come colorante);
– nel 1828 il tedesco P. Wöhler (l800-l882) realizza la prima sintesi organica, quella dell’urea (composto organico dal quale si possono ottenere resine sintetiche e che può essere usato come concime azotato);
– nel 1830 lo svedese J.J. Berzelius (1779-1848) introduce il concetto di isomeria;
– nel 1830 iniziano ricerche approfondite sul catrame che porteranno alla scoperta di molti composti organici che saranno alla base dei grandi progressi della chimica organica e dell’industria che li sfrutterà;
– nel 1834 il tedesco F.F. Runge (1794-1867) colora delle fibre tessili con l’anilina ossidata (nero d’anilina);
– nel 1835 J.J. Berzelius scopre le proprietà dei catalizzatori che diventeranno della massima importanza nell’industria chimica;
– nel 1846 lo svizzero C.P. Schönbein (1799-1868) scopre la nitrocellulosa (importante composto per la produzione di coloranti, di esplosivo, della seta artificiale);
– nel 1846 l’italiano A. Sobrero (l8l2-l888) scopre la nitroglicerina, (esplosivo estremamente pericoloso da maneggiare);
– nel 1848 il francese A. Payen (1795-1871 ) inventa un processo per la fabbricazione della cellulosa;
– nel 1856 il britannico W.H. Perkin (l838-1907) sintetizza il primo colorante artificiale, la malveina (violetto d’anilina);
– nel 1863 il belga E. Solvay (1838-1922) scopre un processo più redditizio per la fabbricazione della soda;
– nel 1865 il tedesco A. Kekulé (1829-1896) propone la formula di struttura esagonale del benzene, a partire dalla quale sarà possibile realizzare una enorme quantità di nuovi composti organici;
– nel 1869 i tedeschi K. Graebe (1841-1927) e K. Liebermann sintetizzano l’alizarina;
– nel 1883 il britannico J. Swann (1828-1914) brevetta delle fibre filate di nitrocellulosa;
– nel 1866 lo svedese A.B. Nobel (l833-l896) elabora la nitroglicerina ottenendo la dinamite;
– nel 1901 il francese H. le Chatelier brevetta m processo di fabbricazione dell’ammoniaca sintetica.
In parallelo a quanto abbiamo brevemente elencato anche la chimica teorica si sviluppava rapidamente in un processo di stretta interconnessione con le esigenze produttive. Si potrà notare che la Germania è alla testa della ricerca. Il settore dei coloranti sintetici diventa ben presto trainante e la Germania sa sfruttare ciò che, ad esempio, la Gran Bretagna non utilizza (il brevetto Perkin) e ciò che, ad esempio, la Francia esita ad accettare (la formula di struttura esagonale del benzene di Kekulé). La grande industria chimica tedesca avvia inoltre giganteschi programmi di ricerca in propri laboratori ed in stretto legame con le università (si pensi che la Basf nel 1880 investe la gigantesca cifra di un milione di sterline per la sintesi dell’indaco, programma che solo dopo 17 anni sarà coronato da successo, con una imponente ricaduta tecnologica). Per dare un’idea dell’enorme mole di lavoro svolto dalle sei maggiori industrie chimiche tedesche si pensi che esse, negli anni che vanno dal 1886 al 1900, brevettarono ben 948 sostanze coloranti, mentre, al confronto e nello stesso periodo, le sei maggiori industrie chimiche inglesi ne brevettarono 66.
(447) Le principali tappe di sviluppo della meccanizzazione dell’industria tessile e dell’agricoltura si possono riassumere come segue.
Le grandi innovazioni nei telai portano i processi di filatura e tessitura via via a livelli di automazione sempre più spinta. Già agli inizi dell’Ottocento vari telai erano mossi a vapore. Piano piano vengono introdotti: il movimento differenziale alle macchine per filatura (Gran Bretagna, 1810); le pettinatrici di fibre lunghe (Francia, 1825); il filatoio automatico intermittente (Gran Bretagna, 1825); il filatoio ad anello (Stati Uniti, 1828); il filatoio continuo (Gran Bretagna, 1833); il telaio circolare per maglie (Gran Bretagna, 1849); la macchina per cucire mossa a pedale e dotata di pezzi intercambiabili che ha il grande pregio di lasciare le mani libere (Singer, Stati Uniti, 1851); il telaio rettilineo (Gran Bretagna, 1857); il telaio rettilineo multiplo che permette la produzione contemporanea di molti esemplari dello stesso indumento (Gran Bretagna, 1864); il telaio automatico (Stati Uniti, 1889); il telaio con sostituzione automatica delle spole vuote (Stati Uniti, 1892); la chiusura lampo (Stati Uniti, 1893); l’annodatrice automatica per tessitura (Stati Uniti, 1805).
Con queste innovazioni l’industria tessile aumenta in modo impressionante la produzione senza incrementare i posti di lavoro (se non indirettamente, nell’industria chimica dei coloranti). E per concludere con l’industria tessile c’è solo da aggiungere che l’invenzione della macchina per cucire dà il via all’industria delle confezioni: i prodotti vengono da ora commerciati completamente finiti.
Per quel che riguarda l’agricoltura c’erano da affrontare almeno tre grossi problemi: l’inurbamento massiccio, al seguito della grande industria, richiedeva enormi quantità di cibo ponendo inoltre il problema della sua conservazione; molta forza lavoro aveva abbandonato le campagne per cercare una sistemazione nella fabbrica; la popolazione era grandemente aumentata in valore assoluto negli ultimi anni. Anche qui pertanto bisognava produrre di più, con metodi diversi e sfruttando al massimo i prodotti tecnologici. Da una parte, intorno alla metà del secolo, l’industria chimica iniziò a fornire fertilizzanti e, dall’altra, furono successivamente introdotti i seguenti ritrovati tecnologici: la trebbiatrice (Gran Bretagna, 1802); la falciatrice meccanica (Gran Bretagna, 1814); la mietitrice (Gran Bretagna, 1826; Stati Uniti, 1834); la raccolta automatica del grano in covoni mediante un nastro rotante senza fine (Stati Uniti, 1849); la seminatrice automatica (l850); l’aratura meccanizzata a vapore (Gran Bretagna, 1850); la falciatrice automatica (1850); la legatrice automatica dei covoni (Stati Uniti, 1871); la diffusione del refrigeratore a compressione di ammoniaca (Linde, Germania) per la conservazione dei cibi (l873); la mietitrebbia combinata che miete il grano, lo trebbia, lo pulisce e lo insacca (Stati Uniti, 1886); la mietifalciatrice a vapore (Stati Uniti, 1889); la mietitrebbia combinata su trattore a cingoli, mossa da una macchina a vapore (Stati Uniti, 1904) e da un motore a benzina (Stati Uniti, 1906).
Per altri versi gli sviluppi della tecnologia idraulica dettero un notevole impulso all’elettricità:
– l’invenzione del britannico J.Francis (1815-1892) della turbina idraulica a reazione (1845);
– l’invenzione dello statunitense A. Pelton (1829-1916) della turbina idraulica ad azione (1884).
Le richieste di energia poi erano sempre maggiori e ad esse si faceva fronte da un lato con il carbone, che aveva quasi completamente sostituito la legna da ardere, e solo parzialmente (nel periodo di cui ci stiamo occupando) con il petrolio, dall’altro con l’energia idraulica e d&oall’altro ancora con il miglioramento delle macchine termodinamiche e dei loro rendimenti. A quest’ultimo fine furono via via realizzate:
– la caldaia tubolare (Stati Uniti, 1824; Francia, 1828);
– la macchina a vapore surriscaldato (Svezia, 1833);
– la caldaia a serpentini (Francia, 1850);
– la caldaia a tubi inclinati (Wilcox-Stati Uniti, 1856);
– la macchina a vapore a pezzi intercambiabili (Stati Uniti, 1876);
– la turbina a vapore a reazione che faceva 18.000 giri/minuto (Gran Bretagna, 1884);
– la turbina a vapore ad azione che faceva 30.000 giri/minuto (Francia, l890);
– la turbina a vapore ad azione e ad asse verticale (Stati Uniti, 1896).
Il particolare sviluppo che ebbero le turbine fu dovuto al fatto che esse avevano un rendimento, in termini di denaro, molto più elevato delle macchine a vapore alternative (per migliorare il rendimento di queste ultime fu introdotta la macchina a vapore a cilindro orizzontale per la sua migliore capacità di sfruttare il moto rotatorio). La termodinamica delle macchine a vapore fu sviluppata principalmente dal britannico W. Rankine (l820-1872) in un suo lavoro del 1859. Sempre più ogni settore della produzione si andava sistemando in un tutt’uno integrato con svariati altri settori e sempre più ogni industria cercava di raccogliere in sé tutte le attività produttive in modo da costruire un insieme unico integrato (trust).
(448) Prima di ooncludere questo paragrafo riporto altre innovazioni tecniche realizzate nel corso del secolo; quelle che hanno avuto una grande importanza dal punto di vista economico-politico-sociale, a partire dalle rivoluzionarie conquiste nel settore dei trasporti e delle vie di comunicazione (altri elementi indispensabili per lo sviluppo dei commerci).
– Nel 1807 R. Fulton (1765-1815) inizia un servizio regolare di battelli a vapore (Stati Uniti);
– nel 1814 G. Stephenson (1781-1848) inizia le prove della sua locomotiva a vapore (Gran Bretagna);
– nel 1827 ai compie la prima traversata dell’Atlantico a vapore (il primo servizio regolare inizia nel 1838);
– nel 1822 G. Stephenson con il figlio Robert costruisce la locomotiva Rocket (prima locomotiva moderna) iniziandone la produzione in serie;
– nel 1830 viene inaugurata la prima ferrovia britannica e da allora molti paesi europei inaugureranno la loro prima ferrovia;
– nel 1859 entra in esercizio la prima carrozza letto (Stati Uniti);
– nel 1868 entra in esercizio il primo vagone frigorifero (Stati Uniti);
– nel 1869 viene aperto il Canale di Suez (realizzazione francese su progetto italiano);
– nel 1871 è inaugurato il tunnel del Frejus;
– nel 1881 è inaugurato il tunnel del San Gottardo ;
– nel 1885 G. Daimler costruisce la prima motocicletta;
– nel 1886 C. Benz costruisce la prima automobile a tre ruote;
– nel 1888 il britannico J.B. Dunlop (1840-1921) brevetta il prime pneumatico di uso pratico;
– nel 1893 viene aperto il canale di Corinto;
– nel 1896 lo statunitense H. Ford (1863-1947) costruisce la sua prima auto;
– nel 1898 inizia il traforo del Sempione;
– nel 1900 il tedesco F. von Zeppelin (1838-1917) costruisce il primo dirigibile a struttura metallica;
– nel 1903 gli statunitensi fratelli Wrigat effettuano il primo volo a motore.
Altre tappe da ricordare, nei settori più diversi, sono:
– l’introduzione del cuscinetto a sfora (Francia, l802)f;
– l’invenzione delle lenti per fari, costruite con vetri di un solo pezzo incisi a fasce concentriche (Fresnel, Francia, 1822)(;
– l’invenzione del maglio a vapore (Gran Bretagna, 1838);
– la scoperta del linoleum (Gran Bretagna, 1844);
– la prima rotativa di stampa (Gran Bretagna, 1848);
– la distillazione del cherosene (Canada, 1854);
– la serratura di sicurezza (Yale, Stati Uniti, 1855)5;
– il brevetto del filo spinato (Stati Uniti, 1874);
– la costruzione del fonografo (Stati Uniti, 1872);
– il brevetto della prima penna stilografica (Watermann, Stati Uniti, 1884);
– la prima macchina per fabbricare bottiglie (Gran Bretagna, 1887);
– il primo processo (piroscissione) di distillazione del petrolio (Gran Bretagna, 1889);
– i fratelli Lumiere realizzano il cinematografo elaborando una precedente realizzazione di Edison (Francia, 1895).
(449) Da Baracca, Russo e Ruffo, bibl. 54, pag. 7.
(450) Ibidem, pag. 93.
(451) II matematico britannico C. Babbage (l792-l87l) fu uno dei primi teorici della parcellizzazione del lavoro. Nel 1832, in un suo lavoro (On the economy of machinary and manifactures), dopo aver sostenuto che la suddivisione del lavoro riduce i tempi dell’apprendistato e fa risparmiare materia prima, affermava: “un altro vantaggio che deriva dalla suddivisione del lavoro è il risparmio di tempo poiché in ogni passaggio da una lavorazione ad un’altra un certo tempo va perduto. Quando la mano e la testa si sono abituate per un certo tempo ad una determinata specie di lavoro, se questo cambia, mano e testa non possono assumere subito la stessa destrezza che avevano raggiunto prima.” Il brano è tratto da Klemn, bibl. 22, pag. 291 (nel testo citato vi sono altri brani di grande interesse).
(452) Citato da Klemm, bibl. 22, pag. 309. Sulle macchine è importante leggere quanto dice Marx. Si veda la rivista Marxiana dell’ottobre 1976.
(453) Il Capitale (vol. 1°) è del 1867. Con quest’opera Marx dette all’econo all’economia un assetto scientifico.
(454) Nel 1864 fu fondata la Prima Internazionale socialista che si sciolse nel 1873, dopo il fallimento della Comune di Parigi (l87l). Nel 1889 fu fondata su basi diverse la Seconda Internazionale.
Al fianco di Marx lavorò F. Engels (1820-1895).
(455) Dall’orazione funebre di Marx, scritta e letta da Engels.
(455 bis) Klemm in bibl. 22, pag. 321.
(456) Baracca, Russo e Ruffo in bibl. 54, pag. 93.
(456 bis) La Germania si costituisce in stato solo dopo la sconfitta di Napoleone III (1871) ad opera dell’esercito di Bismarck che strappò alla Francia l’Alsazia e la Lorena e fondò l’impero tedesco con alla testa Guglielrno 1° (nel frattempo l’impero austro-ungarico giungeva via via al suo disfacimento).
Si noti che il grande statista Bismarck inaugurò una politica di alleanze che garantì all’Europa 50 anni di pace (50 ami nei quali tutti cercarono di costruirsi imperi coloniali.
(457) Soltanto nel 1880 l’istruzione primaria venne resa obbligatoria ma con scuole che davano ” un’istruzione inferiore alle classi inferiori”.
(458) Bibl. 23, pag. 277. Si veda tutto il paragrafo del testo da cui è tratto questo brano; dà ulteriori particolari sull’emergere della Germania con il contemporaneo declino della Gran Bretagna. L’autore del testo, Cardwell, è uno storico britannico ed il brano è perciò ancora più interessante.
(459) Bibl.24, pag. 54.
(460) Che era invece abbondante in Gran Bretagna e Germania. Tra l’altro la forza lavoro negli Stati Uniti costava di più di quanto non costasse nei paesi citati, proprio per la sua scarsità. Questo fu un ulteriore incentivo allo sviluppo, negli Stati Uniti, di macchine sostitutive del lavoro umano.
(461) Un altro elemento a favore del grande sviluppo tecnologico degli Stati Uniti fu una legislazione tra le più avanzate del mondo per i brevetti (essa risaliva al 1691 e fu poi perfezionata nel 1790).
(462) Bibl.23, pag.280. Comincia l’era delle multinazionali.
(463) Engels scrisse un volume che si occupava dei rapporti soienza-filosofia, Dialettica della natura, che fu pubblicato postumo soltanto nel secolo XX. Si veda bibl. 103.
(464) Allo scopo si vedano alcuni interventi ad un convegno che si tenne a Firenze nel 1970 riportati in bibl. 58.
2 – UN PANORAMA SU ALTRE SCOPERTE SCIENTIFICHE DEL SECOLO XIX. LA NASCITA DEI QUANTI.
Nel capitolo precedente mi sono occupato ampiamente di alcuni aspetti dello sviluppo della ricerca fisica nell’Ottocento ed in particolare ho riguardato con qualche dettaglio lo sviluppo dell’elettrodinamica e dell’elettromagnetismo, dell’ottica e della termodinamica. Nei paragrafi che seguiranno svilupperò ancora alcuni aspetti delle problematiche già affrontate con particolare riguardo all’ottica ed all’elettrodinamica – elettromagnetismo.
In questo paragrafo intendo dare un quadro più completo delle ricerche che in alcuni campi della scienza (soprattutto chimica e fisica) si portavano avanti nel corso del secolo. Lo scopo di ciò è di dare un riferimento più significativo per la comprensione degli argomenti che, invece, ho trattato e tratterò con maggiori dettagli.
Alcune delle cose che era dirò saranno soltanto una cronologia di alcune tappe significative, e questo principalmente per la matematica e la chimica. Su alcuni aspetti dello sviluppo della fisica non esplicitamente fin qui rilevati o discussi (o da discutere nei prossimi paragrafi) ai soffermerò un poco di più.
E’ solo il caso di ricordare che gran parte delle ricerche di questo secolo saranno improntate al filone di pensiero, già più volte richiamato, che va sotto il nome di meccanicismo fisico, eredità del pensiero newtoniano. (465) Ho già detto più volte che questo meccanicismo assumerà articolazioni diverse e che, in nome di Newton, saranno affermate le cose più diverse e, a volte, addirittura antitetiche. Ma, al di là di queste considerazioni, rimane il fatto che la tradizione culturale dominante fa del richiamo a Newton una questione imprescindibile ed in questo senso è estremamente significativo che l’atteggiamento che via via emergerà sarà il ricondurre alla meccanica, non solo tutti i più disparati fenomeni che venivano scoperti nel campo della fisica e della chimica, ma anche quelli che provenivano da scienze più distanti come, ad esempio, la biologia e la fisiologia. Dovunque si cercheranno modelli meccanici a cui affidare, insieme alla loro elaborazione matematica, la spiegazione della realtà. E questa tendenza alla ricerca del modello (e dell’analogia) si accentuerà molto verso la fine del secolo, quando il grado di astrazione delle elaborazioni matematiche raggiungerà livelli non più immediatamente rappresentabili mentalmente. Ed, anche qui, in nome di Newton, si elaboreranno (e costruiranno materialmente) modelli così incredibilmente complessi da essere, quanto meno, molto lontani, essi stessi, da una semplice rappresentazione meccanica e quindi dalla semplicità degli schemi interpretativi introdotti da Newton. Valga come esempio il modello che Kelvin propose per l’etere nel 1889. Egli costruì un modello meccanico di un elemento di un modello di etere proposto nel 1839 da J. Mac Cullagh (l809-l847). ” Dispose quattro bastoncini a forma di tetraedro, e preso come asse ciascun bastoncino vi sistemò una coppia di volani giroscopici (466) ruotanti l’uno in senso contrario all’altro. Questo modello opponeva resistenza ad ogni disturbo in senso rotatorio, ma non opponeva alcuna resistenza a moti traslatori.” (467) In questo modo si cercava di rendere conto delle strane proprietà che il supposto etere avrebbe dovuto avere (estremamente sottile, estremamente elastico, in grado di trasmettere vibrazioni trasversali).
Su questa strada si mosse anche Helmholtz e via via molti altri.
La ricerca di modelli meccanici o meno era anche teorizzata dallo stesso Kelvin con queste significative parole: “Io non sono soddisfatto finché non ho potuto costruire un modello meccanico dell’oggetto che studio. Se posso costruire un tale modello meccanico comprendo; sino a che non posso costruirlo, non comprendo affatto.” (468)
La ricerca di una spiegazione meccanicistica era poi così enunciata da Helmholtz: ” II problema della scienza fisica naturale è ricondurre i fenomeni naturali a immutabili forze attrattive e repulsive la cui intensità dipende solamente dalla distanza. La soluzione di questo problema è la condizione per una completa comprensibilità della natura.” (469)
E’ in ogni caso altrettanto vero che, proprio verso la fine del secolo, la crisi del sistema meccanicistico portava ad altre formulazioni o quanto meno alla messa in discussione della pretesa di voler spiegare tutto con la meccanica. Ma di questo ci occuperemo più oltre, nei paragrafi seguenti.
Passiamo ora, per singole discipline, a dare quel panorama di riferimento annunciato, ricordando solo che le cose qui elencate non hanno trovato posto in altre parti del lavoro.
Astronomia
Ormai l’astronomia si avvia pian piano a diventare astrofisica. (470) Nel corso del secolo verranno perfezionate le osservazioni del sistema solare e si estenderanno le osservazioni al di fuori di esso, si scopriranno vari astri e si costruiranno vari cataloghi di stelle che verranno suddivise, a seconda delle loro caratteristiche, in vari gruppi. Più in particolare, i fatti più significativi sono:
– la dimostrazione che i moti propri stellari riguardano tutte le stelle, fatta dall’italiane G. Piazzi (1746-1826) nel 1814;
– la scoperta del moto delle stelle doppie in orbite ellittiche intorno al baricentro comune, fatta dal tedesco (che lavorò in Gran Bretagna) W. Herschel (1738-1622) nel 1820;
– la determinazione delle posizioni, delle distanze, del colore e della grandezza di un gran numero di stelle doppie, fatta dal russo W. Struve (1793-1864) nel 1837;
– la prima determinazione della parallasse annua di una stella, fatta dal tedesco P.W. Bessel (1784-1846) nel 1838;
– la prima osservazione di una nebulosa a spirale, fatta dal britannico W.P. Rosse (1800-1867) nel 1845;
– la predizione dell’esistenza di Nettuno fatta studiando le perturbazioni di Urano, dal francese U.J.J. Le Verrier (l811-l877) e quindi la sua scoperta ad opera del tedesco F.J. Galle (1812-1910) nello stesso anno 1846;
– la dimostrazione della rotazione della Terra sul suo asse, fatta da L. Foucault nel 1851 con il sue famoso esperimento del pendolo;
– la fondazione della spettroscopia stellare fatta nel 1863 dall’italiano A. Secchi (1816-1878);
– la dimostrazione della struttura discontinua degli anelli di Saturno (già teorizzata da Maxwell nel 1859), fatta dallo statunitense J.C. Keeler (1857-1900) nel 1895.
Matematica
Questa scienza nel secolo in esame ebbe uno sviluppo possente. Si approfondirono e svilupparono campi già noti; inoltre si aprirono nuovi capitoli, alcuni dei quali di grande interesse ai fini degli sviluppi futuri della fisica. L’analisi acquistò la sua sistemazione quasi definitiva, passando dalla formulazione classica a quella moderna con la creazione della teoria degli insiemi, il riconoscimento dell’importanza della logica e, soprattutto, la trattazione rigorosa.
Notevolissimo impulso ebbe la teoria delle funzioni e delle equazioni differenziali; furono introdotte le equazioni integrali ed il calcolo funzionale; anche nei campi dell’algebra e della geometria si progredì molto ed in particolare nacquero la teoria dei gruppi, le geometrie non euclidee, la geometria algebrica, la geometria differenziale, il calcolo differenziale assoluto e la topologia. Fu inoltre dimostrata resistenza dei numeri trascendenti con notevoli conseguenze sul secolare problema della quadratura del cerchio. Infine anche il calcolo delle probabilità fece notevoli progressi.
Esula completamente dai miei scopi l’andare a discutere di questi problemi. Voglio solo ricordare alcuni dei nomi che maggiormente contribuirono agli eccezionali sviluppi della matematica cui abbiamo fatto cenno:
i tedeschi: Kummer, Kronecker, Schwartz, Jaoobi, Gauss, Hilbert, Bessel, Dirichlet, Riemann, Weierstrass, Cantor, Klein, Dedekind, Listing, Hankel, Frege;
i francesi: Laplace, Poisson, Legendre, Fourier, Liouville, Hermite, Cauchy, Sturm, Galois, Picard, Poincaré,Briquebon, Poncelet, Lamé, Lebesgue;
i britannici: De Morgan, Clifford, Bode;
gli italiani: Ruffini, Betti, Cremona, Volterra, Peano, Beltrami, Enriques, Dini, Castelnuovo, Ricci-Curbastro, Levi-Civita;
i norvegesi: Abel, Lee;
i russi: Lobacevskij, Tcebycheff, Minkowski (che studiò e lavorò in Germania);
l’irlandese: Hamilton;
il cecoslovacco: Bolzano;
lo svizzero Argand;
il rumeno: Bolyai.
Chimica
Dei pregressi della chimica, soprattutto di quella organica, abbiamo già parlato abbastanza nelle note del paragrafo precedente. Resta solo da aggiungere che quei progressi furono permessi dalla graduale sistemazione della chimica inorganica a partire dallo studio dei gas fino ad arrivare alla teoria della valenza ed alla tavola periodica degli elementi. Le tappe più importanti da ricordare sono:
1802 – il francese Gay-Lussac (1778-1850) estende la legge di Volta, relativa alla dilatazione termica dei gas, a tutti i gas;
1803 – il francese J.L. Proust (1761-1826) formula la legge delle proporzioni definite (mentre si trova a lavorare in Spagna!);
1808 – il britannico J. Dalton (1766-1844) avanza l’ipotesi atomica e stabilisce la legge delle proporzioni multiple;
1808 – Gay-Lussac formula la legge dei volumi dei gas;
1811 – l’italiano A. Avogadro (1766-1856) formula la legge che porta il suo nome (volumi uguali di gas, nelle stesse condizioni di temperatura e pressione, contengono lo stesso numero di grammomolecole);
1811 – Avogadro formula l’ipotesi che porta il suo nome e che permette di distinguere atomi da molecole (le molecole dei corpi semplici gassosi sono formate da atomi identici mentre le molecole dei corpi composti gassosi sono formate da atomi differenti); si osservi che si dovranno attendere circa 50 anni prima che questa ipotesi venga presa in considerazione, fatto quest’ultimo che permetterà enormi sviluppi nella chimica;
1815 – il britannico W. Prout (1785-1850) sostiene che i pesi atomici sono multipli interi di quello dell’idrogeno;
1826 – il britannico W.H. Fox Talbot (1800-1877) scopre che con l’analisi spettroscopica di sostanze incandescenti si può conoscere la loro composizione chimica;
1836 – lo svedese J.J. Berzelius (1779-1849) formula l’ipotesi che l’affinità chimica è dovuta alle cariche elettriche di segno contrario presenti nelle sostanze che reagiscono (altri importanti lavori di Berzelius avevano preceduto questo; le stesse leggi per la composizione chimica delle sostanze inorganiche valgono per le organiche; prima tabella dei pesi atomici; indicazione simbolica degli elementi con le loro iniziali latine);
1858 – l’italiano S. Cannizzaro (1826-1910) riprende l’ipotesi di Avogadro e suggerisce un metodo per la determinazione dei pesi atomici;
1869 – il russo S. Mendelejev (1834-1907) costruisce il sistema periodico degli elementi;
1874 – il francese A. Le Bel (1847-1937) e, indipendentemente, l’olandese J.H. Van’t Hoff (1852-1911 ) introducono le formule stereochimiche;
1876 – lo statunitense J.W. Gibbs (l839-1903) enuncia la regola delle fasi che permette di studiare l’equilibrio delle sostanze eterogenee su base matematica con stretti legami con la termodinamica;
1887 – lo svedese S. Arrhenius (1859-1927) fornisce una spiegazione della dissociazione elettrolitica in base all’ipotesi, già avanzata da Clausius nel 1857, dell’esistenza di ioni di segno contrario all’interno dell’elettrolito.
Meccanica
In questo campo si continua ancora a sistemare quanto trovato nei secoli precedenti puntando soprattutto a chiarire alcuni concetti (come quello di forza) ancora ritenuti oscuri. Un ruolo importante l’assume invece lo studio dei sistemi rotanti, con riguardo alle forze centrifughe ed ai moti relativi.
1829 – il francese D. Poisson (1781-1840) determina le equazioni generali del moto dei corpi;
1830 – il tedesco K.F. Gauss (1777-1855) enuncia il principio fondamentale della meccanica, detto principio del minimo sforzo;
1835 – il francese G.G. Coriolis (1792-1843) determina le condizioni per formulare l’equazione del moto relativo di un sistema di corpi stabilendo (l836), nel teorema che porta il sue nome, il ruolo della forza centrifuga;
1836 – l’irlandese W.R. Hamilton (l805-l865) ricava dalle equazioni di Lagrange le equazioni canoniche della dinamica o hamiltoniane;
1850 – il francese L. Foucault studia l’effetto della forza d’inerzia in un sistema in rapida rotazione».
Spettroscopia (nascita della fisica dei quanti).
E’ questo un campo nuovo che si apre in queste secolo, sulla scia della decomposizione dello spettro solare ottenuta da Newton con il prisma, e che avrà sviluppi formidabili fino alla prima formulazione dell’ipotesi dei quanti ad opera di Planck nel 1900. E tutto ciò discenderà da una felice intersezione con i metodi ed i risultati della termodinamica. Seguiamone le tappe principali:
1802 – il britannico W.H. Wollaston (1766-1828), osservando lo spettro solare prodotto da un prisma, scopre l’esistenza di sette righe scure distribuite in modo irregolare;
1814 – il tedesco J. Fraunbofer (1787-1826) osserva il fenomeno in modo più approfondito: conta 560 righe scure, scopre che una di queste righe (la D) coincide con la doppia riga gialla del sodio (Fraunhofer non sapeva ancora che quella doppia riga gialla era caratteristica del sodio: egli la otteneva osservando lo spettro prodotto da una candela, da una lampada ad elio e da una lampada ad alcool); (471) costruisce la prima carta dello spettro solare, scopre nello spettro di Venere alcune righe presenti nello spettro del Sole, introduce i reticoli di diffrazione con i quali realizza le prime determinazioni della lunghezza d’onda dei vari colori dello spettro;
1827-1855 – in questi anni si sommano diversi contributi ed in particolare: la scoperta della fotografia ad opera del francese J.P. Niepce (1765-1833); la scoperta dell’emissione di spettri da parte di solidi portati all’incandescenza, ad opera del britannico J.W. Draper (1811-1882);
1857 – il tedesco R.W. Bunsen (1811-1899) scopre che utilizzando il gas illuminante, installato nel suo laboratorio nel 1855, si ottiene una fiamma non molto luminosa ma ad alta temperatura e costruisce il becco Bunsen, con il quale si possono ottenere gli spettri dei soli corpi portati all’incandescenza senza interferenze da parte della fiamma che non ha un proprio colore specifico;
1859 – Kirchhoff e Bunsen gettano le basi della moderna spettroscopia, distinguendo con chiarezza la differenza esistente tra spettri di emissione e spettri di assorbimento: se sul becco si fa bruciare del sodio, lo spettro presenta due righe gialle che coincidono esattamente con le più brillanti delle linee oscure dello spettro del Sole (riga D); osservando poi lo spettro della luce solare lungo la cui traiettoria è interposto il becco con del sodio che brucia, non appare più la riga D nello spettro solare ed al suo posto vi sono le righe gialle del sodio; questo ultimo fenomeno si verifica solo quando la luce solare è molto attenuata, in caso contrario si continua a vedere la linea D; lo stesso fenomeno si può ottenere mantenendo costante l’intensità della luce solare e aumentando o diminuendo la temperatura della fiamma del becco. Da ciò Kirchhoff capì il significato dello spettro solare ed in particolare delle sue linee scure: la superficie del Sole emette radiazioni (fotosfera) di tutti i colori e l’atmosfera di gas incandescenti del Sole (cromosfera e corona), molto meno calda della fotosfera, assorbe una parte delle radiazioni emesse dal Sole, ed assorbe quelle che sono emesse dagli elementi componenti l’atmosfera solare. Come dice Kirchhoff: “le fiamme colorate nei cui spettri si presentano linee brillanti e marcate [spettro di emissione], indebolisce talmente i raggi del colore di queste linee quando passano attraverso di esse, che in luogo delle linee brillanti compaiono linee scure [spettro di assorbimento] quando si colloca dietro la fiamma una fonte di luce di sufficiente intensità e nel cui spettro mancano queste linee. Concludo quindi che le linee scure dello spettro solare, he non sono prodotte dall’ atmosfera terrestre, nascono dalla presenza nella infuocata atmosfera del Sole, di quelle sostanze che nello spettro di una fiamma presentano le linee brillanti nella stessa posizione.” (473) Ed in questo modo Kirchhoff e Bunsen riuscirono a stabilire la presenza sul Sole di alcuni elementi: confrontando le righe che compongono lo spettro solare con quelle, ottenute in laboratorio, per elementi noti (all’esistenza di un dato insieme di righe nello spettro corrisponde sempre la presenza di un dato elemento).
Altro fondamentale risultato ottenuto da Kirchhoff nello stesso anno è il cosiddetto principio di inversione secondo il quale una sostanza assorbe le stesse radiazioni che è in grado di emettere. (474)
Per portare avanti le loro ricerche i due ricercatori si servirono di uno spettroscopio, strumento da loro realizzato e costruito da K. A. von Steinheil (famoso costruttore di strumenti ottici) nel 1853. I risultati qui esposti possono essere considerati il fondamento dell’astrofisica e della fisica teorica. Da questo momento si iniziò lo studio sistematico degli spettri di varie stelle ed il risultato di queste osservazioni portò a riconoscere che tutti gli elementi in esse presenti sono gli stessi che conosciamo sulla Terra. /
Nello stesso anno Kirchhoff scoprì le proprietà del corpo nero. Dallo studio dei fenomeni ad esso connessi ne scaturì la scoperta della fisica dei quanti ad opera di Max Planck [nel sito vi è una ricostruzione dettagliata delle vicende che portarono ai lavori di Planck; ad esso rimando per approfondire la questione ed avverto che saltano qui le note 475 e 476].
1900 — Kelvin apre il nuovo secolo con un articolo che riassume bene tutte le difficoltà della fisica a quell’epoca, dal titolo significativo: Nubi del diciannovesimo secolo sulla teoria dinamica del calore e della luce. La prima nube è, secondo Kelvin, quella del moto relativo dell’etere e dei corpi ponderabili che, come abbiamo visto nel paragrafo 6 del capitolo 3, poneva difficoltà che sembravano insormontabili. Del diradarsi di questa nube ci occuperemo in seguito, basti per ora dire che il cielo si schiarì con la teoria della relatività di Einstein. La seconda nube e’ proprio relativa all’argomento irraggiamento di un corpo nero. Tutta la fisica classica era stata messa alla prova ed i risultati erano clamorosamente in disaccordo con l’esperienza. Dice Kelvin riportando parole di Rayleigh: “Siamo di fronte ad una difficoltà fondamentale, che non è semplicemente connessa alla teoria dei gas, quanto piuttosto alla dinamica generale. Ciò che sembrerebbe necessario è un qualche modo di sfuggire alla distruttiva semplicità della conclusione generale.” (476)
E tutti i fisici dell’epoca erano d’accordo con questa conclusione;
1900 – alla fine dell’anno Planck risolve la questione del corpo nero facendo l’ipotesi dei quanti
1905 – A. Einstein riprende l’ipotesi dei quanti calcolandosi la variazione di entropia di una trasformazione termodinamica che tratta la radiazione come un gas di oscillatori e che fa passare il volume della cavità del corpo nero da un valore V1 ad un valore V2, quando la pressione e’ mantenuta costante. Egli trova:
D S = f(n/T). 1/e . k . log (V2/V1)
dove f (n/T) è la solita funzione din/T ed e e = hn. Questa espressione risulta formalmente identica a quella che fornisce DS per un gas perfetto, formato da N particelle, che subisce la stessa trasformazione:
S = N. K . log (V2/V1)
da cui:
S2 – S1 = N. K . log V2 – N. K . log V1
che è ancora formalmente identica a quella trovata da Boltzmann:
S = K . log P.
L’analogia porta Einstein a concludere che la radiazione è costituita da corpuscoli (i quanti) di energia e = hn (è una euristica esigenza di simmetria che, per sua stessa ammissione, aveva mosso Einstein). A questo punto mediante la stessa ipotesi dei quanti, Einstein passa a dare una spiegazione di quello strano fenomeno, l’effetto fotoelettrico (477), scoperto dal tedesco H. Hertz nel 1877, e studiato dall’italiano A. Righi (1850-1920) nel 1888 e dal tedesco W. Hallwachs (1859-1922); nel far ciò Einstein implicitamente ammette che anche la propagazione dell’energia avvenga per quanti (fatto che radicalizza il contrasto con la teoria elettromagnetica della luce).
Ha inizio la fisica quantistica che negli anni seguenti avrà enormi sviluppi. Alcune sue formulazioni però, ed in particolare l’introduzione in essa della probabilità fatta da Born nel 1926, vedranno lo stesso Einstein molto critico verso questa branca della fisica che nel frattempo diventava sempre più autoritaria ed efficientista. (478)
Scarica nei gas
Anche questo è un nuovo campo di ricerca che si inaugura agli inizi dell’ultimo quarto di secolo. L’innesto dei risultati delle ricerche in questo settore con alcune conclusioni che si traevano dai fenomeni elettrolitici portò all’affermazione dell’esistenza di una struttura discontinua dell’elettricità, a prevedere e quindi a provare l’esistenza dell’elettrone, a misurarne carica e massa dando il via a quell’altro vasto campo di ricerca della fisica che riguarda la struttura atomica, molecolare e, quindi, della materia. Ripercorriamo, anche qui, alcune tappe di rilievo:
1833 – Faraday stabilisce le leggi dell’elettrolisi ricavando che, in questo fenomeno, “gli atomi dei corpi che sono equivalenti fra loro posseggono delle quantità uguali di elettricità, che sono loro associate per natura” (479) Pur non essendo un corpuscolarista, Faraday riesce a formulare una legge nella quale è implicito il concetto di quantità elementare di elettricità o elettrone. Ma Faraday non approfondirà la cosa;
1874 – l’irlandese G.J. Stoney (1861-1911), partendo dall’analisi delle leggi di Faraday per l’elettrolisi, postula l’esistenza di una quantità elementare di elettricità “indipendente dai corpi sui quali agisce” (480) ed in seguito (1891) darà a questa quantità elementare il nome di elettrone;
1879 – il britannico W. Crookes (1832-1921) produce una scarica elettrica in un tubo di vetro in cui aveva praticato un vuoto molto spinto (dell’ordine di un milionesimo di atmosfera). Da questa esperienza ricava l’esistenza di raggi emessi dal catodo costituiti, secondo la sua teoria, da molecole elettrizzate espulse dal catodo stesso (raggi catodici); (481)
1861 – anche il tedesco E. Riecke (1845-1915) sostiene la natura corpuscolare dei raggi catodici;
1881 – Helmholtz, studiando i fenomeni del l’elettrolisi, stabilisce la costanza e l’indivisibilità della carica elettrica degli ioni monovalenti, si convinse dell’esistenza di una carica elementare e la difende con molto impegno: “Se ammettiamo l’ipotesi che le sostanze elementari sono composte da atomi, non possiamo evitare di concludere che l’elettricità, sia positiva che negativa, è suddivisa in particelle elementari definite che si comportano come atomi di elettricità”; (482)
1883 – il tedesco H. Hertz (1857-1894), insieme al suo assistente P. Lenard, fece una serie di esperienze con le scariche nei gas rarefatti. In particolare osservò (1892) che i raggi catodici erano in grado di attraversare lamine metalliche sottili. Da ciò egli concluse che non poteva trattarsi di fenomeni corpuscolari e che, al contrario, i raggi catodici non sono altro che vibrazioni dell’etere, allo stesso modo della luce. Hertz convince con queste argomentazioni i ricercatori tedeschi: le ricerche in questo campo proseguiranno essenzialmente in Gran Bretagna;
1886 – il tedesco E. Goldstein (1850-1930), servendosi di un catodo perforato, scopre l’esistenza di raggi anodici, o positivi o canale o di Goldstein;
1890 – il tedesco A. Schuster (1851-1934) riesce a misurare il rapporto tra la carica e la massa delle ipotetiche particelle emesse dal catodo, osservandone la deviazione in un campo magnetico (il valore da lui trovato era molto lontano da quello oggi accettato, ma il metodo da lui introdotto si rivelò molto importante nel seguito); (483)
1892 – l’olandese H.A. Lorentz (l853-1928) elabora la sua teoria degli elettroni nella quale considera l’elettricità costituita da particelle dotate di carica e massa (del lavoro in cui Lorentz avanza questa teoria mi occuperò abbondantemente nei paragrafi seguenti, per la sua rilevanza ai fini della storia della relatività);
1894 – il britannico J.J. Thomson (1856-1940), usando di uno specchio ruotante, riesce a calcolare la velocità dei raggi catodici trovando un valore di circa 10.000 Km/sec, velocità molto più piccola di quella della luce ed enormemente più grande di quella delle molecole di un gas. Quindi, conclude Thomson, né Hertz né Crookes hanno ragione: non si tratta né di vibrazioni dell’etere né di molecole, ma di particelle d’altra natura e cariche negativamente;
1894 – P. Lenard dimostra che i raggi catodici possono uscire dal tubo di scarica, attraversando foglie sottili di alluminio come finestre e quindi diffondendosi nell’aria;
1895 – il tedesco W.C. Rontgen (1845-1923) scopre che, nelle vicinanze di un tubo di Crookes, le lastre fotografiche rimangono impressionate ed interpreta il fenomeno come originato da nuovi e misteriosi raggi provenienti dal tubo, che egli chiama raggi X;
1895 – il francese J. Perrin (1670-1941) dimostra che i raggi catodici sono costituiti da particelle cariche negativamente, gli elettroni;
1896 – Rontgen approfondisce lo studio dei raggi X scoprendo che essi sono generati da tutti i punti colpiti dai raggi catodici e che hanno la proprietà di scaricare i corpi elettrizzati;
1896 – il francese G. Gouy (1654-1926) scopre la rifrazione e la diffrazione dei raggi X;
1697 – J. J. Thomson dimostra che quando i raggi X passano attraverso un gas lo rendono conduttore di elettricità;
1697 – il tedesco K.F. Braun (1850-1918) dimostra che i raggi catodici sono deviati da un campo magnetico, ma anche da un campo elettrico e su questo principio costruisce un tubo (tubo di Braun), del tipo del video di un televisore. Sul fondo del tubo è cosparsa sostanza fluorescente sulla quale si produce una piccola scintillina quando è colpita da un raggio catodico;
1897 – il tedesco W. Wiechert (l86l-1928) fornisce un’altra determinazione del rapporto tra massa e carica dell’elettrone, dalla deviazione dei raggi catodici sotto l’influenza di un campo magnetico e dal confronto dei dati così ottenuti con quelli che erano stati ottenuti mediante elettrolisi; (484)
1897 – J.J. Thomson misura il rapporto e/m, tra carica e massa di un elettrone, trovando che esso vale 770 volte l’analogo rapporto per lo ione idrogeno;
1897 – il tedesco W. Kaufmann (1871-1947), usando il tubo di Braun, corregge in 1770 il valore trovato da Thomson. Per le sue misure Kaufman si basa sempre sulla deviazione dei raggi catodici mediante campo magnetico ma anche sulla differenza di potenziale tra gli elettrodi.
A questo punto comincia a porsi il problema: se e/m calcolato per l’elettrone è tanto più grande del Q/M dello ione, ciò dipende dal fatto che è molto più grande di Q o dal fatto che è molto più piccolo di M ? Proprio allora il britannico C.T.R. Wilson (1869-1959) costruì uno strumento che permetteva di visualizzare le tracce delle particelle cariche (camera di Wilson o camera a nebbia).
1899 – J.J. Thomson, utilizzando una camera di Wilson, scopre che la carica di uno ione gassoso è la stessa dello ione idrogeno da fenomeni elettrolitici ed è anche la stessa di quelle particelle che vengono emesse da una superficie metallica per effetto fotoelettrico. Thomson trasse la conclusione che la carica dell’elettrone doveva essere uguale a quella dello ione idrogeno (che oggi sappiamo essere un protone), e di conseguenza era la massa m dell’elettrone che doveva essere molto piccola rispetto a quella di questo ione. Il valore che Thomson trovò per m era più piccolo di circa 1700 volte del valore della massa dello ione idrogeno. Questo valore fu in seguito perfezionato da ulteriori misure e mediante strumenti sempre più perfezionati.
Scoperta l’esistenza di una carica negativa costituente la materia e dato per scontato che la materia è neutra, si cominciò a porre il problema delle cariche positive che, all’interno della stessa materia, avrebbero dovuto neutralizzare le negative.
Come era organizzato il tutto ?
Via via iniziarono le prime ipotesi sulla costituzione dell’atomo che da una parte usarono degli spettri atomici e dall’altro trovarono compimento con l’applicazione della fisica quantistica (e di quella relativistica) all’intero edificio atomico.
Ricerche diverse
Altra grande mole di ricerche e scoperte viene realizzata nel secolo. Si tratta essenzialmente di varie derivazioni dalle cose che abbiamo precedentemente visto ma anche di cose nuove che avranno notevoli sviluppi (come la scoperta della radioattività) o che creeranno enormi polemiche (come la formulazione della teoria evoluzionista). Elenco di seguito alcune tappe degne di interesse:
1836 – Faraday scopre che all’interno di una gabbia metallica non si risentono le azioni elettriche esterne (gabbia di Faraday);
1837 – il tedesco G. Oberhäuser (1798-1868) costruisce un microscopio che ingrandisce 500 volte;
1844 – il russo E. C. Lenz (1804-1865) scopre che la conducibilità elettrica dei fili metallici à inversamente proporzionale alla temperatura (questo fatto troverà una spiegazione compiuta solo nel nostro secolo con la formulazione della teoria quantistica delle bande di energia, teoria che si può trovare nel sito);
1844 – il britannico C Wheatstone (1802-1875) costruisce un dispositivo (ponte di Wheatstone) per la misura di resistenze);
1848 — il francese J. Palmer costruisce un calibro a vite micrometrica per misure di precisione (piccoli spessori e curvatura di lenti);
1851 – l’italiano M. Melloni (1798-1854) costruisce la pila termoelettrica, che funziona da termometro ad elevatissima sensibilità ed è in grado di rilevare anche a notevole distanza la presenza di una qualsiasi fonte di calore radiante;
1859 – il britannico C. Darwin (1809-1882) pubblica L’origine della specie affermando definitivamente la teoria evoluzionistica;
1865 – il britannico J.N. Lockyer (1836-1920) scopre nello spettro solare una riga non attribuibile a nessun elemento terrestre conosciuto. Egli denomina quell’elemento elio;
1880 – lo statunitense E.H. Hall (1855-1936) scopre una differenza di potenziale che si stabilisce nei punti opposti rispetto all’asse di un conduttore percorso da corrente quando è sottoposto all’azione di un campo magnetico costante (effetto Hall);
1884 – il britannico J.A. Fleming (1849-1945) formula la regola detta delle tre dita (della mano sinistra), che fornisce direzione e verso della forza elettromagnetica originata dall’azione di un campo magnetico su una corrente elettrica;
1889 – il britannico E. Rutherford (1871-1937) scopre della radiazione proveniente dall’uranio ed in essa individua due diverse specie di raggi (raggi a e raggi b) con differenti proprietà elettriche e di penetrazione;
1896 – il francese H. Becquerel (l852-1908) ottiene la deviazione dei raggi b mediante un campo elettrico e conclude che si tratta di particelle cariche. Scopre inoltre che alcuni sali di uranio riescono ad impressionare lastre fotografiche attraverso sostanze opache interposte e quindi ne ricava l’esistenza di un’altra specie di raggi (raggi g);
1896 – l’olandese P. Zeeman (1865-1943) scopre lo sdoppiamento delle righe spettrali emesse da un gas quando quest’ultimo è sottoposto all’azione di un intenso campo magnetico;
1898 – il francese P. Curie (1859-1906) dimostra che tutti i corpi ferromagnetici diventano paramagnetici al di sopra di una data temperatura (temperatura di Curie);
1900 – l’irlandese J. Larmor (1857-1942) enuncia il teorema sulla precessione delle orbite elettroniche nei campi magnetici.
Più in generale, altri aspetti che vanno sottolineati sono:
– un grande sviluppo delle tecniche da vuoto che permetteranno via via ricerche fisiche sempre più sofisticate;
– un grande sviluppo della fisica delle basse temperature (in connessione con le esigenze di refrigeramento delle derrate alimentari per e dalle colonie) che permetterà di raggiungere una conoscenza sempre più profonda della costituzione della materia e di sviluppare ampiamente la termodinamica;
– la costruzione di strumenti di misura sempre più sofisticati e precisi che saranno alla base di ogni ricerca e misura e che deriveranno dal sempre maggiore affinamento della tecnica.
NOTE
(465) Si veda quanto già detto nei paragrafi 3 e 5 del capitolo 2°.
(466) II giroscopio era stato inventato da L. Foucault nel 1852.
(467) Bibl. 16, Vol. II, pagg. 494-495.
(468) Bibl. 17, Vol. V, pag. 69.
(469) Bibl. 24, pag. 126.
(470) E nel frattempo (1882) la Chiesa, con Papa Pio VII, dopo quasi 300 anni, sanziona ufficialmente l’accettabilità del sistema copernicano. A questo proposito viene da pensare alla cosiddetta riabilitazione di Galileo da parte di Papa Giovanni Paolo II (1980). E Giordano Bruno ? E gli altri ? E poi: hi ha bisogno di essere riabilitato ? (a questo proposito vi sono vari articoli sul sito).
(471) Fraunhofer osservò poi che per diversi spettri la doppia riga gialla si trovava sempre “esattamente nello stesso posto” risultando “conseguentemente utilissima” come sistema di riferimento.
(472) Draper usava una fiamma brillante per portare all’incandescenza i corpi e per questo sosteneva che gli spettri delle sostanze solide fossero continui (era la fiamma brillante che originava lo spettro continuo). Occorrerà la fiamma di Bunsen, molto calda e poco luminosa, per avere spettri discontinui.
(473) Kirohhoff, Sulle righe di Fraunhofer, Monats. Akad. Wissens.; ott.1859, pag. 662. Riportato anche in bibl.89, pagg. 382-384.
(474) In una memoria di Kirchhoff e Bunsen del 1880 (Analisi chimica mediante osservazioni spettroscopiche, Poggendorf’s Annalen, vol. 110, pag. 161) si legge: “uno di noi ha mostrato, per mezzo di considerazioni teoriche, che lo spettro di un gas incandescente è invertito, cioè che le righe brillanti sono trasformate in righe nere quando una sorgente di luce, di intensità sufficiente, che dia uno spettro continuo, è posta dietro lo stesso. Da ciò possiamo concludere che lo spettro solare, con le sue righe nere, non è altro che l’inverso dello spettro che l’atmosfera del Sole stessa mostrerebbe. Quindi l’analisi chimica dell’atmosfera solare richiede solo l’esame di quelle sostanze le quali, quando siano poste in una fiamma, producono righe brillanti che coincidono con le righe nere dello spettro solare.” Citato in bibl. 54. pag. 78.
(476) Bibl. 100, pag. 838.
(477) Sull’ Effetto fotoelettrico si veda il mio articolo presente nel sito.
(478) Allo scopo si veda la seconda parte del testo di bibl. 57. Si veda anche la corrispondenza tra Einstein e Born riportata in bibl. 104.
(479) Bibl. 19, Voi. III, pag. 205.
(480) II calcolo che Stoney fa per la carica dell’elettrone gli fornisce un valore 20 volte più piccolo di quello oggi accettato.
(481) Le scariche nei gas rarefatti erano iniziate molto tempo prima. I britannici Watson (l75l) e Morgan (1785) avevano scaricato bottiglie di Leida in modesti vuoti. Davy (1822) aveva osservato, con esperienze analoghe, una luminosità verdognola. Faraday (l838), lavorando con vuoti più spinti, vede scariche più colorate e, in particolare, osserva uno spazio scuro che circonda il catodo. A pressione ancora più bassa il francese J.J.B. Abria (l811-l892) nel 1843 osserva la scarica dividersi in strati alternativamente chiari e scuri, Geissler (l857) costruisce una pompa per vuoti più spinti (a vapori di mercurio) e realizza un tubo di vetro chiuso, dentro cui sono fissati i due elettrodi. Plücker (1858), utilizzando tubi di Geissler, osservò la fluorescenza del vetro nella parte antistante al catodo e scoprì che un magnete è in grado di spostarla. Hittorf (1869) pone nel tubo di Geissler un oggetto tra anodo e catodo e dimostra, dall’ombra che la luce emessa dal catodo provoca nella zona antistante, che questa luce si propaga rettilineamente; egli scopre anche che i raggi emessi dal catodo sono calorifici e che, sottoposti ad un campo magnetico perpendicolare, essi acquistano una traiettoria elicoidale. Il britannico Karley (l87l) ipotizza, dalla deviazione che i raggi subiscono sotto l’azione di un campo magnetico, che essi sono costituiti da particelle cariche negativamente.
(482) Bibl. 19, Vol. IlI, pag. 231.
(483) II valore da lui trovato per q/a era 550 volte più grande del rapporto Q/M calcolato per lo ione idrogeno nei fenomeni elettrolitici, cioè q/m = 550 Q/M. Da quello che sappiamo oggi, anziché 550 occorre trovare circa 1840; infatti, poiché la carica dell’elettrone è uguale a quella del protone e poiché m è la massa dell’elettrone ed M è quella del nucleo d’idrogeno, cioè del protone, si ha: 1/m = 1840 .1/M => M = 1840 m, si trova cioè quel che sappiamo e che cioè la massa del protone è circa 1840 volte quella dell’elettrone.
(484) Se non si dispone di due misure indipendenti è impossibile misurare separatamente la carica e la massa dell’elettrone; quello che si può ottenere è solo il valore del rapporto della carica sulla massa e/m. Indicando, una volta per tutte, con e la carica dell’elettrone e con m la sua massa, il valore per e/m trovato da Wiechert (confronta con la nota 483) doveva essere tra le 2 000 e le 4 000 volte il rapporto Q/M per lo ione idrogeno trovato nei fenomeni elettrolitici.
(485) Quando uno ione attraversa un vapore soprasaturo, agisce da nucleo di condensazione per il vapore ed intorno ad esso si forma una minuscola gocciolina. Con questo strumento è quindi possibile seguire il cammino di una particella carica in un dato recipiente riempito di vapore soprasaturo (camera a nebbia).
7 – MECCANICISMO E CRISI DELLA MECCANICA.
– TENTATIVI DI COSTRUIRE UNA MECCANICA SU BASI DIFFERENTI (HERTZ).
– LA CRITICA DI MACH: L’EMPIRIOCRITICISMO
Alla fine dell’Ottocento, una quantità molto grande di fatti sperimentali e di elaborazioni teoriche portavano a concludere sull’insufficienza della meccanica che, così come si era affermata a partire da Newton, attraverso gli sviluppi della Meccanica Razionale ed Analitica soprattutto della scuola francese del XVIII secolo, non riusciva più a rendere conto compiutamente di quanto si andava via via scoprendo. E ciò risultava non dallo sviluppo di un solo campo della fisica ma, praticamente, da tutti.
Una breve ricapitolazione ci sarà utile.
Con l’affermarsi della teoria ondulatoria della luce, lo sviluppo dell’ottica dei corpi in movimento, almeno fino all’esperienza di Miehelson-Morley del 1887, tentava di ricondurre i vari fenomeni all’esistenza di un etere che assolveva il duplice compito di sostegno per le vibrazioni e di spazio assoluto cui riferire i fenomeni stessi.
Con i lavori di Maxwell-Hertz, l’ottica diventa un capitolo dell’elettromagnetismo ed i problemi dell’ottica dei corpi in movimento diventano i problemi dell’elettrodinamica dei corpi in movimento con un etere che si trova sempre a giocare un ruolo di primo piano. E quindi, in definitiva, i problemi sorgono essenzialmente dall’elettrodinamica dei corpi in movimento e più in particolare dalle proprietà e comportamento di quell’etere che, nonostante i numerosi tentativi, rifiuta di mostrarsi.
E questo per un verso.
D’altra parte, altri problemi nascono dagli sviluppi della termodinamica.
Cerchiamo di capire la natura di queste due classi di problemi in relazione ai postulati fondamentali della meccanica.
Per rendere conto dei fenomeni osservati l’elettrodinamica, come già visto, deve considerare: forze dipendenti da angoli, forze dipendenti da velocità, forze a contatto, la non invarianza delle equazioni di Maxwell per una trasformazione di Galileo, lunghezze che variano, tempi locali, messa in discussione del principio di azione e reazione e del principio di conservazione della quantità di moto, inosservabilità dello spazio assoluto, masse che variano a seconda del verso del moto. Certamente si va costruendo una fisica che via via rende conto dei fatti sperimentali, continuando a rincorrerli, ma, altrettanto certamente, questa fisica va via via negando le premesse dalle quali era nata. E ciò con la convinzione di star lavorando per la sua conservazione. Tutto quanto deve essere tenuto in conto dall’elettrodinamica costituisce un vero e proprio colpo di maglio ai concetti fondamentali della meccanica: lunghezze, masse, tempi, forze, spazio assoluto, principi di conservazione. Tolto questo, che resta della meccanica oltre la spiegazione dei fenomeni strettamente meccanici per cui la stessa era nata ? (662 bis) Ed il problema si pone con maggior forza proprio perché continua a persistere la volontà di voler spiegare tutto con la meccanica.
Per parte sua, quali contributi alla messa in discussione della meccanica vengono dalla termodinamica ?
La questione certamente più rilevante era posta dall’affermazione di irreversibilità di tutti i fenomeni naturali. Da una parte, con la teoria cinetica, si erano utilizzate le leggi perfettamente reversibili della meccanica, dall’altra la termodinamica, uno dei prodotti dell’elaborazione cinetico-molecolare, forniva dei risultati che avevano perso quella caratteristica di reversibilità. Inoltre, dovendo trattare sistemi composti da un enorme numero di costituenti, era stato necessario introdurre sistematicamente metodi statistici e probabilistici ed, in particolare, il concetto di stato più probabile. Gi si accorgeva sempre più che la trattazione di fenomeni microscopici richiedeva la formulazione di leggi diverse da quelle ricavate per i fenomeni macroscopici. E per di più, alcune delle conclusioni ricavate a livello microscopico, con quei metodi statistici che incontreranno molti oppositori, venivano estese ai fenomeni macroscopici. E’ il caso dell’introduzione della funzione entropia che veniva ad assumere significati del tutto assimilabili alla grandezza tempo, soprattutto dal punto di vista della sua unidirezionalità. Ma un altro aspetto del problema doveva presentarsi proprio all’alba del nuovo secolo, quando Planck, per rendere conto dei risultati sperimentali relativi all’irraggiamento di un corpo nero (si veda il paragrafo 2 di questo capitolo) e nell’ambito di una trattazione termodinamica del problema, è costretto ad ammettere la discontinuità dell’energia, la sua quantizzazione (si noti che Boltzmann già nel 1872 aveva utilizzato, come mero artificio di calcolo, la quantizzazione dell’energia facendo poi una successiva operazione – il limite per questi quanti tendenti a zero – che rendeva priva di importanza la prima operazione). In questo ambito, le stesse metodologie di lavoro utilizzate nella ricerca fisica sembrano subire un forte contraccolpo. L’uso delle analogie e soprattutto dei modelli meccanici a cosa servono in un mondo microscopico che ubbidisce a leggi differenti da quelle del mondo meccanico macroscopico ?
C’è insomma una grossa mole di problemi che vanno tutti nella direzione di rimettere in discussione i fondamenti ed i metodi della fisica affermatasi con Newton e sviluppatasi nell’ambito del meccanicismo.
L’insoddisfazione latente e molto spesso evidente cominciò a prendere corpo nella seconda metà del secolo XIX, inizialmente con dei tentativi di riformulazione della meccanica di Newton su basi differenti.
La questione che maggiormente faceva discutere e che sollevava critiche era il concetto di forza, la sua definizione, la sua esistenza, la sua essenza. A questo problema si aggiungeva quello della massa; cos’è e che rapporti ha con la materia ? e con la forza ? e la materia cos’è ? e cosi via.
Un primo tentativo di liberare la meccanica dalle forze fu realizzato dal fisico francese Barré de Saint-Venant (1797-1896) il quale, nei suoi Principi di Meccanica basati sulla Cinematica (Parigi, 1851), riprendendo alcune proposizioni di Lazare Carnot, sviluppate nel Saggio sulle macchine in generale (Parigi, 1763) e nei Principi fondamentali dell’equilibrio e del moto (Parigi, 1803) e dopo aver sostenuto che le forze sono una specie di intermediari occulti e metafisici che non intervengono né tra i dati né tra i risultati di un qualunque problema meccanico, definì la massa e la forza a partire dai concetti (da Saint-Venant ritenuti fondamentali e primitivi) di movimento, velocità ed accelerazione. Così egli scriveva: (662 ter)
” Masse – La massa di un corpo è il rapporto tra due numeri che esprimono quante volte questo corpo ed un altro corpo, scelto arbitrariamente e che rimane costantemente lo stesso, contengono parti che, separate e sottoposte due a due ad urti l’una contro l’altra, si comunicano, mediante l’urto, velocità opposte uguali.
Forze – La forza o l’attrazione positiva o negativa di un corpo su di un altro è un segmento che ha come grandezza il prodotto della massa di quest’ultimo [corpo] per l’accelerazione media dei suoi punti verso quelli del primo e come direzione quella di questa accelerazione.“
Quello che va sottolineato è che Saint-Venant, per primo ha una chiara coscienza del fatto che le definizioni di massa e forza sono strettamente legate tra loro e che, secondo Saint-Venant, è impossibile dare una definizione di forza se prima non si è definita con chiarezza ed univocamente la massa. E la definizione di massa che viene fornita, come si può vedere, è intanto indipendente da quell’equivoco che sempre l’aveva accompagnata: che c’entra la massa con la quantità di materia ? Qui la quantità di materia sparisce. Inoltre questa definizione di massa discende dalla conservazione della quantità di moto e, come vedremo, sarà una delle basi dell’elaborazione di Mach. Anche se Saint-Venant non portò a compimento il suo programma, il suo lavoro si concluse con l’auspicio che presto le qualità occulte come la forza spariscano dalla fisica per essere sostituite solo da velocità e sue variazioni.
Per parte sua e negli stessi anni, il fisico francese P. Reech (l805 -1874), nel suo Corso di Meccanica secondo la natura generalmente flessibile ed elastica dei corpi (Parigi, 1852), tentava, sulla traccia di Euler che tentò di fondare una dinamica sul concetto di forza anche se poi quest’ultima era definita solo staticamente, di dare la forza come concetto primitivo e cioè non come causa di movimento, ma
“effetto di una causa qualunque, chiamata pressione o trazione e che noi apprezziamo con estrema chiarezza in un filo teso, supposto privo della sua qualità materiale o massa.” (663)
Come si può osservare da questo breve passo, anche per Reech la sola possibile definizione di forza è di natura statica: l’allungamento di un filo o di una molla. Il confronto degli allungamenti può permettere il confronto tra forze. Si tratta di una prima definizione operativa che si scontra però con la sua estensione al caso dinamico. E non a caso Reech definiva come entità misteriose proprio quelle forze di tipo dinamico come le gravitazionali o le elettriche e magnetiche.
Sulla strada invece di eliminare dalla meccanica il concetto di forza si muoveva anche il fisico tedesco G.B. Kirchhoff. Nelle sue Lezioni di matematica, fisica e meccanica (Lipsia, 1874-1876), egli tentò di costruire una dinamica in cui i concetti di forza e massa fossero derivati dai concetti primitivi ed intuitivi di spazio, tempo e materia. (664) Secondo Kirchhoff, la meccanica deve limitarsi a descrivere i movimenti disinteressandosi delle loro cause. Considerando la massa (concetto primitivo) come un coefficiente costante di una data particella, la forza risulta definita come il prodotto della massa per l’accelerazione. E poiché in meccanica non abbiamo mai a che fare con una forza, ma sempre con sistemi di forze che hanno come effetto il moto, noi, dallo studio di questo moto, non possiamo risalire al sistema di forze, ma solo alla loro risultante. Per questo la definizione di forza non può che essere incompleta.
Su questi argomenti intervenne anche il fisiologo tedesco E. Du Boys-Reymond (1818-1896). (665) In due opuscoli, I confini della conoscenza della natura (Lipsia, 1872) ed I sette enigmi del mondo (Berlino, l880), riprendendo alcune posizioni del filosofo positivista britannico H. Spencer (1820-1903), (667) egli sostenne che i metodi della Meccanica, arrivata al suo culmine con Laplace, ci rendono impossibile andare ad una conoscenza completa della natura. In particolare quella Meccanica, che Du Boys-Reymond considera come cosa distinta dal meccanicismo, non è in grado di darci informazioni sulla natura della materia e della forza. Inoltre, nell’ipotesi di un mondo corpuscolare regolato dagli urti delle particelle, ci è impossibile riuscire a cogliere l’inizio del moto. E poi, come è possibile render conto di forze agenti a distanza nel vuoto ? Esse sono addirittura inconcepibili. Scriveva Du Boys-Reymond: (668)
“E’ facile scoprire l’origine di queste contraddizioni. Esse sono radicate nell’impossibilità, per noi, di rappresentarci qualcosa che non sia sperimentato con i nostri sensi o con il senso interno.”
Ecco quindi che inizia a porsi, da parte di scienziati, il problema del nostro rapporto con la natura ed in particolare di come esso sia condizionato dai nostri sensi.
Anche Hertz, come già accennato, tentò,sulle orme di Kirchhoff, di costruire una meccanica che prescindesse dal concetto di forza. La critica qui va più a fondo perché, pur non negandoli completamente, coinvolge l’uso dei modelli meccanici nella spiegazione fisica. E’ un complesso tentativo di assiomatizzazione quello che condusse Hertz nei suoi Principi della Meccanica (Lipsia, 1894). A proposito del concetto di forza, scriveva Hertz: (669)
” Non si può negare che in moltissimi casi le forze che si usano nella meccanica per trattare problemi fisici sono soltanto dei partner sonnecchianti, che sono ben lungi dall’ intervenire quando devono essere rappresentati i fatti reali.”
Certo che il concetto di forza è stato utile nel passato, ma ora, riguardo all’introduzione di relazioni non strettamente necessarie
“tutto ciò che possiamo chiedere è che queste relazioni dovrebbero, finché è possibile, essere limitate, e che una saggia discrezione dovrebbe essere osservata nel loro uso. Ma è stata la fisica sempre parca nell’uso di tali relazioni ? Non è stata essa costretta piuttosto a riempire il mondo all’eccesso con forze dei più vari tipi – con forze che non sono mai apparse nei fenomeni, o anche con forze che sono entrate in azione solo in casi eccezionali ?” (669)
L’esempio che viene portato è quello di un pezzo di ferro su di un tavolo. Esso è immobile. Quale fisico riuscirebbe a convincere il prossimo che quello stato di riposo è dovuto ad una infinità di forze che si fanno equilibrio ? Hertz può cosi continuare: (669)
“E’ dubbio se le complicazioni possano essere evitate del tutto; ma non vi è dubbio che un sistema di meccanica che le evita o le esclude è più semplice, ed in questo senso più adeguato, di quello qui considerato; quest’ultimo infatti non solo consente tali concezioni, ma addirittura ce le impone con la forza.”
Come la forza anche l’energia potenziale pone dei problemi. Se infatti noi ci proponiamo che
“nelle ipotesi dei problemi entrino soltanto caratteristiche che sono accessibili direttamente all’esperienza … , senza assumere una considerazione preventiva della meccanica, dobbiamo specificare con quali semplici, dirette esperienze proponiamo di definire la presenza di una quantità di energia, e la determinazione del suo ammontare.” (669)
Ora, ciò vuol dire che l’energia deve essere intesa come una qualche sostanza e
“l’ammontare di una sostanza è di necessità una quantità positiva; ma noi non esitiamo mai ad assumere che l’energia potenziale contenuta in un sistema sia negativa.” (670)
Per Hertz, in definitiva, tutte queste incongruenze portano alla necessità di sviluppare la meccanica “in una forma logicamente ineccepibile”, basandola sui tre concetti fondamentali di tempo, massa e spazio. (671) Ma, attenzione, noi non possiamo che avere un’immagine parziale dei fenomeni; noi introduciamo, secondo Hertz, forze ed energie per rendere conto di un qualcosa che, nascosto ai nostri sensi, opera sui fenomeni stessi. Ma poi, quando dobbiamo descrivere quel qualcosa, è conveniente ricorrere proprio a ciò che cade sotto i nostri sensi e cioè movimenti e masse. Ebbene, ciò lo facciamo per un principio di comodità; diamo dei nomi, ai quali non corrisponde alcuna realtà fisica, a ciò che in realtà non conosciamo, a ciò che ci è nascosto. La nostra meccanica può essere costruita considerando movimenti e masse nascoste, anziché forze ed energie non necessarie, oltre, naturalmente, ai movimenti ed alle masse evidenti. (672) Scriveva Hertz: (673)
“Se cerchiamo di comprendere i movimenti dei corpi che ci circondano e di riportarli a delle regole semplici e chiare, ma nel considerare solo ciò che ci cade direttamente sotto gli occhi, in generale le nostre ricerche si arenano … Se vogliamo ottenere un’immagine del mondo chiusa su se stessa, sottomessa a delle leggi, dobbiamo, dietro le cose che vediamo, ipotizzare altre cose invisibili e cercare, dietro la barriera dei nostri sensi, degli attori nascosti.“
E la forza e l’energia possono proprio essere intese in questo senso, a patto di descriverle come masse e movimenti: (673)
“Noi siamo liberi d’ammettere che ciò che è nascosto non è altro che movimento e massa, non differenti dalle masse e dai movimenti visibili ed aventi solamente non altre relazioni con noi che il nostro modo abituale di percepire … Ciò che siamo abituati a designare con i nomi di forza e di energia si riduce allora ad una azione di massa e di movimento; ma non è necessario che questa sia sempre l’azione di una massa o di un movimento percepibile da parte dei sensi materiali.“
L’intera meccanica di Hertz è basata su di un principio fondamentale:
“Un sistema libero è in riposo e descrive in modo uniforme una traiettoria che e’ il cammino più breve [cioè quello che ha una curvatura minore e cioè una geodetica],”
Ora ogni sistema che ci offre la natura è un sistema libero. Ma vi sono anche dei sistemi che sembrano liberi sui quali, in realtà, agiscono delle masse nascoste e dei moti altrettanto nascosti. Più in generale si può dire che un sistema libero è un insieme di sistema nascosto e sistema visibile. E non ci si stupisca di masse o movimenti nascosti. L’etere, di grande attualità all’epoca di Hertz è proprio una massa nascosta. Inoltre, quando si parla di moti vibratori delle particelle costituenti la materia, stiamo in realtà parlando di movimenti nascosti.
La forza in tutto ciò non compare come entità fisica; essa potrà tuttalpiù figurare come utile strumento matematico e ciò potrà accadere quando si ha la decomposizione di un sistema libero in due parti: bisognerà allora considerare l’azione di una delle parti sull’altra e viceversa.
Da questo punto, per mezzo di un processo puramente induttivo è possibile ricavarsi l’intera meccanica.
In definitiva, un dato sistema che cade sotto i nostri sensi è sempre una parte di un sistema isolato di cui l’altra parte è nascosta. Tramite la teoria dei vincoli è possibile scrivere le equazioni del moto del nostro sistema osservabile. Ciò che in ultima analisi è poi richiesto è l’accordo con l’esperienza; in caso contrario, nell’impostazione del problema, non si è tenuto conto di altri movimenti ed altre masse nascoste. Le masse ed i moti nascosti, intesi come vincoli, sono un ottimo strumento teorico per elaborare l’intera meccanica.
Abbiamo fin qui accennato ad alcuni tentativi e lavori che cercavano di rifondare la meccanica newtoniana su basi differenti. Ma il rappresentante più noto e più influente di questo movimento di pensiero fu senza dubbio il fisico-fisiologo-filosofo austriaco E. Mach (1838-1916) sul quale occorre soffermarsi un poco.
Il nostro, laureatosi in fisica a Vienna nel 1860, iniziò degli studi di fisiologia e nel 1863 pubblicò un primo lavoro, Compendio di fisica per medici, nel quale mostrò di essere un convinto meccanicista: tutte le scienze, come anche la fisiologia, non sono altro che meccanica applicata. Ma fu proprio la fisiologia che poco a poco scosse dalle fondamenta la sua fede meccanicista. La questione, così come si poneva all’inizio, era: come nella fisiologia molte difficoltà sorgono perché si vuole spiegare tutto con la fisica, allo stesso modo, nella fisica le difficoltà nascono perché si vuole spiegare tutto con la meccanica.
Mach diede primo corpo alle sue idee nella sua opera principale, La Meccanica nel suo sviluppo storico critico, che vide la luce, in prima edizione, nel 1883. (674) In questo lavoro Mach ricostruiva la storia della Meccanica a partire dalle origini. La sua non era una semplice storia ma, come annuncia il titolo dell’opera, una vera e propria critica dei fondamenti della meccanica, al modo in cui sono stati formulati e si sono affermati. L’interesse principale dell’opera di Mach è che questa critica della meccanica si afferma dall’interno del mondo della fisica e la tesi di fondo su cui il lavoro è imperniato è che, nel passato, la meccanica ha svolto un ruolo fondamentale, mentre ora risulta un freno che tende a limitare la grande mole dei diversi fatti empirici.
Senza voler entrare in un’analisi che abbia una qualche pretesa di completezza, veniamo a quanto sostenuto da Mach nella sua Meccanica in relazione ad alcuni concetti fondamentali della meccanica: massa, principio di azione e reazione, spazio, tempo e movimento.
Cominciamo dalla massa e dal principio di azione e reazione. Scriveva Mach: (675)
“Per quanto riguarda il concetto di massa, osserviamo che la formulazione data da Newton è infelice. Egli dice che la massa è la quantità di materia di un corpo misurata dal prodotto del suo volume per la densità. Il circolo vizioso è evidente. La densità infatti non può essere definita se non come la massa dell’unità di volume.”
Non si può evidentemente definire una grandezza mediante un’altra grandezza non definita e cosi la massa risulta priva di una definizione. Questa difficoltà ne comporta delle altre particolarmente in connessione al principio di azione e reazione. Infatti, come scriveva Mach, (676)
“Poiché Newton ha definito come misura della forza la quantità di moto acquisita nell’unità di tempo (massa per accelerazione), ne segue che corpi agenti l’uno sull’altro si comunicano in tempi uguali quantità di moto uguali ed opposte, ossia si comunicano velocità opposte inversamente proporzionali alle loro masse.”
Se mettiamo ora in relazione quanto qui detto con ciò che Mach aveva osservato a proposito del concetto di massa arriviamo, con Mach, ad affermare: (677)
“L’oscurità del concetto di massa si fa evidente quando si applica in dinamica il principio di azione e reazione. Pressione e contropressione possono essere uguali, ma come sappiamo che pressioni uguali producono velocità inversamente proporzionali alle masse ? … [Infatti] i due distinti enunciati con cui Newton ha formulato il concetto di massa ed il principio di reazione dipendono l’uno dall’altro, cioè l’uno suppone l’altro.”
A questo punto Mach passava a formulare il concetto di massa ed il principio di azione e reazione in un modo che rappresentasse un superamento delle difficoltà accennate: (678)
“Dato che esperienze meccaniche ci informano dell’esistenza nei corpi di una particolare caratteristica che determina l’accelerazione, niente impedisce di formulare in via ipotetica la seguente definizione: Diciamo corpi di massa uguale quelli che, agendo l’uno sull’altro, si comunicano accelerazioni uguali ed opposte. Con ciò non facciamo altro che designare una relazione fattuale … Se scegliamo il corpo A come unità di misura, attribuiremo la massa m a quel corpo che imprime ad A un’accelerazione pari a m volte l’accelerazione che esso riceve da A. Il rapporto delle masse è il rapporto inverso delle accelerazioni preso con segno negativo … Il nostro concetto di massa non deriva da alcuna teoria. Esso contiene soltanto la precisa determinazione, designazione e definizione di un fatto. La quantità di materia è del tutto inutile.”
Definita così la massa, cosa resta del principio di azione e reazione ?
“II concetto di massa che noi proponiamo rende inutile una formulazione distinta del principio di azione e reazione. Nel concetto di massa e nel principio di azione e reazione … viene enunciato due volte lo stesso fatto; cosa evidentemente superflua. Nella nostra definizione, dicendo che due masse 1 e 2 agiscono l’una sull’altra, si è già detto che esse si comunicano accelerazioni opposte che stanno tra loro nel rapporto 2:1.” (679)
A proposito quindi della massa, la cui definizione – secondo Mach – sottende quella del principio di azione e reazione, il nostro autore poteva così concludere: (680)
“Resi attenti dall’esperienza, abbiamo scoperto che esiste nei corpi una particolare caratteristica determinante accelerazione. Con il riconoscimento e la designazione non equivoca di questo fatto, la nostra opera è compiuta. Non andiamo oltre questa designazione, perché qualsiasi aggiunta causerebbe solo oscurità. Ogni incertezza scompare quando si sia capito che nel concetto di massa non è contenuta una teoria, ma una esperienza.”
Prima di andare oltre nella ricostruzione della critica di Mach, sono importanti alcune osservazioni. Innanzitutto (680 bis) è da negare l’ultima affermazione di Mach? all’interno della definizione di massa che egli ci fornisce (rapporto delle masse come rapporto inverso delle accelerazioni, cambiato di segno) c’è una teoria e, pare incredibile, proprio la seconda legge di Newton (oltre alla prima legge della dinamica). Nessuno ci autorizza infatti a sostenere, basandoci sulla sola osservazione, che due componenti di un dato sistema si muovano sotto la sola influenza delle loro azioni mutue. Affermare ciò prevede l’applicazione della teoria di Newton nel caso di un sistema isolato. Inoltre quella stessa definizione di massa è almeno soggetta ad un’altra critica, si badi bene, all’interno degli stessi ragionamenti svolti da Mach. Come vedremo più oltre una delle polemiche più accese di Mach sarà contro lo spazio assoluto di Newton e conseguentemente contro il moto assoluto. Ebbene, Mach non si preoccupa di estendere la validità della sua definizione né di verificarla in un riferimento diverso, sia esso dotato di moto rettilineo uniforme sia di moto accelerato. E poi, che definizione è la sua ? Non è piuttosto un metodo di misura ? Ed ancora che fine fa il principio di azione e reazione nella statica, dove non compaiono accelerazioni ? In definitiva, con Bunge, si può sostenere che qui Mach fa molta confusione: per rincorrere il fantasma dell’esperimento confonde una uguaglianza (rapporto tra masse = – rapporto inverso tra accelerazioni) con una identità ed assegna quindi lo stesso significato al primo ed al secondo membro, utilizzando il tutto come definizione (c’è una uguaglianza numerica non logica: inoltre il voler considerare la seconda legge come una mera convenzione è di nuovo errato perché, se tale fosse, sarebbe sempre vera ed invece, sperimentalmente, non lo è; infine la definizione stessa in senso stretto ha un limite di validità molto limitato come Bunge mostra nel suo lavoro. (680 bis)
Ma veniamo ora alla critica di Mach ai concetti di spazio, tempo e movimento.
Dopo aver ricordato i brani in cui Newton definiva queste grandezze all’interno dei suoi Principia, (681) Mach commentava: (682)
“Leggendo questi passi si ha l’impressione che Newton sia ancora sotto l’influenza della filosofia medioevale, e non abbia mantenuto il proposito di attenersi al fattuale. Dire che una cosa A muta con il tempo significa semplicemente dire che gli stati di una cosa A dipendono dagli stati di un’altra cosa B. Le oscillazioni di un pendolo avvengono nel tempo, in quanto la sua escursione dipende dalla posizione della Terra. Dato però che non è necessario prendere in considerazione questa dipendenza, e possiamo riferire il pendolo a qualsiasi altra cosa (i cui stati naturalmente dipendono dalla posizione della Terra), si crea l’impressione errata che tutte queste cose siano inessenziali. Sì, nell’osservazione del moto pendolare possiamo astrarre da tutti i corpi esterni e scoprire che a ciascuna posizione del pendolo corrispondono nostre sensazioni e pensieri diversi. Il tempo ci appare allora come qualcosa a sé stante, dallo scorrere del quale dipende la posizione del pendolo, mentre i corpi che prima avevamo liberamente preso per riferimento sembrano perdere ogni importanza. Ma non dobbiamo dimenticare che tutte le cose sono in dipendenza reciproca e che noi stessi, con i nostri pensieri, siamo solo una parte della natura. Non siamo in grado di misurare i mutamenti delle cose rapportandoli al tempo. Al contrario il tempo è una astrazione, alla quale arriviamo proprio attraverso la constatazione del mutamento, grazie al fatto che per la dipendenza reciproca delle cose non siamo costretti a servirci di una determinata misura.“
Con questa critica del tempo com’è allora possibile definire il moto ed, in particolare, quello uniforme (spazi uguali in tempi uguali) ? Scriverà Mach: (683)
“ Chiamiamo uniforme quel moto nel quale incrementi uguali di spazio corrispondono ad incrementi uguali di spazio in un moto di riferimento (la rotazione della Terra). Un moto può essere uniforme solo in rapporto ad un altro. Il problema se un moto sia uniforme in sé è privo di significato.”
Ritornando al tempo, dopo questa definizione di moto uniforme, Mach poteva affermare: (684)
“Allo stesso modo non si può parlare di tempo assoluto (indipendente da ogni mutamento). Infatti questo tempo assoluto non può essere commisurato ad alcun moto, e perciò non ha valore né pratico, né scientifico. Nessuno può pretendere di sapere alcunché al riguardo di esso. E’ dunque un inutile concetto metafisico (685) … Ogni oscurità metafisica svanisce quando ci rendiamo conto che la scienza si propone solo di scoprire la mutua dipendenza dei fenomeni.”
Quanto qui sostenuto rappresenta la completa relativizzazione di ogni processo naturale ed è a questo punto che Mach si sofferma un istante a considerare il ruolo della storia delle scienze, che egli considera importante e scientifico nello stesso momento in cui la storia serve a liberare la scienza stessa dai pregiudizi e dalle ipostatizzazioni. (686)
Quindi Mach passa a sottoporre a critica i concetti di spazio e moto assoluti riprendendo, tra l’altro, l’esperimento e l’interpretazione che lo stesso Newton dà della secchia ruotante. Dopo aver ricordato i brani in cui Newton, sempre nei Principia, definisce i concetti in esame e descrive l’esperimento della secchia, (687) Mach passava a ribadire le sue concezioni sulla relatività di tutti i fenomeni fisici e quindi ad esporre la sua critica: (688)
“Se in un sistema di corpi distribuiti nello spazio si trovano masse che si muovono con velocità diverse ed in condizione di poter entrare in rapporto reciproco, allora si verificano delle forze. Quanto grandi siano queste forze, può essere stabilito se si conoscono le velocità, alle quali ogni massa può essere portata. Anche le masse in quiete sono forze, se non tutte le masse sono in quiete … Tutte le masse, tutte le velocità, quindi tutte le forze sono relative. Non esiste differenza tra relativo ed assoluto, che noi riusciamo a cogliere con i sensi. D’altra parte non c’è ragione che ci costringa ad ammettere questa differenza, dato che l’ammissione non ci porta vantaggio né teorico né di altro ordine. Gli autori moderni che si lasciano convincere dall’argomento newtoniano del vaso d’acqua a distinguere tra moto assoluto e moto relativo, non si rendono conto che … la teoria tolemaica e quella copernicana sono soltanto interpretazioni, ed entrambe ugualmente valide. Si cerchi di tener fermo il vaso newtoniano, di far ruotare il cielo delle stelle e di verificare l’assenza delle forze centrifughe.”
E’ importante a questo punto andarsi a rileggere l’argomento di Newton nel paragrafo 1 del capitolo 1 di questo lavoro, in modo da poter seguire meglio le critiche di Mach: (689)
“Consideriamo i fatti sui quali Newton ha creduto di fondare solidamente la distinzione tra moto assoluto e moto relativo. Se la Terra si muove con moto rotatorio assoluto attorno al suo asse, forze centrifughe si manifestano su di essa, il globo terrestre si appiattisce, il piano del pendolo di Foucault ruota ecc. Tutti questi fenomeni scompaiono, se la Terra è in quiete, e i corpi celesti si muovono intorno ad essa di moto assoluto, in modo che si verifichi ugualmente una rotazione relativa. Rispondo che le cose stanno così solo se si accetta fin dall’inizio l’idea di uno spazio assoluto. Se invece si resta sul terreno dei fatti, non si conosce altro che spazi e moti relativi … Non possiamo dire come sarebbero le cose se la Terra non girasse … I principi fondamentali della meccanica possono essere formulati in modo che anche per i moti rotatori relativi risultino presenti forze centrifughe. L’esperimento newtoniano del vaso pieno d’acqua sottoposto a moto rotatorio c’insegna solo che la rotazione relativa dell’acqua rispetto alle pareti del vaso non produce forze centrifughe percettibili, ma che tali forze sono prodotte dal moto rotatorio relativo alla massa della Terra e agli altri corpi celesti. Non ci insegna nulla di più. Nessuno può dire quale sarebbe l’esito dell’esperimento in senso qualitativo e quantitativo, se le pareti del vaso divenissero sempre più massicce, fino ad uno spessore di qualche miglio. Davanti a noi sta quell’unico fatto.“
Anche ora quindi si ha a che fare solo con moti relativi; è la stessa cosa pensare la Terra in quiete e le stelle fisse in rotazione, oppure la Terra in rotazione intorno al proprio asse e le stelle fisse in quiete. Nel primo caso però non v’è più appiattimento della Terra ai poli ed il pendolo di Foucault non oscilla più allo stesso modo. La difficoltà nasce da corme è stata definita la legge d’inerzia che va formulata in altro modo. Come si può vedere la tesi di fondo è molto simile a quella di Berkeley, anche se Mach, con il suo richiamarsi alle stesse fisse, non cade nell’agnosticismo del filosofo statunitense. (690) Per Mach l’esperimento di Newton ha il solo difetto di essere incompleto; manca la parte che vede il secchio fisso e le stelle fisse messe in rotazione. Il nostro ritiene che Newton non avesse bisogno di introdurre lo spazio assoluto che poi dopo non usa nella sua meccanica. Inoltre, con Berkeley, nel ragionamento di Newton occorre introdurre prima uno spazio assoluto per poi riferire il moto di rotazione ad esso. Qui in realtà Mach non coglie la necessità che aveva Newton di quello spazio che, di fatto, entra nella sua meccanica; il problema era quello di distinguere le forze vere da quelle apparenti e Newton credeva di poterlo fare attraverso la distinzione dei moti relativi da quelli assoluti. Per Mach è conseguentemente inutile introdurre fantasticherie quando è possibile rifarsi ai soli fenomeni. Ed è inoltre inutile, o meglio antieconomico, introdurre strane entità. Per rendere conto dei fenomeni basta osservare che: (691)
“Le leggi newtoniane sui moti dei pianeti restano conformi alla legge d’inerzia anche se questi moti sono riferiti al cielo delle stelle fisse … Constatiamo ancora una volta che il riferimento ad uno spazio assoluto non è per nulla necessario.”
Come dicevamo, è il principio d’inerzia che va riformulato: un dato corpo K, in quiete o in moto, lo sarà ora non rispetto ad un illusorio spazio assoluto, ma rispetto ai corpi costituenti l’universo e cioè le stelle fisse. Inoltre la stessa inerzia del nostro corpo esiste solo in virtù del fatto che vi è altra materia nell’universo. (692)
Il riferire i moti alle stelle fisse era già presente in Newton ma egli preferì non affidare la sua meccanica ad un qualcosa che poteva avere il carattere del provvisorio: (693) per questo introdusse lo spazio assoluto. Ma Mach osservava che bisogna rifarsi al fattuale e per ora di spazio assoluto non vi è necessità, mentre disponiamo delle stelle fisse. Con l’avvertenza che: (694)
“fino a che punto l’ipotesi delle stelle fisse possa valere anche in futuro, resta naturalmente da stabilire.”
Insomma la meccanica è nata in un determinato contesto in cui sarebbe stato possibile, secondo Mach, utilizzare criteri antieconomici. Oggi è necessario prendere atto che molte delle affermazioni del passato debbono essere riviste. Gli stessi fondamenti della meccanica, nella visione di Poincaré accettata da Mach, non sono altro che delle “convenzioni che avrebbero potuto essere diverse.“
Del resto, secondo Mach,
” Tutta la scienza ha lo scopo di sostituire, ossia di economizzare esperienze mediante la riproduzione e l’anticipazione di fatti nel pensiero. Queste riproduzioni sono più maneggevoli dell’esperienza diretta e sotto certi rispetti la sostituiscono. Non occorrono riflessioni molto profonde per rendersi conto che la funzione economica della scienza coincide con la sua stessa essenza … Non riproduciamo mai i fatti nella loro completezza, ma solo in quei loro aspetti che sono importanti per noi, in vista di uno scopo nato direttamente o indirettamente da un interesse pratico.” (695)
Ma allora, si potrebbe obiettare, come mai, proprio nelle parole dello stesso Mach, una volta la scienza poteva essere antieconomica ? Una possibile risposta sembra adombrare quanto viene più o meno decisamente negato da molti fisici ed epistemologi del nostro tempo (e non solo): La scienza è determinata dal modo di produzione e, nell’epoca di Mach, in connessione con un enorme sviluppo economico (l’età dell’imperialismo), alla scienza si richiede proprio economicità, efficienza. (696) Questo concetto è ben espresso dallo stesso Mach nelle ultime pagine della sua Meccanica: (697)
“La divisione del lavoro, la specializzazione di un ricercatore in un piccolo dominio, l’esplorazione di questo dominio perseguita come compito di tutta una vita sono condizioni necessarie per un fruttuoso progresso scientifico.” (698)
Ritornando alla concezioni di Mach sulla meccanica ed in particolare ai rapporti di essa con la fisica, il nostro arriva alla conclusione che, in questo contesto di economicità della scienza, occorre smetterla di voler interpretare tutto con la meccanica:
“Non esistono fenomeni puramente meccanici. Quando delle masse si comunicano accelerazioni reciproche, in apparenza vi è solo un fenomeno di moto, ma in realtà a questo moto sono legate variazioni termiche, magnetiche ed elettriche che, nella misura in cui si producono, modificano quel fenomeno … Volendo parlare con precisione, ogni fenomeno appartiene a tutti i domini della fisica, che sono distinti l’uno dall’altro per ragioni convenzionali, per ragioni fisiologiche o anche per ragioni storiche.
La concezione secondo cui la meccanica è il fondamento di tutte le altre parti della fisica, e perciò tutti i fenomeni fisici devono essere spiegati meccanicamente, è per noi un pregiudizio. La conoscenza più antica in ordine di tempo non deve necessariamente restare il fondamento dell’intelligibilità di ciò che è scoperto più tardi … Dobbiamo limitarci all’espressione del fattuale senza costruire ipotesi su ciò che sta al di là di questo, e non può essere conosciuto e verificato …
Le ipotesi meccaniciste non costituiscono un effettivo risparmio di concetti scientifici … Quando un’ipotesi ha facilitato per quanto è possibile, l’acquisizione di fatti nuovi sostituendo ad essi idee già familiari, ha esaurito la sua funzione. E’ un errore credere che le ipotesi possano spiegare i fatti meglio di quanto facciano i fatti stessi.” (699)
La serrata, puntuale e, molto spesso, profonda critica di Mach alla meccanica ebbe certamente molta influenza sul suo tempo. In particolare le critiche allo spazio, al tempo ed al moto, direttamente od indirettamente, andavano prefigurando i profondi rivolgimenti.che avrebbero scosso la fisica in quegli anni, soprattutto con la nascita e l’affermazione della relatività einsteniana.
Ma vi sono altri aspetti dell’opera di Mach che non possono essere sottaciuti, anche se non potremo occuparci di essi con lo spazio che richiederebbero.
Innanzitutto, secondo Mach, la nostra conoscenza del mondo è basata sulle sensazioni che ci provengono dall’esperienza: alla logica del nostro pensiero sta l’ordinare queste sensazioni in una scienza. Solo con le sensazioni possiamo rapportarci alla realtà, che ci circonda; è con l’esperienza che nasce la conoscenza in quanto l’esperienza ci fornisce le sensazioni da ordinare. I fenomeni sono quindi un insieme di interrelazioni tra l’osservatore e le cose osservate; in qualche modo è la soggettività dell’osservatore che determina il fenomeno (idealismo soggettivo). Anche se Mach più volte afferma che egli non vuole costruire un sistema filosofico, nei fatti, quanto abbiamo ora detto è la negazione dell’esistenza di ogni realtà al di fuori dell’esperienza, è la negazione dell’esistenza del mondo in sé di Kant: quando non possiamo rapportarci al mondo con l’esperienza, che ci fornisce le sensazioni, nulla possiamo dire sull’esistenza del mondo stesso. Questa corrente di pensiero rappresenta uno dei due filoni principali del più generale fenomenismo e va sotto il nome di empiriocriticismo; (700) esso, per certi versi (economicità della scienza), si richiama al positivismo e, per altri (non esistenza di leggi generali, di fenomeni generali, ma solo di casi particolari), al nominalismo. Mach fu il fondatore ed il principale esponente dell’empiriocriticismo; (701) egli, come abbiamo visto, ebbe come obbiettivo principale della sua polemica il meccanicismo e, più in particolare, la sua metafisica materialistica. Ebbene, se da una parte ciò riscosse l’approvazione di molti scienziati e studiosi del suo tempo (e non solo), (702) dall’altra il tentativo di assimilare meccanicismo con materialismo e di spostare quindi la polemica contro il. materialismo, trovò diversi e qualificatissimi oppositori tra i quali, Boltzmann, Planck e lo stesso Lenin.
C’è un punto da distaccare in quel che abbiamo fin qui detto. La negazione di ogni realtà al di fuori dell’ esperienza porterà Mach a schierarsi su una posizione decisamente antiatomistica. Alla domanda “cos’è un atomo ?”, egli era solito rispondere con “mai visto uno”. Ma, al di là di questo aneddoto, la polemica di Mach era incentrata sul fatto che alcuni atomisti non usavano gli atomi come semplici ipotesi ma assegnavano ad essi una realtà fisica; realtà che, in accordo con le premesse di Mach, doveva essere rifiutata in quanto gli atomi non cadono sotto i nostri sensi. Allo stesso modo, l’assegnare agli elettroni della teoria di Lorentz una realtà era tenacemente combattuto da Mach. (704)
Ma la polemica di Mach doveva riguardare ogni aspetto che avesse riguardato il meccanicismo e così anche la causalità, intesa come un tipico strumento di quel meccanicismo che si attaccava su tutti i fronti, divenne soggetto di una dura critica da parte di Mach. (705) Così scriveva Mach: (706)
“Quando parliamo di causa e di effetto, noi mettiamo arbitrariamente in evidenza quegli aspetti, sul cui rapporto poniamo attenzione in vista di un risultato per noi importante. Ma nella natura non vi è né causa né effetto … Il carattere essenziale della connessione causa-effetto esiste solo nell’astrazione che compiamo allo scopo di riprodurre i fatti (707) … Si può dire che c’è una categoria dell’intelletto sotto la quale è sussunta ogni nuova esperienza, purché si riconosca che essa ha avuto origine dall’esperienza. L’idea della necessità del rapporto causa-effetto ha probabilmente la sua prima origine … dall’osservazione dei nostri movimenti volo ntari e dei mutamenti che provochiamo con essi nell’ambiente circostante … Causa ed effetto sono enti mentali aventi una funzione economica. Alla domanda perché essi esistano, è impossibile rispondere, per il fatto che proprio astraendo da ciò che e uniforme abbiamo imparato a chiedere perché.”
In definitiva, per Mach, la causa indica la necessità di un dato effetto; ma noi non ci imbattiamo mai nelle necessità; esse non ci sono mai offerte dalla natura, esulando dalla nostra esperienza. Secondo Mach, il concetto matematico di funzione può utilmente sostituire l’inesistente dipendenza causa-effetto. (708)
Concludendo su Mach occorre ricordare che, nonostante il complesso delle sue posizioni, che abbiamo fin qui cercato di riassumere, egli non rinuncia alla possibilità di una visione unificata delle scienze. E, nella sua visione, è la termodinamica, soprattutto là dove introduce il concetto di irreversibilità, estraneo alla meccanica, che può proporsi come possibile fisica unificatrice di tutte le scienze. Ed in questo Mach converge con la tesi di fondo dell’energetica, altro filone del fenomenismo, del quale andiamo ora ad occuparci.
NOTE
(662 bis) Ed oltre al fatto che qui deve essere ricordato: i metodi e gli strumenti della meccanica sono quelli che hanno permesso lo sviluppo della fisica fino a questi livelli.
(662 ter) Citato in bibl. 149, Vol I, pag. 42 2. Sulle concezioni di L. Carnot e di B. de Saint-Venant si può vedere bibl. 6, pagg. 227-230.
(663) Citato in bibl. 149, Vol.I, pag. 423. Il più noto rappresentante di questa scuola, detta scuola del filo, fu il fisico francese J. Andrade (1857–1933) che espose la sua meccanica nelle Lezioni di Meccanica fisica (Parigi, 1898). Anche Jean Perrin, nel suo Traité de chimie physique (1945), aderì alla scuola del filo.
(664) Si veda, allo scopo, bibl.149, pagg.426-428. Si veda anche bibl.6, pagg.235-237.
(665) Si veda la nota 355 al paragrafo 7 del capitolo III.
(666) Ambedue riportati in bibl. 99. Gli opuscoli sono le trascrizioni di due conferenze.
(667) Soprattutto per quel che riguarda il carattere relativo delle nostre conoscenze.
(668) Bibl. 99, pag. 27.
(669) Bibl. 56, pag. 278 e segg. Si veda anche bibl. 6, pagg. 237-242.
(670) Ibidem. Si noti che in queste argomentazioni di Hertz vi è polemica nei riguardi della scuola degli energetisti che, all’epoca, si andava diffondendo, come più avanti vedremo.
(671) E mediante l’utilizzazione del principio del minimo sforzo elaborato da Gauss e della teoria dei vincoli nel senso di Lagrange.
(672) L’energia potenziale non è altro che l’energia delle masse nascoste.
(673) Citato in bibl. 149, pag. 432.
(674) L’opera ebbe varie edizioni aggiornate da Mach: dalla 2ª del 1888 alla 7ª, l’ultima curata da Mach, del 1912. L’edizione alla quale farò riferimento è la ristampa della 9ª edizione (l933), curata dal figlio di Mach (bibl. 97).
(675) Bibl. 97, pag. 215.
(676) Ibidem, pag. 220. Si noti che dalla relazione m1v1 = – m2v2 discende m1/m2 = – v2/v1 e cioè la proporzionalità inversa di masse e velocità.
(677) Ibidem, pag. 221.
(678) Ibidem, pagg. 236-237.
(679) Ibidem, pag. 239.
(680) Ibidem, pagg. 239-240.
(680 bis) Alcune delle cose che qui sosterrò traggono ispirazione da un lavoro di M. Bunge, Il tentativo di Mach di ricostruire la meccanica classica, American Journal of Physics, 34; 1966; pagg. 585-596.
(681) Si riveda il paragrafo 1 del Cap. I. Si veda inoltre bibl. 3, pagg. 113-117.
(682) Bibl. 97, pag. 241.
(683) Ibidem.
(684) Ibidem, pagg. 241-243. Molte delle cose che Mach afferma sono certamente ispirate a Berkeley (cfr. paragrafo 3 del Capitolo I). Si noti inoltre che una completa relativizzazione del tempo e dello spazio era stata sostenuta anche da Maxwell nella sua maturità (si veda nota 268 al paragrafo 5. Cap. III).
(685) Aggiungeva Mach che “ quando diciamo che il tempo fluisce in una direzione determinata ciò significa semplicemente che i processi fisici (e per conseguenza anche quelli fisiologici) si svolgono in una direzione determinata.“
(686) Qualche pagina più avanti (pagg.271-272) Mach sostiene: “La ricerca storica sullo svolgimento che una scienza ha avuto è indispensabile, se non si vuole che i principi che essa abbraccia degenerino a poco a poco in un sistema di prescrizioni capite solo a metà, o addirittura in un sistema di dogmi. L’indagine storica non soltanto fa comprendere meglio lo stato attuale della scienza, ma, mostrando come essa sia in parte convenzionale ed accidentale, apre la strada al nuovo. Da un punto di vista più elevato, al quale si arriva per cammini diversi, si può guardare con una visuale più ampia, e scoprire strade non ancora percorse.” Per sua stessa ammissione Mach ignorava però la storia della filosofia; riguardo alla storia della meccanica non conosceva completamente il periodo medioevale; Truesdell ha poi mostrato che si serviva di fonti non attendibili (Bunge, in nota 680 bis).
(687) Si riveda il paragrafo 1 del Cap. I. Si veda poi bibl.3, pagg. 121-126.
(688) Bibl. 97, pagg. 245-246.
(689) Ibidem, pagg. 248-249.
(690) Mach respingerà ripetutamente l’accusa di berkeleysmo (si veda ad esempio in ibidem, pag. 493).
(691) Ibidem, pagg. 249-250.
(692) Ibidem. Secondo Mach, le forze inerziali che nascono in sistemi accelerati discendono da una interazione con le stelle fisse. Le forse centrifughe che nascono dentro una piattaforma in rapida rotazione sono dovute alle stelle fisse. Se nell’universo non vi fossero queste masse, spari rebbero le forze inerziali e lo stesso parlare di rotazione non avrebbe più alcun significato. L’insieme di questa formulazione di Mach del principio d’inerzia fu chiamato da Einstein Principio di Mach. Si osservi che a Mach è dovuto anche il riconoscimento che il principio d’inerzia e la 2ª legge della dinamica “sono già contenute nella definizione della forza, secondo la quale senza forza non si ha accelerazione e quindi si ha quiete o moto rettilineo uniforme” (ibidem, pag 261).
(693) Come già detto, il fatto che le stelle fisse non sono fisse fu scoperto da Halley nel 1718.
(694) Ibidem, pag. 250.
(695) Ibidem, pagg. 470-471. Qualche riga più avanti Mach introduce un elemento che sarà poi la base delle sue concezioni e sul quale torneremo: “ Non le cose (i corpi), ma piuttosto i colori, i suoni, le pressioni, gli spazi, le durate (ciò che di solito chiamiamo sensazioni) sono i veri elementi del mondo.”
(696) Anche l’economista britannico Adam Smith (1723-1790) fondatore del liberismo economico, aveva sostenuto concetti simili a proposito dell’economia della scienza. La cosa e’ ricordata dallo stesso Mach in ibidem, pag. 481.
(697) Ibidem, pagg. 493-494.
(698) Le cose oggi funzionano proprio così. Rimane un interrogativo, per me retorico, chi tira le fila del tutto e a quali fini ? Poiché solo a pochi è concesso il privilegio di credere alle curiosità della scienza, ai più resta l’amarezza di vedere schiere di scienziati che lavorano per lo sfruttamento e per la guerra.
(699) Ibidem, pagg. 484-487.
(700) L’altro filone del fenomenismo è quello dell’energetismo del quale ci occuperemo nelle pagine seguenti.
(701) Un altro nome che si associa all’empiriocriticismo è quello del fisiologo e filosofo fenomenista tedesco R. Avenarius (1843-1896) il quale, partendo da presupposti diversi (tentativo di porre la filosofia come unificatrice ad un livello superiore di tutte le scienze e di fornire ad essa una base oggettiva analoga alla scienza), converge con alcune delle tesi di Mach. L’opera principale di Avenarius (bibl. 154) è Critica dell’esperienza pura (1889-1890).
(702) Si può citare ad esempio il fatto che i neopositivi viennesi intitoleranno a Mach il loro Circolo (1929). Alle idee di Mach si ispirerà anche la Scuola di Copenaghen (1926) alla quale faranno capo Bohr, Heisenberg, Jordan, Born e che vedrà come oppositori Planck, Einstein, De Broglie, Schrodinger. Infine anche il pragmatismo che si sviluppò negli Stati Uniti ad opera principalmente di H. James (1842-1910) si ispirerà alle vedute economicistiche di Mach.
(703) Di Boltzmann ci occuperemo più oltre, accenniamo ora alle polemiche di Planck (da una parte) e Lenin. (dall’altra) contro Mach e l’empiriocriticismo. Planck, in un suo scritto del 1908, L’unita’ dell’immagine fisica del mondo (bibl.l53, pagg.11-43), sostenne che se si dovessero accettare le idee di Mach, “ l’adattamento economico del nostro pensiero alle nostre sensazioni“, ne conseguirebbe che “ogni fisico coscienzioso dovrebbe aver cura di distinguere la propria immagine del mordo, come cosa concettualmente unica ed isolata, da quella di tutti gli altri, e se per caso due suoi colleghi eseguendo indipendentemente l’uno dall ‘altro lo stesso esperimento ritenessero di essere giunti a risultati opposti, come talvolta succede, commetterebbe un errore di principio se volesse concluderne che almeno uno dei due è in errore. Il contrasto potrebbe essere infatti dovuto alla differenza del loro modo di vedere il mondo. Io non credo che un vero fisico potrebbe mai cadere in cosi strani sofismi.” (ibidem, pag. 39).
Mach obietterà in un articolo del 1910, I pensieri direttivi della mia teoria della conoscenza scientifica e la loro accoglienza presso i contemporanei (Scientia, fasc.2; 1910; pag. 225 e segg.), che quanto sostenuto da Planck non intacca la sua teoria della conoscenza ed inoltre che lo stesso Planck non ha nemmeno la capacità di collaborare alla medesima teoria della conoscenza fisica.
Planck replicò con un nuovo articolo del 1910, Intorno alla teoria di Mach sulla conoscenza fisica (bibl. 117, pagg. 84-92), nel quale sostenne:
“ Ancora al tempo della mia permanenza in Kiel (1885-1889), mi annoveravo tra i partigiani risoluti della filosofia di Mach, che, come volentieri riconosco, ha esercitato una forte azione sul mio pensiero fisico. Ma più tardi mi sono allontanato da essa, perché ero giunto alla convinzione che la filosofia della natura di Mach non è in grado in alcuna maniera di mantenere la brillante promessa che gli ha guadagnato la maggior parte dei suoi seguaci: l’eliminazione di ogni elemento metafisico dalla teoria della conoscenza fisica.” (ibidem, pag.85). Come esempio Planck va a discutere il concetto stesso di economia della scienza. “ La scienza fisica, come ognuno riconosce, è nata dai bisogni pratici; dunque, conclude Mach, la conoscenza fisica è, in fondo, di natura economica“; ma Mach aggiunge che “l’economia di pensiero non è per questo limitata e legata nei suoi fini alla ricerca di bisogni economici pratici nuovi.” A questo osserva Planck: “Non è possibile, prima, rappresentare il principio dell’economia come un trionfo contro la metafisica con l’appello esplicito al suo significato pratico umano, e poi in seguito, quando la cosa così non va più, negare di nuovo esplicitamente l’aspetto pratico umano dell’economia” e aggiunge: « L’economia di pensiero nei suoi fini non è legata ai bisogni pratici umani ! Già, a quali altri bisogni allora ?” arrivando a rigettare su Mach l’accusa di fare della metafisica, “ oso affermare che il concetto di economia perde il suo primitivo significato e si trasforma senz’altro in uno metafisico” (tutte le citazioni provengono da ibidem, pag.86).
Più oltre poi Planck sostiene che nessun contributo alla fisica potrà venire dalle idee di Mach, andando infine a discutere alcune sue affermazioni in ambito fisico ritenute imprecise o addirittura errate.
In uno scritto più tardo, Positivismo e mondo esterno reale (1930), Planck, riferendosi alle teorie dei neopositivisti ma anche a queIle di Mach, sosterrà che per fondare una vera scienza è necessario servirsi delle esperienze di più ricercatori i quali dovranno comunicarsi i risultati. “Le esperienze sensibili altrui ci sono date infatti secondariamente attraverso informazioni. Qui si insinua dunque nella definizione della scienza un nuovo fattore; l’attendibilità e la sicurezza delle informazioni, e con ciò viene già ad essere logicamente rotta in un punto quella che è la base del positivismo, l’esigenza cioè che il materiale scientifico sia costituito da dati immediati” (bibl. 153, pag. 223).
Per quel che riguarda Lenin, egli, nel 1909, darà alle stampe un volume tutto centrato sulla polemica con Mach e soprattutto con i suoi seguaci. Si tratta del noto Materialismo ed empiriocriticismo (bibl.156) sul quale non possiamo che dire due parole rimandando, ad esempio, a bibl. 78 e a bibl. 53, pagg. 170-192.
Certamente, osserva, Lenin, il meccanicismo è pericoloso per il sostegno che esso fornisce al materialismo dogmatico, ma ancora più pericoloso è il fenomenismo che porta alla metafisica, al fideismo, all’irrazionalismo.
Al materialismo meccanicistico e dogmatico ed al fenomenismo, Lenin contrappone il materialismo dialettico (là dove la sottolineatura, ad opera dello stesso Lenin, è solo sul dialettico), già definito da Engels (bibl. 103), che offre una visione del mondo estremamente articolata in una serie di nessi e processi. Lenin distingue scienza da ideologia (alla prima assegna la conoscenza del mondo ed alla seconda l’organizzazione di esso) ed afferma il carattere relativo di qualunque conoscenza. Per concludere si tenga conto che l’analisi critica di Lenin va vista strettamente legata al suo tempo.
(704) In proposito Planck osserverà (bibl.153, pag.40) “ Debbo esplicitamente dichiarare che ritengo ingiustificati ed insostenibili gli attacchi mossi da quella parte contro l’ipotesi atomica e la teoria degli elettroni. Anzi a queste obiezioni io oppongo la recisa affermazione … che gli atomi, anche se noi non sappiamo nulla sulla loro intima natura, sono reali né più né meno che i corpi celesti e gli oggetti terrestri che ci circondano. Quando io dico che l’atomo d’idrogeno pesa 1,6.10-24 g non ho maggiori probabilità di sbagliare che quando dico che la Luna pesa 7.1025 g. Certamente non posso mettere un atomo di idrogeno sulla bilancia e non lo posso vedere, ma non posso mettere su un piatto di bilancia nemmeno la Luna, e, quanto al vedere, è noto che ci sono dei corpi celesti invisibili la cui massa è stata misurata con discreta precisione: fu misurata perfino la massa di Nettuno, prima ancora che gli astronomi lo cogliessero nell’obiettivo dei loro telescopi.”
Si osservi che Boltzmann interverrà in termini addirittura accorati in difesa delle concezioni atomistiche (come vedremo più oltre). Ed ancora relativamente a Planck, c’è da osservare che egli, pur partito da posizioni critiche nei riguardi delle concezioni statistiche di Boltzmann, già nel 1896 diventerà un duro critico delle posizioni dell’energetismo (si veda più oltre) sostenendo che è arrivato “alla conclusione irrefutabile che la nuova energetica manca di una qualsiasi base dotata di serietà; che le sue semplici dimostrazioni, quelle stesse a cui i suoi sostenitori danno grande importanza, non sono che delle apparenze di dimostrazioni, che esse non affrontano i veri problemi e ancora di più non sanno contribuire a risolverli.” (Citato in bibl. 54, pag. 246).
(705) Oltre a quanto qui diremo si può vedere anche cosa sostiene Robert Musil nella sua tesi di dottorato (bibl. 151, pagg. 47-66).
(706) Bibl.97, pagg.472-473.
(707) Come lo stesso Mach ricorda, il primo a porre questa questione fu lo storico e filosofo britannico D. Hume (1711-1766).
(708) Osserviamo a parte che ulteriore conseguenza della non esistenza di una realtà al di là dell’esperienza, in connessione col fatto che ci rapportiamo al mondo con le nostre sensazioni, fa concludere a Mach che non esistono leggi scientifiche definitive; ed in questo contesto non ha alcun senso parlare, come fa Newton, di esperimenti cruciali.
(709) Altri aspetti dell’opera di Mach sono messi in evidenza da vari autori. In particolare:
P. Frank tratta del rapporto tra Einstein, Mach ed il positivismo logico (bibl. 168, pagg. 219-236).
T. Hirosige tratta delle influenze di Hume and Mach sul pensiero di Einstein (bibl. 124, pagg. 56-57).
G. Holton si occupa di Mach, Einstein e la ricerca della realtà (bibl. 127, pagg. 164-203).
K. R. Popper si occupa di Berkeley quale precursore di Mach ed Einstein (bibl. 14, Vol. I, pagg. 287-391).
G. Lenzi tratta, tra l’altro, di Mach fisico sperimentale e didattico (bibl. 157, pagg. 3-8).
Infine brani originale di Mach su argomenti diversi sono riportati in bibll. 54, 56, 85.
Di passaggio ricordo che Mach, pur rimanendo molto ben impressionato dal tentativo di Hertz di costruire una nuova meccanica, criticherà la cosa perché la riterrà troppo astratta (bibl. 97, pagg. 272-277). Analogamente Hertz avrà modo di criticare il fenomenismo di Mach.
Categorie:Fisica e Storia della Fisica
Rispondi