Fisicamente

di Roberto Renzetti

TEORIA CINETICA DEI GAS E MECCANICA STATISTICA

        Il primo a ipotizzare e parzialmente ad elaborare una teoria cinetica dei gas fu Daniel Bernouilli (1700-1782) nel 1738. Questo tentativo non ebbe seguito e per circa cento anni non si sentì più parlare della cosa. Nel 1820 J. Herapath (1790-1869) e nel 1845 JJ.Waterston (1811-1883) inviarono due memorie alla Royal Society nelle quali riprendevano le ipotesi di Bernouilli sviluppando l’idea di calore come movimento disordinato delle particelle costituenti la materia. In particolare il lavoro di Waterston era una vera e propria anticipazione di quella che più tardi sarà chiamata meccanica statistica. Ambedue i lavori furono rifiutati. Come osservano Baracca e Livi, “è questa una ulteriore conferma che l’evolversi della scienza non è descrivibile in termini di puro avvicinamento alla verità, a una presunta pura realtà naturale, ma è invece sempre intrinsecamente condizionato dalla situazione storica concreta” (79). Quella era infatti l’epoca del positivismo, nella quale erano respinte tutte le ipotesi che andassero al di là dei fatti.

        Anche Joule si occupò del problema e nel 1851 pubblicò un lavoro nel quale, partendo dall’ipotesi che la temperatura dipende dal moto molecolare, calcolò quale deve essere la velocità media delle molecole del gas idrogeno per produrre una pressione uguale a quella atmosferica (80). I lavori di Herapath e Waterston vennero ripresi nel 1856 in una memoria, sostanzialmente identica a quella degli ispiratori, del chimico tedesco A. Krönig (1822-1879). I tempi erano mutati e poi la Germania dell’epoca permetteva maggiori ‘voli di fantasia’. Al lavoro di Krönig ne seguì subito uno di Clausius nel quale si gettavano le basi della moderna teoria cinetica dei gas (1857) (81). Leggiamo direttamente da Clausius:

La pressione del gas contro una superficie fissa è causata dalle molecole che urtano in gran numero su di essa e rimbalzano. La forza che così ne nasce è, in primo luogo, a parità di velocità del moto, inversamente proporzionale al volume della quantità fissata del gas; e in secondo luogo, a parità di volume, proporzionale alla forza viva (82) del moto di traslazione…

Dalla legge di Gay-Lussac (83) sappiamo che, a volume costante, la pressione di un gas perfetto cresce nello stesso rapporto della temperatura…assoluta. Di qui … segue che la temperatura assoluta è proporzionale alla forza viva del moto di traslazione delle molecole … (84)

La quantità di calore che deve essere fornita al gas, a volume costante, per aumentare la sua temperatura, deve essere considerata come un aumento della forza viva nel gas (85), nella misura in cui, in tal caso, non si compie alcun lavoro che potrebbe consumare calore..

Per soddisfare strettamente le leggi di [Boyle-] Mariotte e [Volta-] Gay-Lussac, e altre ad esse connesse, il gas deve soddisfare le seguenti condizioni rispetto alla situazione delle molecole:

1) Lo spazio realmente riempito dalie molecole del gas deve essere infinitesimo in rapporto all’intero spazio occupato dal gas stesso.

2) La durata di un urto, cioè il tempo richiesto per produrre una variazione del moto di una molecola che avviene quando essa urta un’altra molecola o una superficie fissa, deve essere infinitesimo rispetto all’intervallo di tempo tra due collisioni successive.

3) L’influenza delle forze molecolari deve essere infinitesima” (86). Queste condizioni, aggiungeva poi Clausius, quando sono rispettate, ci forniscono quello che si può chiamare un gas ideale (o perfetto); man mano che ci si allontana da esse si hanno le deviazioni proprie che fanno discostare il comportamento dei gas reali da quelli ideali.

        Sviluppando queste ipotesi, con dei conti piuttosto semplici, (87) Clausius andava a ritrovare, da un punto di vista microscopico, le equazioni che descrivono il comportamento dei gas perfetti, e in particolare calcolava la velocità media delle molecole di alcuni gas sottoposti alla pressione di una atmosfera. Questi valori di velocità, calcolati sia da Clausius che da Joule, sembravano elevatissimi: dell’ordine di varie centinaia di metri al secondo. Sembrava impossibile e, conseguentemente, molte obiezioni vennero mosse contro i metodi che avevano portato a quei risultati. Si sosteneva che

se le molecole si muovono lungo tratti rettilinei (e a quelle elevate velocità), allora dei volumi di gas messi a contatto reciproco debbono necessariamente mescolarsi molto rapidamente — un risultato, questo, che non si verifica nella realtà. [E inoltre] come può accadere che il fumo del tabacco sospeso in una stanza rimane cosi a lungo disposto in strati fermi? ” (88). E così via.

A queste obiezioni Clausius rispondeva con un articolo del 1858 nel quale sosteneva che, dato l’elevatissimo numero delle molecole che costituiscono il gas contenuto, ad esempio, in una stanza, c’è una elevatissima probabilità che una molecola… nel suo moto traslatorio, urti successivamente molte molecole. In questo modo la sua traiettoria non deve essere più pensata come una retta ma come una spezzata costituita da tanti piccoli segmenti, di modo che il tempo necessario a percorrere un tratto relativamente breve e relativamente lungo. Quindi la teoria di Clausius portava

a concludere che solo un numero relativamente piccolo di atomi può giungere rapidamente a grande distanza, mentre le quantità maggiori del gas si mescolano gradualmente nelle zone relative alla superficie di contatto” (89).

L’INTERVENTO DI MAXWELL

        Nel 1860 iniziò ad occuparsi del problema J.C. Maxwell (1831-1879) con una memoria dal titolo “Illustrazioni della teoria dinamica dei gas”. Egli si servì del metodo delle analogie elaborando un modello meccanico del gas in cui le molecole sono pensate come “un numero indefinito di particelle piccole, dure, sferiche e perfettamente elastiche, agenti le une sulle altre solo durante le collisioni reciproche” (90).

Sviluppando il modello, Maxwell arrivò a porsi il seguente problema:

Trovare il numero medio di particelle la cui velocità è compresa entro certi limiti, dopo un gran numero di collisioni tra un gran numero di particelle uguali” (91), la soluzione del quale rappresenta uno dei risultati più brillanti e fecondi della fisica dell’Ottocento. Dopo alcuni passaggi, Maxwell trovò un risultato dal quale poté concludere che:

Le velocità sono distribuite tra le particelle secondo la stessa legge per cui gli errori sono distribuiti tra le osservazioni entro la teoria dei minimi quadrati. Le velocità vanno da zero ad infinito, ma il numero di quelle che hanno valori molto alti è relativamente piccolo. In aggiunta a tali velocità, che sono egualmente distribuite in tutte le direzioni, vi può anche essere un moto generale di traslazione dell’intero sistema di particelle che deve essere composto con il moto delle particelle stesse l’una rispetto alle altre. Chiameremo l’un moto come moto di traslazione, e l’altro come moto di agitazione“(92).

        Questo risultato è quello che va sotto il nome di legge di distribuzione delle velocità di Maxwell (legge, è bene osservare, che ha un carattere eminentemente statistico e probabilistico) secondo cui le molecole costituenti un gas hanno velocità differenti l’ una dall’altra e le cambiano continuamente, ma il numero delle molecole che mantengono una velocità fissata rimane globalmente costante. C’è una velocità più probabile delle altre originata dal fatto che i numerosi urti che si susseguono non permettono alle molecole di acquistare velocità molto distanti da quella più probabile. In definitiva quasi tutte le molecole hanno velocità che si discostano poco dal valore più probabile, e le cose possono essere trattate come se tutte le molecole avessero la stessa velocità. Nel corso della memoria che stiamo discutendo, Maxwell ebbe modo di precisare il concetto, già introdotto da Clausius, di cammino libero medio di una molecola (la lunghezza media di un percorso molecolare tra due urti successivi) e di fornirne un metodo di calcolo. Disponendo dei due concetti ora accennati fu possibile passare ad altre importantissime elaborazioni della teoria, che via via fornivano interpretazioni microscopiche di fatti fino ad allora conosciuti solo macroscopicamente e/o solo empiricamente e magari non ben compresi. Si riuscì a dare una spiegazione ai fenomeni di diffusione, di soluzione, di attrito e di propagazione del calore; si scoprirono delle interdipendenze fra questi fenomeni che precedentemente apparivano nettamente distinti; diventarono comprensibili alcune ‘irregolarità’ dei calori specifici dei gas e dei solidi e le deviazioni dalla legge di Dulong (1785-1838) e Petit (1791-1820) (93); si cominciarono a capire le ragioni delle deviazioni del comportamento dei gas reali da quello dei gas perfetti (94); si calcolò il numero di molecole contenute in un centimetro cubo di gas in condizioni normali; si calcolò il numero di molecole contenute in una grammomolecola; si calcolarono le dimensioni delle molecole (95); ci si avviò alla soluzione del problema della liquefazione di tutti i gas (96); si dettero le prime spiegazioni del moto browniano (97).

UN’INDAGINE PIÙ SOFISTICATA: BOLTZMANN

        Il lavoro di Maxwell del 1860 fu perfezionato e in alcuni punti chiarito dai lavori del fisico austriaco L. Boltzmann (1844-1906) del 1868 e 1872.

        Boltzmann era particolarmente interessato non tanto a risolvere problemi particolari, come in parte aveva fatto Maxwell, quanto a studiare a fondo l’intero 2º principio della termodinamica. Egli iniziò le sue ricerche con un lavoro dei 1866 nel quale tentò, senza far ricorso all’ipotesi cinetico-molecolare,  

di dare una dimostrazione generale, puramente analitica della seconda legge della termodinamica e di scoprire il teorema che le corrisponde in meccanica.” (98).

        Nei lavori del 1868 e del 1872, ai quali facevamo riferimento, Boltzmann si convertì completamente alla teoria cinetico-molecolare ricavando alcune importanti conseguenze dalla legge di distribuzione delle velocità stabilita da Maxwell. Egli riuscì a calcolare l’evoluzione di un sistema di particelle a cui competa inizialmente una qualsivoglia distribuzione di velocità, trovando che questo sistema tende ad assumere la distribuzione di velocità di Maxwell, a seguito degli urti successivi delle particelle tra loro. La distribuzione di Maxwell tende quindi ad assumere il significato di distribuzione più probabile (all’equilibrio) verso cui tendono tutte le altre possibili distribuzioni (lontane comunque dall’equilibrio). Questo fatto è di grande portata poiché comporta l’affermazione che in natura si tende in modo irreversibile verso l’equilibrio e, contemporaneamente, il ritrovare su questa strada, di nuovo, l’irreversibilità insita nel secondo principio.

        Leggiamo alcuni passi significativi della memoria di Boltzmann del 1872. Egli intanto affermava che:

gli eventi più casuali, quando essi avvengono nelle medesime proporzioni, danno gli stessi valori medi… [e] le molecole di un corpo sono realmente così numerose e il loro movimento è talmente rapido che noi non possiamo percepire altro che valori medi …

[Quindi] le proprietà di un gas rimangono immutate solo perché il numero di molecole che hanno, in media, un particolare stato di moto è costante. La determinazione dei valori medi è lo scopo della teoria della probabilità. Quindi i problemi della teoria meccanica del calore sono anche problemi di teoria della probabilità. Sarebbe tuttavia errato credere che la teoria meccanica del calore sia per questo soggetta a qualche incertezza per il fatto che vi sono usati i principi della teoria della probabilità. Non si deve confondere una legge nota in modo incompleto, la cui validità è pertanto dubbia, con una legge completamente nota del calcolo delle probabilità; quest’ultima, come i risultati di qualsiasi altro calcolo, è una conseguenza necessaria di premesse definite, ed è confermata, nella misura in cui queste sono, corrette dagli esperimenti, purché sia stato fatto un numero sufficiente di osservazioni, come è sempre il caso della teoria meccanica del calore, dato il numero enorme di molecole che sono coinvolte” (99).

Boltzmann passò poi a una considerazione molto importante: usando i valori medi non serve più calcolare le equazioni del moto per ogni particella, di modo che lo stato termodinamico risulta individuato da pochi parametri macroscopici che possono essere ricavati con i metodi cinetico-molecolari, come valori medi dei comportamenti microscopici delle molecole. (100)

Egli calcolò quindi l’evoluzione del sistema di particelle, dimostrando che:

“qualunque sia la distribuzione iniziale dell’energia cinetica, nel corso di un tempo molto lungo essa deve sempre, necessariamente, tendere verso quella trovata da Maxwell … [e che quindi esiste] una certa funzione E che può solo aumentare in conseguenza del moto molecolare, e in un caso limite può rimanere costante … e questa funzione coincide, a meno di un fattore costante, con il valore trovato per il ben noto integrale di dQ/T” (101) che, come abbiamo visto qualche pagina indietro, non rappresenta altro che la variazione di entropia del sistema termodinamico in oggetto. Boltzmann poteva cosi concludere:

“Abbiamo quindi aperto la via a una dimostrazione analitica della seconda legge in un modo completamente diverso da duelli indagati finora. Finora l’obiettivo era stato di mostrare che che l’integrale di dQ/T fosse uguale a zero per processi ciclici reversibili, ma non è mai stato mostrato analiticamente che questa quantità è sempre positiva per processi irreversibili, che sono i soli che avvengono in natura. Il processo ciclico reversibile è solo un ideale, che si può approssimare più o meno bene ma che non si può mai raggiungere” (102).

Ecco quindi che lo sfuggente concetto di entropia, nelle formulazioni di Clausius, comincia ad acquistare un significato direttamente connesso alla situazione microscopica del sistema termodinamico in oggetto. La ‘contropartita’ di ciò è l’ingresso nella microfisica (e, più in generale, nella fisica) della probabilità, ingresso che sempre più andrà a scalzare il determinismo classico. Ma le cose non erano ancora del tutto definite.

        Loschmidt (1821-1895), in una sua memoria del 1876, fece osservare all’amico Boltzmann una difficoltà alla quale abbiamo già fatto cenno: come è possibile che delle molecole, trattate analiticamente con gli strumenti reversibili della meccanica classica, possano dare un risultato di irreversibilità ? Come è possibile cioè che la meccanica di Newton, applicata a un sistema di particelle, origini il 2º principio della termodinamica?  (103). Ma queste obiezioni non dovevano essere solo di Loschmidt se già nel 1871, nella sua “Teoria del calore”, Maxwell sentiva la necessità di spendere delle parole in proposito, introducendo nei fenomeni microfisici il famoso ‘diavoletto’, insistendo cioè sul carattere statistico delle leggi della termodinamica. Maxwell iniziò con l’affermare che il 2° principio della termodinamica è certamente vero

finché abbiamo a che fare con i corpi nel loro insieme, senza la possibilità di osservare o toccare le singole molecole di cui essi sono composti“.

E quindi proseguì:

Ma se noi concepiamo un essere le cui facoltà siano così aguzze che egli può seguire ogni molecola nel suo cammino, tale essere, i cui attributi sono essenzialmente finiti come i nostri, sarebbe capace di fare ciò che per noi è attualmente impossibile. Noi abbiamo visto infatti che le molecole in un recipiente pieno d’aria a temperatura uniforme si muovono con velocità per nulla uniformi, anche se la velocità media di ogni insieme di esse sufficientemente numeroso, arbitrariamente scelto, è pressoché uniforme. Supponiamo adesso che tale recipiente sia diviso in due parti, A e B, da un setto in cui vi sia un piccolo foro, e che un essere che può vedere le singole molecole apra e chiuda questo foro in modo da permettere solo alle molecole più veloci di passare da A a B e solo alle più lente di passare da B ad A. In questo modo, senza compiere lavoro, egli innalzerà la temperatura in B e abbasserà quella di A, contraddicendo la seconda legge della termodinamica…

Dovendo noi trattare di corpi materiali nel loro insieme e non potendo osservare le singole molecole, siamo costretti ad adottare quello che io ho descritte, come il metodo statistico di calcolo e ad abbandonare il vero metodo esatto della dinamica, in cui seguiamo con il calcolo ogni movimento” (104).

        Quindi, secondo Maxwell, le leggi della termodinamica, dovendo trattare di un enorme numero di compenti microscopici, non possono essere che a carattere probabilistico. E proprio l’elevatissimo numero di componenti un sistema termodinamico gioca un ruolo fondamentale. Per illustrare ciò pensiamo a un recipiente (isolato dall’ambiente esterno) diviso da un setto in due zone A e B. Supponiamo che, inizialmente, nella zona A vi sia un gas, mentre la zona B sia vuota. È evidente, ed in accordo con il secondo principio, che, una volta tolto il setto, il gas contenuto in A diffonderà nell’intero recipiente andando ad occuparlo in modo pressocché uniforme. È altrettanto evidente, ed in accordo con il secondo principio, che è praticamente impossibile che il gas, spontaneamente, se ne torni ad occupare una sola metà del recipiente. Tutte queste evidenze, attenzione, sono legate a una ipotesi implicita: l’enorme numero di molecole costituenti un volume di gas (dell’ordine di grandezza del numero di Avogadro). Se infatti il nostro gas lo potessimo pensare costituito da due, tre, o comunque pochissime molecole, allora, seguendone l’evoluzione nel volume dell’intero recipiente, non sarebbe per nulla strano che, a determinati istanti, a seguito degli urti sulle pareti, tutte le pochissime molecole si ritrovassero in una metà del recipiente (105). In definitiva, un piccolo numero di costituenti un sistema termodinamico può originare evoluzioni in cui si verifichino certamente aumenti, ma anche diminuzioni, di entropia; al crescere del numero dei costituenti il sistema, le oscillazioni dei valori dell’entropia si riducono sempre più e, pur continuando a esistere istante per istante, nello svolgersi dell’intero processo l’entropia aumenta sempre.

        Ancora nel 1874 Kelvin intervenne sull’argomento insistendo sul carattere probabilistico del secondo principio. E finalmente, nel 1877, di nuovo Boltzmann pubblicò due importantissime memorie nelle quali rispondeva direttamente alle obiezioni di Loschmidt, andando a precisare e a discutere più a fondo i rapporti tra secondo principio, probabilità e leggi della meccanica, fino a trovare un’espressione per l’entropia direttamente legata alla probabilità di un determinato stato termodinamico. Boltzmann iniziava con il premettere che

se noi vogliamo fornire una prova puramente meccanica del fatto che tutti i processi naturali si svolgono in modo che si abbia un aumento di entropia, dobbiamo assumere che li corpo sia un aggregato di punti materiali” (106).

        Passava quindi a discutere dell’applicazione della teoria della probabilità a un sistema termodinamico. Ma questa volta c’era una grossa novità rispetto alle trattazioni precedenti. Ora non si faceva più il conto probabilistico esteso all’enorme numero di molecole costituenti un gas inteso come unico sistema termodinamico. Si considerava invece il singolo sistema termodinamico macroscopico (ad esempio un gas) come costituito, istante per istante, da un enorme numero di stati dinamici microscopici differenti tra loro per la diversa configurazione o distribuzione (di posizioni e velocità) delle singole molecole costituenti il sistema termodinamico in oggetto. In questo modo, uno stesso stato termodinamico macroscopico, caratterizzato all’equilibrio da determinati valori di pressione, volume e temperatura, può essere originato, microscopicamente, da una enorme quantità di stati dinamici delle singole molecole. Mano a mano che ci si discosta dall’equilibrio il numero di stati dinamici microscopici, che rappresenta lo stesso stato termodinamico macroscopico, tende a diminuire, tende cioè a zero pur senza raggiungere mai questo valore limite. Scriveva Boltzmann:

Ogni distribuzione di stati non uniforme, (107) non importa quanto improbabile possa essere, non è mai assolutamente impossibile. E chiaro che ogni singola distribuzione uniforme che può realizzarsi dopo un certo tempo da qualche particolare stato iniziale, è altrettanto improbabile di una singola distribuzione non uniforme… E solo per il fatto che le distribuzioni uniformi sono molto più numerose di quelle non uniformi che la distribuzione di stati diventerà uniforme con l’andare del tempo … [Quindi], dato che il numero di distribuzioni uniformi è infinitamente maggiore di quello delle distribuzioni non uniformi, il numero di stati che portano a distribuzioni uniformi dopo un certo tempo t, è molto più grande del numero di quelli che portano a distribuzioni non uniformi … [e] quest’ultimo caso è straordinariamente improbabile e può essere considerato impossibile ai fini pratici” (108).

        Come osserva Mondella. “mediante questa impostazione originale, invece di stabilire la frequenza degli atomi aventi una determinata velocità in un singolo sistema [termodinamico] costituito da un corpo, si cerca ora di calcolare il numero di stati microscopici … che corrispondono allo stato macroscopico che caratterizza il corpo considerato” (109). E Boltzmann concludeva affermando:

Lo stato iniziale di un sistema sarà, nella maggior parte dei casi, uno stato molto poco probabile e il sistema tenderà sempre verso degli stati più probabili, finn quando giungerà allo stato più probabile, cioè allo stato di equilibrio termodinamico. Se applichiamo questo al secondo principio dellea termodinamica, potremo identificare la grandezza che si chiama di solito entropia con la probabilità dello stato corrispondente” (110).

E poiché un sistema isolato tende all’equilibrio termodinamico, cioè allo stato microscopico cui compete il maggior numero di stati microscopici che lo realizzano, cioè allo stato macroscopico cui compete la massima probabilità, è chiaro che, come la probabilità tende a diventare massima, anche l’entropia tende ad aumentare, e il sistema non può che passare da uno stato a un altro più probabile.

        Il passaggio quindi dalla statistica dei singoli atomi costituenti un sistema termodinamico a quella degli stati dinamici dello stesso sistema, permette a Boltzmann di superare le obiezioni di Loschmidt e di fare del secondo principio, trattato col metodo cinetico-molecolare, un teorema della teoria della probabilità. Con questo passaggio si continua ancora ad affermare la reversibilità delle leggi meccaniche che governano le interazioni tra le molecole ma, nel contempo, si afferma che questa reversibilità è estremamente improbabile nei fenomeni naturali.

        Consideriamo, ad esempio, il solito recipiente isolato dall’esterno e diviso da un setto, in cui è praticato un piccolo foro, in due zone A e B delle quali la A contenga inizialmente un gas mentre la B sia vuota. In accordo con il 2° principio e con la teoria della probabilità degli stati dinamici microscopici, il sistema evolverà verso l’equilibrio costituito dal gas che, dopo un processo di diffusione attraverso il foro, occuperà uniformemente le due zone A e B. Nessuno vieta di pensare che a questo punto tutti gli atomi costituenti il gas possano ritornare, attraverso il foro, nella zona A, in completo accordo con la reversibilità delle leggi della meccanica. C’è solo da notare, e non è poco, che esiste una sola distribuzione microscopica di velocità tale che a un dato istante inverta il moto di tutti gli atomi per ricondurli nella zona A. Questa distribuzione microscopica certamente esiste ma è, nel comportamento medio del gas, praticamente l’unica, rispetto alle migliaia e migliaia e migliaia di miliardi di distribuzioni microscopiche che vedono le velocità degli atomi dirette in modo da originare la fuoriuscita del gas dal forellino e la sua distribuzione uniforme nell’intero volume del recipiente. Si possono dare dei numeri che rendano conto di quanto sto dicendo a partire dall’ipotesi che il nostro gas sia costituito da un numero estremamente piccolo di molecole. Nella tabella che segue (111) è riportato: nella prima colonna il numero di molecole costituenti il gas; nella seconda colonna la probabilità dello stato con tutte le molecole in A; nella terza colonna, la probabilità dello stato di distribuzione uniforme delle molecole in A e B. Come si vede, al crescere del numero delle molecole costituenti il nostro sistema termodinamico,

n° molecoleprobabilità di tutte le molecole in A (la cosa si ottiene in un solo modo)probabilità di diffusione uniforme in A e B (la cosa si ottiene nel numero di modi indicato)
   416
  101152
  121924
  201184 756
10011029

cresce enormemente la probabilità di distribuzione uniforme (mentre quella non uniforme rimane costante). Se si pensa che le molecole costituenti un gas non sono 100 ma dell’ordine di grandezza del numero di Avogadro (e cioè 1023) ci si può, almeno lontanamente, rendere conto di quale numero dovrebbe comparire nella terza colonna. In definitiva, pur esistendo la distribuzione microscopica che porterebbe alla reversibilità del fenomeno essa “è estremamente improbabile e può essere considerata impossibile ai fini pratici” ma non impossibile dal punto di vista della teoria della probabilità. Visto in questo modo il secondo principio esprime una probabilità, non una certezza.

        Ritornando a Boltzmann, egli, alla fine della sua seconda memoria (1877), riuscì a calcolare la relazione esistente tra entropia S e probabilità termodinamica P (di un dato stato macroscopico di un sistema termodinamico) trovando (112):

S = K · logP

dove K è appunto la costante di Boltzmann che vale 1,39.10-23 J/ºK (questa costante fu individuata come tale da Planck, si veda in proposito l’articolo sui “quanti”).

        Negli anni seguenti vi furono importanti aggiustamenti e perfezionamenti ad opera ancora di Maxwell, di Boltzmann e di vari altri. Va ricordato in particolare il contributo di Helmholtz (1821 -1894) che, nel 1882, introdusse nella termodinamica i concetti di ordine e disordine, iniziando a considerare l’entropia come una misura del disordine. In questo modo i processi più probabili sono quelli che fanno passare il sistema termodinamico a stati sempre più disordinati, mentre è solo il moto molecolare ordinato quello che è in grado di essere convertito in altre forme di lavoro meccanico. Altro contributo fondamentale venne dal fisico W. Nerst (1864 – 1941) che nel 1906 enunciò il terzo principio della termodinamica secondo il quale “in una trasformazione qualunque, che avvenga allo zero assoluto, la variazione di entropia è nulla“. Questo principio può anche essere enunciato nel modo seguente: “è impossibile raggiungere lo zero assoluto mediante un numero finito di trasformazioni“. Occorre osservare che il terzo principio, nella prima formulazione che ne abbiamo dato, assolve un compito fondamentale, quello di eliminare l’indeterminazione nel calcolo del valore assoluto dell’entropia, indeterminazione che nasceva dal fatto che l’equazione di Clausius permetteva solo di calcolare differenze di entropia, e quindi forniva il valore assoluto dell’entropia di uno stato termodinamico a meno di una costante arbitraria (si trattava di un integrale indefinito). Altra osservazione è relativa al fatto che la completa comprensione del terzo principio avverrà a seguito della scoperta dei “quanti” fatta da Planck (si deda l’articolo citato).

    Vanno infine ricordati i contributi del chimico-fisico statunitense J. W. Gibbs (1839-1903) che nei suoi “Principi elementari di meccanica statistica” (1901), con l’introduzione dello ‘spazio delle fasi’, sviluppò in modo decisivo i metodi della meccanica statistica arrivando a delle condizioni generali che permettevano una trattazione molto completa dei sistemi termodinamici. Occorre però ricordare che il nocciolo della meccanica statistica era stato costruito al 1877 con i lavori di Boltzmann. Tutto ciò farà discutere molto negli anni seguenti, soprattutto ad opera della scuola degli energetisti e degli empiriocriticisti. Per ora basti osservare che la grandezza fisica ‘tempo’ da questo momento acquisterà un significato fisico ben preciso indicando, insieme alla grandezza ‘entropia’, l’unidirezionalirà di svolgimento dei fenomeni fisici.


NOTE

(1) Chi volesse seguire una ricostruzione molto stimolante delle vicende dell’energia, proprio a partire da Aristotele, può vedere bibl. [1]. Un libro molto utile per gli svariati brani antologici è quello di bibl. [4], anche se non ne condivido l’impostazione introduttiva. Un lavoro molto stimolante e anche didatticamente molto utile è quello di bibl. [2]. Un altro lavoro che certamente merita di essere letto è quello di bibl. [3].

(2) Per una ricostruzione molto agile di questi primi lavori si può vedere bibl. [5]. Il testo di bibl. [6] è un classico che tratta anche di queste questioni (da un punto di vista molto stimolante ma altrettanto discutibile).

(3) Su questi aspetti si vedano gli importanti scritti di bibl. [7 e 8].

(4) Stevin si era occupato dell’equilibrio di una catena sospesa su di un prisma a sezione triangolare, mentre Huygens, nello studio del pendolo composto, scoprì che il principio della massima risalita non era dell’intera massa ma del suo baricentro. J. Bernouilli aveva invece sviluppato il ‘principio dei lavori virtuali’ (1717).

(5) Si veda bibl. [1], pag. 51. Tra l’altro l’Accademia aggiungeva che sulla strada di queste ricerche più d’uno s’era economicamente rovinato.

(6) Per approfondire il senso di quest’ultima affermazione si veda bibl. [5], pagg. 30/39.

(7) Per approfondire questi aspetti si veda bibl.[7 e8].

(8) Detto in linguaggio moderno ciò vuol dire: come mai alcune trasformazioni energetiche forniscono energia utilizzabile (bruciare un combustibile per ottenere vapore) mentre altre, non solo non ne forniscono, ma ne assorbono (utilizzare del vapore per far muovere una macchina o un telaio)?

(9) Altra enorme difficoltà consisteva nel capire la distinzione tra i concetti di temperatura e calore. Il primo che probabilmente li distinse, dando nel contempo la prima definizione di ‘caloria’, fu uno tra gli ingegneri inglesi che lavoravano sulle macchine a vapore, J. Black (1728-1799). Un chiarimento definitivo si ebbe solo con R. Mayer.

(10) Bibl. [9], pag.,.520.

(11) Bibl. [3], pag. 192. Riguardo alle radiazioni oscure citate da Young, c’è da osservare che i primi a considerarne l’esistenza furono Mariotte (1620-1684) e Lambert (1728-1777). Solo nel 1800 Herschel (1738-1822) riuscì a provarne l’esistenza esplorando con un termometro lo spettro solare anche al di là del rosso: l’aumento di temperatura registrato provava l’esistenza di radiazioni oscure e invisibili (radiazioni infrarosse). Si osservi che allo stesso Young si deve il primo uso moderno della parola energia (troppe cose, secondo lui, si chiamavano con lo stesso nome: era necessario fare chiarezza).

(12) Per vedere un disegno del dispositivo indicatore P,V di Watt si veda bibl. [10], pag. 613.

(13) Fourier si occupò anche di altri fenomeni di propagazione e, in particolare, della propagazione di una corrente in un conduttore; pare accertato che Ohm, per ricavare la sua legge, prendesse le mosse proprio dai lavori di Fourier.

(14) Ad esempio da Dalton e Gay-Lussac per i gas; da Hope (1766-1844) per l’acqua; da Lavoisier (1734-1794), Laplace (1749-1827), Dulong e Petit per i solidi e il mercurio.

(15) Questa come le altre citazioni di Fourier che seguono sono tratte da bibl. [14], pagg. 169-176 (si tratta del “Discorso preliminare” alla Teoria).

(16) Come Fourier dice esplicitamente più oltre, l’importanza della scienza del calore è per il “progresso dell’industria e delle scienze naturali” (Ibidem, Introduzione, pag. 177).

(17) Bibl. [12], pag. 159,

(18) Lazare Carnot ebbe un ruolo di primo piano nella Rivoluzione Francese: fu uno di coloro che votò per ghigliottinare Luigi XVI. Fu generale di Napoleone e ministro durante i “cento giorni”. Alla caduta di Napoleone, con la Restaurazione, fu esiliato in Sassonia dove morì.

(19) Bibl. [21], pagg. 393-395. Dallo stesso testo sono stati ripresi gli altri brani di Carnot citati nel seguito.

(20) Questa condizione era già stata, individuata da Watt.

(21) Questo “errore” non permise a Carnot di ricavare la conservazione dell’energia e cioè il primo principio della termodinamica. Egli se ne avvide nel 1830 quando si convertì alla teoria dinamica del calore, ma la memoria in cui riportava ciò fu ritrovata tra le sue carte. solo nel 1876, quando tutto era già stato fatto. Osservo a margine che l’espressione “lavoro”, definita da Smeaton nel 1759 fu introdotta nella fisica da Poncelet (1788-1867) nel 1826.

(22) Quindi il 2° principio fu ricavato con un anticipo di circa 20 anni rispetto al 1° principio.

(23) Anche lo studio della “reversibilità” era stato affrontato dagli ingegneri a proposito delle macchine idrauliche (ad esempio da Poncelet). Si osservi che affermare quanto riportato nel testo equivale a dire che “solo se riponiamo la sostanza su cui lavora la macchina alle condizioni iniziali possiamo essere sicuri che tutto il calorico che è passato nella macchina è stato utilizzato per produrre lavoro” (Bibl. 8, pag. 229).

(24) Devo ricordare che anche una macchina ideale di Carnot ha sempre un rendimento inferiore a uno.

(25) Dal fatto che tutte le macchine termiche hanno lo stesso rendimento quando funzionano tra le stesse temperature, Carnot ricavò l’impossibilità del moto perpetuo di 2ª specie. Si noti che servono sempre due sorgenti di calore a temperature diverse: questo fatto implica l’impossibilità di utilizzare una sola sorgente per produrre lavoro. Se quest’ultimo fatto fosse stato possibile, come Kelvin (1824-1907) fece osservare, abbassando di un solo centesimo di grado la temperatura del mare, da esso si sarebbe potuta estrarre tutta l’energia occorrente per molti secoli all’intera umanità.

(26) Nello scritto “Memoria sulla potenza motrice dei calore” del 1834.

(27) Bibl. [4], pag. 129.

(28) Costituito da due sole isoterme distanziate di un grado centigrado

(29) Anche nell’ambito della biologia le cose non erano tranquille: fare un’affermazione del genere significava scontrarsi con altre correnti di pensiero che erano dominanti. Per cogliere alcuni interessanti aspetti della polemica e alcuni elementi di pensiero della scuola dei fisiologisti tedeschi, si può leggere un interessante scritto di un rappresentante di questa scuola, Du Boys-Reymond riportato in bibl. [11]. Si può anche leggere la stimolante discussione che fa Elkanà in bibl. [1], pagg. 132-151.

(30) Bibl. [4], pagg, 134-135.

(31) Ibidem.

(32) II ragionamento che segue l’ho fatto parafrasando quello di bibl. [15], 3, pag. 252.

(33) Ricordo che vale l’identità: 1 kgm = 9,81 joule. Si osservi che il ragionamento di Joule non è rigoroso perché presuppone nulla la variazione di energia interna.

(34) Bibl. [4], pagg. 135-136. Si osservi che l’articolo di Mayer, come del resto quello di Mohr, fu rifiutato dalla rivista di Poggendorf (gli Annalen) con la motivazione di mancanza di una ricerca sperimentale. Esso fu pubblicato, con scarsa risonanza, sugli Annali di Chimica e di Farmacia per interessamento di uno dei pochissimi che lo apprezzò, Liebig.

(35) Si tratta del celebre chimico britannico fondatore della teoria atomistica (1803). Joule per soli tre anni prese lezioni private elementari da Dalton e quest’ ultimo, a quasi 70 anni, era costretto a fare quel lavoro nonostante i grandi meriti scientifici. Joule quindi non ebbe nessuna istruzione regolare: anch’egli fa parte dell’ imponente schiera degli “outsider”.

(36) Si osservi che Joule usava la parola “forza” in luogo di “energia”, e questo fatto era comune all’epoca. Con i lavori di Rankine (1820-1872), intorno al 1860 si codificò l’uso della parola “energia”. Riguardo poi all’influsso delle conczioni religiose su Joule, che tra l’altro era un convinto conservatore in politica, egli più volte fa trasparire l’idea che “i grandi agenti della natura non possono andare distrutti se non dall’intervento diretto di Colui che li aveva creati” (bibl. [2], pag. 131).

(37) Nel lavoro del 1840 Joule misurò anche il calore che si sviluppa in un processo elettrolitico. Si deve notare che questo lavoro (come quello di Mayer) non fu accettalo dalla rivista Proceedings of the Royal Society perché i revisori non credettero che una legge di tale importanza potesse essere stata ricavata con esperienze descritte in sole 5 pagine (tra i revisori vi era anche Wheatstone, quello del “ponte”). Una riedizione del lavoro in forma più estesa fu accettata dal Philosophical Magazine nel 1841.

(38) Il lavoro occorrente per innalzare di 1°C la massa di un chilogrammo di acqua (e cioè per produrre una chilocaloria).

(39) Questo valore fu riportato da Joule in una memoria del 1850; in quella del 1843 dava un valore di 460 kgm/kcal.

(40) Joule fece anche importanti esperienze sulla produzione di calore mediante compressione adiabatica.

(41) Qui Joule si riferisce alle attrazioni che avvengono tra le molecole per formare i composti e in particolare alle reazioni esoenergetiche.

(42) Abbiamo già accennato all’iter di un lavoro di Joule, ma anche gli altri ebbero sorte poco felice. I primi lavori furono inizialmente rifiutati da svariate riviste. Gli ultimi furono pubblicati dopo molte insistenze. Questa stessa conferenza popolare riuscì a farla tra molte difficoltà: gli organizzatori avevano assegnato a Joule un tempo brevissimo e non era stato previsto il dibattito. Ma un giovane partecipante alla riunione si interessò molto a quanto Joule diceva ed alla fine aprì lui il dibattito. Parlò molto con Joule e rimase in contatto con lui fino alla morte di quest’ultimo. Si trattava del giovane Kelvin che nel suo intervento, individuò un contrasto tra le cose dette da Joule e quelle elaborate dagli ingegneri francesi. Secondo Joule era possibile la trasformazione di lavoro in calore e viceversa, secondo gli ingegneri francesi non c’era viceversa. Stimolato da ciò, Kelvin iniziò a lavorare in questo campo conseguendo risultati di enorme importanza.

(43) Anche questa memoria non venne accettata da Poggendorf per la pubblicazione. Essa vide la luce sotto forma di opuscolo con l’aiuto e l’incitamento dati a Helmholtz dal suo discepolo Du Boys-Reymond e dal matematico Jacobi. Si osservi che anche Helmholtz usa la parola forza (kraft) come sinonimo di energia.

(44) Bibl. [1], pag. 167. Per leggere l’intera memoria e per conoscere meglio Helmholtz si può vedere bibl. [17].

(45) Ibidem, pag. 170.

(46) Non c’è priorità tra Mayer, Joule e Helmholtz: la conservazione dell’energia è un esempio di scoperta simultanea. Sembra certo che né Joule, né Helmholtz conoscessero i lavori di Mayer, almeno fino al 1847. È comunque da notare che Helmholtz, dopo essere venuto a conoscenza del lavoro di Mayer riconobbe subito la priorità temporale di Mayer (il quale ultimo, nel frattempo era finito in manicomio a seguito dell’enorme incomprensione dalla quale era circondato).

(47) Nel 1887, sette anni prima di morire, Helmholtz, influenzato soprattutto dagli sviluppi della termodinamica, manifestò in un suo lavoro la sua insoddisfazione per il carattere di incompletezza che presentava la meccanica classica.

(48) Bibl. [16], pag. 116.

(49) Bibl. [22], Vol 2°, pag. 517. Si osservi che nel 1855 Kelvin “propose un’altra scala assoluta sulla quale gli incrementi dì temperatura uguali erano misurati come gli intervalli entro i quali una macchina termica perfetta produceva la stessa quantità di lavoro, e mostrò che tale scala presentava una stretta corrispondenza con la scala del termometro a gas” (ibidem, pagg. 517 – 518). Questa è la scala assoluta da noi oggi usata. Si osservi anche che nel lavoro del 1848 Kelvin ancora credeva impossibile la trasformazione di calore in lavoro (a quell’ epoca e fino al 1851 egli era ancora sostenitore della teoria del calorico).

(50) Il disaccordo in oggetto è discusso da Kelvin in una sua nota alle pagg. 136 – 137 di bibl. [16].

(51) Bibl. [16], nota di pag. 136. Il problema oggi è risolto così: quando non si hanno trasformazioni termodinamiche (caso di conduzione di calore lungo una sbarra) il calore si conserva; solo quando si ha a che fare con trasformazioni, alla ‘scomparsa’ di lavoro corrisponde la ‘comparsa’ di calore e viceversa (con tutte le limitazioni imposte dal 2º principio).

(52) La nota in cui Kelvin tratta di questo contrasto conclude così: “In realtà ci si deve provare nella ricerca della verifica dell’assioma di Carnot e di una spiegazione della difficoltà che abbiamo preso in considerazione, oppure nella ricerca di una base completamente nuova per la Teoria del Calore” (ibidem. pag. 137). Si noti quanto il problema fosse ritenuto cruciale.

(53) Bibl. [2], pag. 151. Tutte le citazioni di Clausius che seguiranno, senza riferimento bibliografico, sono tratte da bibl. [21].

(54) Bibl. [4], pagg. 162-163.

(55) Bibl. [21], pag. 405.

(56) La prima parte dell’ipotesi di Carnot era che “alla produzione di lavoro corrisponde un semplice passaggio di calore da un corpo caldo a un corpo freddo“; e questa prima parte veniva completata da Carnot con la seguente seconda parte (che Clausius respinge): “finché la quantità di calore non venga meno in tale passaggio“.

(57) Bibl. [21], pag. 407.

(58) II che vuol dire che per far funzionare una macchina frigorifera occorre fornire del lavoro dall’esterno.

(59) Tra cui: “La teoria dinamica del calore…” (1851) e “Una tendenza universale della natura verso la dissipazione dell’energia meccanica” (1852).

(60) Bibl. [16], pag. 191.

(61) Ibidem, pagg. 192-193. Si osservi che oggi questo enunciato di Kelvin si usa recitarlo cosi: è impossibile realizzare una trasformazione il cui unico risultato sia quello di assorbire una data quantità di calore da un’unica sorgente e trasformarla completamente in energia meccanica. Lo stesso Kelvin osserva in una nota che se ciò fosse possibile avremmo a disposizione un’energia infinita raffreddando di un poco, ad esempio, il mare o la Terra.

(62) Ibidem, pagg. 331-333.

(63) A proposito del clima politico della Germania occorre ricordare che esso è un Paese (fino al 1870) diviso in una miriade di piccoli Stati. La Prussia, il più industrializzato tra questi Stati, farà da polo d’ aggregazione. Della complicata storia della nascita dello Stato tedesco, elemento importante fu la fondazione dell’Università di Berlino (1810). Questa Università, insieme all’attività dei filosofi della natura fu alla base della rinascita culturale della Germania e della successiva acquisizione da parte di questo Paese del primato scientifico su tutto il mondo. L’ eredità speculativa di Leibniz insieme a quanto di empirico e sperimentale introdussero i filosofi della natura (tra cui Oken) fu uno stimolo alla creazione di scuole politecniche a imitazione di quelle francesi. Ma qui, contrariamente a quanto accadeva in Gran Bretagna, non erano i privati a gestire l’educazione e quindi l’industrializzazione, ma lo Stato. In questa dialettica tra Stato, imprenditori privati, popolo, sviluppo industriale ed istruzione, via via si realizzò una maggiore partecipazione della borghesia industriale alle scelte politiche del Paese e, conseguentemente, si conquistarono importanti riforme costituzionali. Si diffonde nel Paese un generale riconoscimento dell’utilità del progresso tecnico che, si ammette, non può più essere affidato ad artigiani, che lavorano su basi esclusivamente empiriche, ma ha bisogno di essere sottoposto a trattamento teorico per ricavare da esso il massimo possibile in un contesto più ampio ed organico. Ritornando a Kelvin, osserva Maffioli, che le considerazioni del fisico britannico sulla dissipazione dell’energia rispecchiano sia il dinamismo sia le segrete ansie ed inquietudini dell’epoca vittoriana e la stessa ideologia ottimistica dell’industrialismo e del progresso. L’uso poi del termine dissipazione è significativo: si “attribuisce una connotazione morale negativa ad un processo naturale!” (bibl. [2]).

(64) Che è l’inverso dell’equivalente meccanico della caloria.

(65) Oggi la chiamiamo energia interna.

(66) Si era osservato che “mentre la quantità di calore decresce durante il ciclo di operazioni della macchina termica di Carnot, una quantità restava costante durante l’intero ciclo. La quantità di calore prodotta era più piccola di quella assorbita dalla macchina, ma la quantità di calore assorbita, divisa per la temperatura della fonte di calore, aveva quantitativamente lo stesso valore della quantità di calore prodotta, divisa per la temperatura della caldaia“. (bibl. [22], Vol. 2°, pag. 518). Nelle macchine reali invece il quoziente ora visto cresce sempre.

(67) Bibl. [4]. pag. 230.

(68) Ibidem, pagg. 230-231.

(69) Nel caso di passaggio di calore da un corpo caldo a uno freddo T1 è la temperatura del corpo caldo e T2 quella del corpo freddo, quindi T1 > T2. E se T1 > T2 segue che 1/T2 > 1/T1 da cui 1/T2 – 1/T1 > 0.

(70) Nella memoria del 1865 Clausius modificò la convenzione sui segni scrivendo che l’integrale di dQ/T doveva essere minore o uguale a zero.

(71) Ibidem, pag. 243

(72) Ibidem, pagg. 244-245.

(73) C’è solo una differenza di ‘gusto’ nelle definizioni. Si veda la nota 63.

(74) Secondo questo modo di vedere si tende a uno stato in cui l’enorme quantità di energia dell’universo rimane sempre la stessa, ma essa diventa una energia ad un solo valore determinato di temperatura (anche elevatissimo, ma unico) e quindi non più utilizzabile per produrre lavoro meccanico (morte calda dell’universo). Si osservi che le stesse considerazioni erano state sviluppate da Helmholtz in una conferenza del 1854.

(75) Ibidem, pag. 235.

(76) Ibidem, pag. 234.

(77) Bibl. [19], pag. 234

(78) Ostwald (1853-1932) in un suo lavoro del 1927 scrive: “in tutte le equazioni della meccanica il tempo t compare solo al quadrato e perciò esse restano corrette sia che il tempo sia introdotto come positivo che come negativo, …. Perciò qualunque processo descritto da queste equazioni può procedere tanto in una direzione quanto in quella inversa“. (Bibl. [13], pag. 188).

(79) Bibl. [20], pag. 40.

(80) In bibl. [4], pagg. 163-164, è riportato il conto fatto da Joule.

(81) Si osservi che il lavoro di Clausius del 1865, che abbiamo visto qualche pagina indietro e nel quale si accennava a un’interpretazione microscopica dell’entropia, era certamente influenzato da questo suo precedente lavoro.

(82) Leggi: Energia cinetica.

(83) Questa legge la conosciamo comunemente come 2ª legge di Volta e Gay-Lussac.

(84) Il ragionamento fatto da Clausius può essere riassunto a partire dall’equazione dei gas perfetti, nel modo seguente. Indicando con P la pressione, con V il volume, con T la temperatura assoluta, con E l’energia cinetica delle molecole, con K, K1, K2 tre costanti, il primo capoverso di Clausius si può scrivere:

P = K1 · (E/V)

mentre il secondo capoverso, a partire dalla legge dei gas perfetti, diventa:

P = K2 . (T/V).

Confrontando le due relazioni scritte si vede subito che:

T = K · E

e cioè che la temperatura assoluta è proporzionale all’energia cinetica delle molecole.

(85) È il concetto di calore specifico a volume costante (Cv), cioè la variazione dell’energia interna del gas che è ora la somma delle energie cinetiche delle molecole. Si osservi che si va facendo strada il concetto di calore come energia cinetica delle molecole che via via andrà a formalizzarsi.

(86) Bibl. [20], pagg. 134-135. Il punto 1 può anche essere letto così: le molecole non sono soggette ad altre forze che quelle che si scambiano durante gli urti. Il punto 2 invece si può leggere: gli urti sono completamente elastici.

(87) II procedimento originale lo si può ritrovare in bibl. [4], pagg. 171-177.

(88) Bibl. [4], pag. 176. (Dalla ‘Introduzione all’articolo di Clausius del quale ora parleremo).

(89) Ibidem, pagg. 188-189.

(90) Ibidem, pag. 121.

(91) Ibidem. pag. 225.

(92) Ibidem, pag. 227.

(93) La legge di Dulong e Petit, enunciata nel 1819, afferma che i prodotti dei calori specifici per i pesi atomici sono uguali per tutti gli elementi chimici, il che vuol dire che i calori specifici dovrebbero diminuire all’aumentare del peso atomico, ma alcune sostanze non rispettano questa legge.

(94) L’equazione di stato per i gas perfetti (Clapeyron. 1834) fu corretta per i gas reali dal fisico olandese J.D. Van der Waals (1837-1923) nel 1873 sulla base delle ipotesi cinetico-molecolari (i gas reali hanno un volume proprio e le molecole di questi gas esercitano delle forze le une sulle altre).

(95) II fisico austriaco J. Loschmidt nel 1865 calcolò in 9.10-8 cm il diametro di una molecola d’aria (valore oggi accettato 2,5.10-8 cm); per il numero di molecole in un centimetro cubo di gas in condizioni normali egli trovò 10.1019 (valore oggi accettalo 2.7.1019), per il numero di molecole in una grammomoiecoìa (numero di Avogadro) egli trovò il valore, in buon accordo con quello oggi accettato, di 6,06.1023.

(96) Si ricordi che il primo a liquefare un gas (il cloro) agendo contemporaneamente su pressione e volume, fu Faraday nel 1823. Altri gas furono successivamente liquefatti, ma alcuni resistevano anche alle basse temperature allora raggiungibili ( – 110 ºC) e alle pressioni che via via venivano aumentate. Fu l’introduzione del concetto di temperatura critica (temperatura al di sopra della quale il gas non può essere liquefatto comunque si aumenti la pressione) ad opera di Andrews (1813-1885) nel 1867 che permise di proseguire nell’impresa, che si concluse con la liquefazione dell’elio nel 1908, lavorando sulla sola temperatura. Anche la temperatura critica può essere considerata un fecondo sviluppo della teoria cinetica.

(97) Il moto browniano fu scoperto nel 1827 dal botanico britannico R. Brown (1773-1858). Esso consiste nella (percettibile macroscopicamente) agitazione delle particelle in sospensione in un liquido. Esse si vedono al microscopio tremolare in continuazione ed in modo disordinato; il fenomeno si mantiene variando comunque le condizioni ambientali. Le prime spiegazioni di questo fenomeno, in base alla teoria cinetica, furono date dal matematico tedesco C. Wiener (1826-1896) nel 1863 e dal chimico britannico W. Ramsay (1852-1916) nel 1866. Secondo i due il moto browniano si origina attraverso i continui e numerosi urti che le molecole in moto del liquido comunicano alle particelle in sospensione. Quando queste ultime sono grandi il fenomeno non si osserva perché vi è una compensazione tra gli urti delle molecole che in gran numero colpiscono una grande particella; quando le particelle sono sufficientemente piccole non c’è più la compensazione e quindi compare il fenomeno. La spiegazione esauriente del moto browniano sarà data nel 1905 da A. Einstein (1879-1955).

(98) Bibl. [13], pag. 29.

(99) Ibidem, pagg. 43-44. Si noti quale ruolo importante assegna Boltzmann al calcolo delle probabilità e come via via vada scomparendo una visione deterministica del mondo.

(100) Com’è noto, le variabili macroscopiche che caratterizzano un gas sono la pressione P, il volume V e la temperatura T.

(101) Ibidem, pag. 45. Si osservi che, in accordo con le convenzioni da me adottate a partire dal segno del 2° principio della termodinamica (nell’enunciazione di Clausius), nel brano di Boltzmann riportato ho mutato la parola originale ‘diminuire’ in ‘aumentare’.

(102) Ibidem. Vale l’osservazione fatta nella nota precedente.

(103) Si osservi che, sulla base di obiezioni analoghe, molti fisici concludevano che la teoria cinetica doveva essere falsa. Si noti poi che il problema della reversibilità nella ‘dinamica astratta’ e nella ‘dinamica fisica’ viene posto da Kelvin nel 1874 in un articolo su ‘Nature‘, “La teoria cinetica della dissipazione dell’energia”. Si veda in proposito il brano riportato in bibl. [4], pagg. 261-263.

(104) Ibidem, pag. 172. Si osservi che qualche obiezione può essere fatta al ‘diavoletto’; infatti il suo agire altera le condizioni di probabilità. Si noti ancora che la posizione di Maxwell sull’affidabilità del calcolo delle probabilità è diversa da quella di Boltzmann, già accennata in nota 99. Si osservi infine che il ‘diavoletto’ trae senz’altro ispirazione dalla ‘intelligenza’ di cui parlava Laplace.

(105) Per la prima volta nella storia della fisica si intravede una diversità di comportamento tra processi macroscopici e microscopici. Qualcuno ha osservato che, nel campo della storia civile, vi sono leggi che regolano i rapporti tra gli uomini, ma nessuno si sognerebbe di utilizzare tali leggi per regolare i rapporti familiari.

(106) Ibidem, pag. 173. Si noti che una obiezione analoga a quella di Loschmidt fu avanzata successivamente dal matematico tedesco E. Zermelo (1871-1953), amico di Planck (1858-1947).

(107) Gli stati di cui parla Boltzmann sono quelli precedentemente chiamati stati dinamici microscopici. Uno stato dinamico microscopico è non uniforme quando rappresenta uno stato termodinamico macroscopico lontano dall’equilibrio, è invece uniforme quando rappresenta uno stato termodinamico macroscopico all’equilibrio.

(108) Ibidem, pagg. 175-176.

(109) Bibl. [23], Vol. 5º, pag. 219.

(110) Bibl. [13], pag. 177.

(111) Ripresa da bibl. [18], Vol. 2º, pag. 53.  Riporto lo scritto che, in tale testo, accompagna e spiega la tabella:

Entropia e disordine molecolare


Non abbiamo finora fatto alcun riferimento alla struttura molecolare dei corpi nello stabilire il secondo principio della termodinamica e nel dedurre le conseguenze. È tuttavia da aspettarsi che l’evoluzione di un sistema isolato verso lo stato di equilibrio, evoluzione che abbiamo visto essere determinata dalla differenza di entropia fra lo stato iniziale e quello finale, dipenda in modo essenziale dalla distribuzione delle molecole nei due stati. È appunto questa connessione che vogliamo brevemente discutere. Riprendiamo l’esempio di un gas che si espande senza lavoro esterno da un volume VA a un volume VA+VB, essendo VB il volume del recipiente B inizialmente vuoto che viene messo successivamente in comunicazione con il recipiente A. Per semplicità supponiamo  VA=VB in modo che l’equilibrio si abbia quando il numero di particelle in A e B è uguale. Invece di studiare il caso reale prendiamo in esame il caso ipotetico in cui la quantità di gas che si espande sia così piccola da esser formata da pochissime molecole. Cominciamo con due sole molecole, a e b. Se lo stato iniziale è dato da ambedue le molecole in A, nello stato finale in cui il gas ha la stessa «densità» sia in A che in B si trovano una molecola in A e una in B. Ciò può accadere in due modi: a in A e b in B, oppure a in B e b in A. Dal punto di vista macroscopico questi due modi sono equivalenti: danno sempre il risultato di equilibrio. Perciò diciamo che lo stato di ugual densità in A e in B è due volte più probabile dello stato con tutte e due le molecole in A. È come se si avesse un dado da gioco con due facce di un colore (rosso) e quattro di un altro (nero): gettando il dado la probabilità di ottenere una faccia nera è doppia di quella di ottenerne una rossa perché il numero di modi di ottenere il nero è doppio del numero di modi di ottenere il rosso. È facile rendersi conto che la probabilità di uguale densità nei due recipienti A e B cresce enormemente al crescere del numero di particelle rispetto a quella di avere tutte le molecole in A. Se sono quattro a, b, c, d, il conto si fa ancora rapidamente. Lo stato di uguale densità si realizza nei sei modi indicati nella figura 21.

La probabilità dello stato di ugual densità è dunque sei volte maggiore di quello con tutte e quattro le molecole in A. Nella tabella scritta sopra si riportano le probabilità dei due stati per qualche altro numero di molecole abbastanza piccolo. Poiché esiste un numerò enorme di modi di distribuire N particelle (dove N è il numero di Avogadro) in modo che metà si trovino in A e metà in B, ma un solo modo di trovarle tutte in A, diventa chiaro cosa vuol dire che una trasformazione è irreversibile: significa che essa procede da uno stato meno probabile a uno stato molto più probabile.

(112) Si osservi che questa relazione è di estrema importanza perché , tra l’altro, permette di calcolare il valore assoluto dell’entropia di uno stato. L’espressione integrale introdotta da Clausius ci permetteva invece di ricavare solo differenze di entropia. Nella relazione in oggetto, P deve essere inteso come il numero degli stati dinamici microscopici che fornisce lo stesso stato termodinamico macroscopico; infatti maggiore è il numero degli stati dinamici microscopici che realizzano uno stesso stato termodinamico macroscopico, maggiore è la probabilità di quest’ultimo. Per sua definizione la probabilità termodinamica prende in considerazione solo i casi favorevoli, al contrario della probabilità matematica che considera i casi favorevoli rapportati a quelli possibili.


BIBLIOGRAFIA

[1] Y. ELKANÀ – La scoperta della conservazione dell’energia – Feltrinelli, (1971).

[2] C. MAFFIOLI – Una strana scienza – Feltrinelli, (1979).

[3] BARACCA, ROSSI – Materia ed energia – Feltrinelli, (1978).

[4] E BELLONE – Le leggi della termodinamica da Boyle a Boltzmann – Loescher, (1978).

[5] F. BEVILACQUA – Storia del concetto di energia – AIF, Pavia, (1978).

[6] E. MACH – La meccanica nel suo sviluppo storico-critico – Boringhieri (1978)

[7] BARACCA, RIGATTI – Aspetti dell’interazione tra scienza e tecnica durante la Rivoluzione industriale del XVIII secolo in Inghilterra: 1) La nascita dei concetti di lavoro ed energia – “Il Giornale di Fisica”, 15, 2; (1974).

[8] BARACCA, RIGATTI – Idem: 2) Sviluppi della macchina a vapore – “Il Giornale di Fisica”, 15, 3; (1974).

[9] NEWTON – Mathematical Principles of Natural Philosophy – Optics;  HUYGENS – Treatise on Light – “Enciclopedia Britannica”, (1952).

[10] G. CASTELFRANCHI – Fisica sperimentale ed applicata (Vol. 1°) – Hoepli, 1943.

[11] E. DU BOIS-REYMOND – I limiti della conoscenza della natura – Feltrinelli, 1973.

[12] AA. VV. – Sul marxismo e le scienze – “Critica marxista”, quaderno 6 (1972).

[13] BARACCA, RUFFO, RUSSO – Scienza ed industria 1848/1915 – Laterza, 1979.

[14] LAVOISIER – Elements of Chemistry; FOURIER – Analitical Theory of Heat; FARADAY – Experimental Researches in Electicity – “Enciclopedia Britannica”, (1952).

[15] AA. V.V. – Storia generale delle scienze – Casini, (1964).

[16] KELVIN – Opere – Utet, (1971).

[17] HELMHOLTZ – Opere – Utet, (1967).

[18] CINI, DE MARIA, GAMBA – Corso di fisica per i licei scientifici – Sansoni, 1975.

[19] D.S.L. CARDWELL – Tecnologia, scienza e storia – Il Mulino, (1976).

[20] BARACCA, LIVI – Natura e storia: fisica e sviluppo del capitalismo nell’Ottocento – D’Anna, (1976).

[21] D. PAPP – Historia de la Fisica – Espasa Calpe, (1961).

[22] S.F. MASON – Storia delle scienze della natura – Feltrinelli, (1971).

[23] L. GEYMONAT – Storia del pensiero filosofico e scientifico – Garzanti, (1971).

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: