Nel presente articolo introdurremo la Meccanica Statistica e le ragioni fondamentali che hanno portato alla sua formulazione. Prima di addentrarci nei concetti specifici della disciplina, dedicheremo spazio a un'attenta revisione dei principi essenziali di meccanica analitica, termodinamica e calcolo delle probabilità, fornendo così le basi teoriche necessarie per una comprensione approfondita degli argomenti che svilupperemo durante questo corso. Questi strumenti concettuali ci permetteranno di costruire gradualmente un solido quadro interpretativo dei fenomeni fisici che la Meccanica Statistica si propone di spiegare.
È importante sottolineare che il presente lavoro presuppone che il lettore possieda già conoscenze preliminari sugli argomenti menzionati. La revisione che proponiamo non intende sostituire uno studio approfondito di tali discipline, ma piuttosto richiamare alla memoria concetti chiave e stabilire una terminologia comune che utilizzeremo nel corso della trattazione successiva.
Iniziamo il nostro percorso dalla termodinamica, una disciplina fondata su principi derivati da osservazioni sperimentali che ha permesso di costruire una teoria in eccellente accordo con i risultati empirici. Nonostante i suoi successi, la termodinamica opera esclusivamente a livello macroscopico, lasciando inesplorati i fenomeni che avvengono su scala microscopica. È proprio in questa lacuna conoscitiva che si inserisce la meccanica statistica. Infatti un sistema fisico come un gas può essere concettualizzato come un insieme di N particelle, eventualmente soggette a vincoli specifici. La descrizione ideale della dinamica di un simile sistema è fornita dalla meccanica analitica, in particolare risultano utili le equazioni di Hamilton. Se consideriamo che ogni particella libera possiede 6 gradi di libertà (tre coordinate spaziali e tre componenti della quantità di moto), la descrizione completa del sistema richiederebbe la risoluzione di un sistema di 6N equazioni differenziali accoppiate. Sebbene tale risoluzione sia teoricamente possibile, quando affrontiamo sistemi con un numero di particelle dell'ordine del numero di Avogadro (circa 10²³), l'operazione diventa computazionalmente proibitiva. La meccanica statistica nasce proprio dal riconoscimento di questo limite intrinseco: invece di perseguire la conoscenza deterministica del moto di ogni singola particella, accetta questa fondamentale 'ignoranza' e adotta metodi probabilistici per creare un ponte tra il mondo microscopico, governato dalle equazioni di Hamilton, e quello macroscopico, descritto dalla termodinamica. È proprio questa sintesi tra principi meccanici e metodi statistici che dà nome alla disciplina.
In questi articoli verrà usata la notazione di Einstein, quindi quando sono presenti indici ripetuti, sarà sottintesa una sommatoria. In alcuni casi la sommatoria sarà esplicitata per evitare confusione. Tuttavia in base al contesto si dovrebbe riuscire a capire quando siamo in presenza di sommatorie o meno.
Consideriamo un sistema di particelle soggetto a vincoli. Un tale sistema può essere descritto mediante coordinate lagrangiane, che risiedono nello spazio degli atti di moto. Queste coordinate sono indipendenti tra loro e vengono generalmente indicate come $q(t)$, $\dot{q}(t)$ e $t$. Per determinare il moto del sistema, introduciamo la funzione lagrangiana, comunemente denotata come $L(q(t),\dot{q}(t),t)$, definita come la differenza tra l'energia cinetica e l'energia potenziale del sistema. Le equazioni del moto nella formulazione lagrangiana assumono la seguente forma:
\[
\frac{d}{dt} \frac{\partial L}{\partial \dot{q}^k} - \frac{\partial L}{\partial q^k} = 0 \quad k=1,\ldots,n
\]
dove $n$ rappresenta il numero di gradi di libertà necessari per descrivere completamente il sistema. La seconda equazione fondamentale è la definizione stessa della velocità generalizzata:
\[
\dot{q}^k = \frac{dq^k}{dt} \quad k=1,\ldots,n
\]
Risolvere queste equazioni significa trovare le funzioni $q^k(t)$ nello spazio delle configurazioni che, insieme alle loro derivate temporali $\dot{q}^k(t)$, soddisfano le equazioni differenziali del moto. Il risultato sarà un insieme di curve parametrizzate:
\[
\begin{pmatrix}
q^1(t), q^2(t), \ldots, q^n(t) \\
\dot{q}^1(t), \dot{q}^2(t), \ldots, \dot{q}^n(t) \\
t
\end{pmatrix}
\]
È importante sottolineare che, tra tutte le possibili curve matematiche, solo quelle che rispettano la condizione cinematica $\dot{q}^k=\frac{dq^k}{dt}$ hanno significato fisico. Questa condizione, apparentemente ovvia, svolge un ruolo cruciale nella transizione dalla formulazione lagrangiana a quella hamiltoniana, come vedremo in seguito.
La formulazione hamiltoniana della meccanica classica offre un’alternativa elegante alle equazioni di Lagrange, spostando l’attenzione dallo spazio degli atti di moto (dove si descrive la cinematica) allo spazio delle fasi (dove la dinamica è incorporata in modo naturale). Questo passaggio si basa su una trasformazione di Legendre , che permette di definire il momento coniugato come:
\[
p_k = \frac{\partial L}{\partial \dot{q}^k}
\]
dove L è la lagrangiana del sistema, $q^k$ sono le coordinate generalizzate e $\dot{q}^k$ le loro derivate temporali.
L’hamiltoniana H si costruisce a partire dalla lagrangiana tramite la relazione:
\[
H = p_k \dot{q}^k - L
\]
quindi sarà una funzione delle $q_{k(t)},p_{k(t)},t$. A questo punto dalle equazioni del moto di Lagrange è possibile trovare le equazioni di Hamilton, infatti:
\[
\frac{\partial H}{\partial q^k} = p_k \cdot \frac{\partial \dot{q}^k}{\partial q^k} - \frac{\partial L}{\partial q^k} - \frac{\partial L}{\partial \dot{q}^k} \cdot \frac{\partial \dot{q}^k}{\partial q^k}= p_k \cdot \frac{\partial \dot{q}^k}{\partial q^k} - p_k \cdot \frac{\partial \dot{q}^k}{\partial q^k} - \frac{\partial L}{\partial q^k} = -\frac{\partial L}{\partial q^k} = -\frac{d}{dt} \frac{\partial L}{\partial \dot{q}^k} = -\dot{p}_k
\]
\[
\frac{\partial H}{\partial p_k} = \frac{\partial p_k}{\partial p_k} \dot{q}^k + p_k \cdot \frac{\partial \dot{q}^k}{\partial p_k} - \frac{\partial L}{\partial \dot{q}^k} \cdot \frac{\partial \dot{q}^k}{\partial p_k} = \dot{q}^k
\]
dove si usano semplicemente la definizione di momento coniugato e il fatto che nello spazio delle fasi le q e le p sono indipendenti.
Riassumendo abbiamo trovato le seguenti equazioni.
\[
\left\{
\begin{array}{l}
\dot{q}^k = \frac{\partial H}{\partial p_k} \\
\dot{p}_k = -\frac{\partial H}{\partial q^k}
\end{array}
\right.
\]
Un concetto chiave nella formulazione hamiltoniana è quello delle parentesi di Poisson . Date due funzioni f e g definite sullo spazio delle fasi, la parentesi di Poisson {f,g} è definita come:
\[
\left\{
\begin{array}{l}
\dot{q}^k = \sum_{k} \left( \frac{\partial f}{\partial q^k} \dot{q}^k + \frac{\partial f}{\partial p_k} \dot{p}_k \right) \\
\dot{f} = \frac{\partial f}{\partial q^k} \dot{q}^k + \frac{\partial f}{\partial p_k} \dot{p}_k
\end{array}
\right.
\]
Questa struttura è particolarmente importante perché possiamo esprimere le derivate temporali di funzioni tramite le parentesi di Poisson, infatti:
\[
\dot{f} = \{f, H\} = \sum_{k} \left( \frac{\partial f}{\partial q^k} \frac{\partial H}{\partial p_k} - \frac{\partial f}{\partial p_k} \frac{\partial H}{\partial q^k} \right)
\]
perciò nel caso in cui $\frac{\partial f}{\partial t}=0$, l’evoluzione temporale sarebbe data completamente dalle parentesi di Poisson.
Inoltre le parentesi di Poisson ci permettono di riscrivere le equazioni di Hamilton come segue:
\[
\left\{
\begin{array}{l}
\dot{q}^k = \{q^k, H\} \\
\dot{p}_k = \{p_k, H\}
\end{array}
\right.
\]
Infine è bene ricordare la presenza di uno stretto legame tra simmetrie e quantità conservate. Infatti, il legame tra simmetrie e quantità conservate è formalizzato dal teorema di Noether . Se una trasformazione lascia invariata l’hamiltoniana (simmetria), esiste una quantità conservata associata. Ad esempio, l’invarianza per traslazioni spaziali implica la conservazione della quantità di moto, mentre quella per rotazioni implica che è il momento angolare ad essere conservato.
I parametri termodinamici sono grandezze fisiche che caratterizzano completamente lo stato termodinamico di un sistema. Queste grandezze si suddividono in due categorie principali:
Nello studio dei sistemi nel limite termodinamico (ovvero sistemi con un numero di particelle N che tende all'infinito), le grandezze intensive assumono particolare importanza poiché solo queste mantengono un valore ben definito. Per le grandezze estensive, invece, si preferisce utilizzare le corrispondenti densità (grandezze estensive divise per il volume o per il numero di particelle), che diventano a loro volta grandezze intensive.
Uno stato di equilibrio termodinamico è una condizione in cui tutti i parametri termodinamici del sistema rimangono costanti nel tempo. Gli stati di equilibrio rivestono un'importanza fondamentale in termodinamica per diversi motivi:
Per passare da uno stato di equilibrio termodinamico a un altro, è necessario effettuare una trasformazione termodinamica. Le trasformazioni termodinamiche si classificano principalmente in due categorie: trasformazioni reversibili e trasformazioni irreversibili.
Una trasformazione reversibile è un processo ideale che può essere rappresentato come una successione continua di stati di equilibrio infinitesimamente vicini tra loro. Le caratteristiche principali di una trasformazione reversibile sono:
Esempi di trasformazioni reversibili ideali includono l'espansione isoterma di un gas perfetto contro un pistone che esercita una pressione uguale a quella del gas in ogni istante.
Una trasformazione irreversibile è un processo in cui il sistema passa attraverso stati di non-equilibrio e non può essere invertito senza apportare modifiche all'ambiente circostante. Le caratteristiche principali di una trasformazione irreversibile sono:
Esempi di trasformazioni irreversibili includono l'espansione libera di un gas nel vuoto, la conduzione di calore attraverso una differenza di temperatura finita, o qualsiasi processo che coinvolga attrito o dissipazione.
È importante notare che tutte le trasformazioni reali sono, in qualche misura, irreversibili. Le trasformazioni reversibili rappresentano un'idealizzazione limite, utile per calcoli teorici e per stabilire i limiti di efficienza dei processi termodinamici.
In termodinamica, un sistema può scambiare energia con l'ambiente esterno attraverso diverse forme di lavoro, non solo mediante compressione o espansione. Esaminiamo le principali modalità attraverso cui un sistema termodinamico può compiere o assorbire lavoro.
Consideriamo un gas contenuto in un cilindro con un pistone mobile. Quando il gas si espande o si comprime, compie lavoro contro la forza esterna applicata al pistone.
In questo caso, il lavoro infinitesimo svolto dal sistema è dato da:
\begin{equation}
dW = -P \, dV
\end{equation}
dove:
Il segno negativo indica che quando il volume aumenta ($dV > 0$), il sistema compie lavoro positivo sull'ambiente esterno (cioè, cede energia). Viceversa, quando il volume diminuisce ($dV < 0$), il sistema assorbe lavoro dall'ambiente (riceve energia).
Un altro modo in cui un sistema termodinamico può scambiare energia è attraverso l'aggiunta o la rimozione di particelle. In questo caso, il lavoro infinitesimo è espresso come:
\begin{equation}
dW = \mu \, dN
\end{equation}
dove:
Il potenziale chimico $\mu$ rappresenta l'energia necessaria per aggiungere o rimuovere una singola particella dal sistema mantenendo costanti altre variabili termodinamiche come temperatura e volume. Questo tipo di lavoro è particolarmente importante nei sistemi aperti e nei processi chimici.
In presenza di un campo magnetico, un sistema con proprietà magnetiche può scambiare energia attraverso interazioni magnetiche. Il lavoro infinitesimo in questo caso è:
\begin{equation}
dW = -\vec{H} \cdot d\vec{M}
\end{equation}
dove:
Analogamente al lavoro di volume, il segno negativo indica la convenzione per cui il lavoro positivo è quello ceduto dal sistema all'ambiente.
Questi esempi possono essere generalizzati nella forma:
\begin{equation}
dW = \sum_i Y_i \, dX_i
\end{equation}
dove:
Questa formulazione evidenzia la struttura comune delle diverse forme di lavoro in termodinamica e il legame profondo con la meccanica analitica, dove compaiono concetti analoghi di forze e coordinate generalizzate.
Il principio zero della termodinamica ci permette di definire il concetto di temperatura in maniera rigorosa. Esso afferma che:
\begin{quote}
Se due corpi A e B sono in equilibrio termodinamico tra loro, e un terzo corpo C è in equilibrio termodinamico con A, allora C sarà necessariamente in equilibrio termodinamico anche con B.
\end{quote}
Questo principio, apparentemente semplice, ha profonde implicazioni. Esso stabilisce la transitività della relazione di equilibrio termodinamico e fornisce la base concettuale per la misura della temperatura. Grazie a questo principio possiamo affermare che:
Quando un sistema termodinamico interagisce con l'ambiente esterno, può scambiare energia in due forme principali: calore e lavoro. Un aspetto cruciale da comprendere è che né il calore né il lavoro sono funzioni di stato. Questo significa che il loro valore non dipende unicamente dallo stato termodinamico del sistema, ma anche dal percorso seguito durante la trasformazione. In particolare:
A differenza di calore e lavoro, l'energia interna $U$ del sistema è una vera funzione di stato, dipendente unicamente dallo stato termodinamico del sistema. Il primo principio della termodinamica esplicita la relazione tra la variazione dell'energia interna, il calore scambiato e il lavoro compiuto:
\begin{equation}
dU = \delta Q + \delta W
\end{equation}
Dove:
Considerando le diverse forme di lavoro che possono essere compiute sul sistema, possiamo espandere l'equazione come:
\begin{equation}
dU = \delta Q - P\,dV + \mu\,dN + \ldots
\end{equation}
Dove:
il secondo principio introduce il concetto di irreversibilità nei processi naturali e definisce l'entropia come grandezza fondamentale per comprendere l'evoluzione temporale dei sistemi fisici.
Questo principio possiede due enunciati, che però sono del tutto equivalenti e sono riportati di seguito:
La dimostrazione dell'equivalenza si può trovare su un qualsiasi libro di termodinamica.
Adesso mostriamo un altro modo per enunciare questo principio. Ricordiamo che il teorema di Carnot afferma che nessuna macchina termica che opera tra due temperature può avere un rendimento superiore a quello di una macchina di Carnot ideale che operi tra le stesse temperature. Questo teorema è matematicamente espresso come segue:
\begin{equation}
\eta=1-\frac{\abs{Q_{CED}}}{Q_ {ASS}} \leq 1-\frac{T_ 2}{T_ 1}
\end{equation}
Dove :
Partendo dal teorema di Carnot, possiamo derivare un'altra formulazione del secondo principio. Moltiplichiamo entrambi i membri della disuguaglianza per $\frac{Q_{\text{ASS}}}{T_2}$:
\begin{equation}
\frac{Q_{\text{ASS}}}{T_2} \left(1-\frac{|Q_{\text{CED}}|}{Q_{\text{ASS}}}\right) \leq \frac{Q_{\text{ASS}}}{T_2} \left(1-\frac{T_2}{T_1}\right)
\end{equation}
Semplificando:
\begin{equation}
\frac{Q_{\text{ASS}}}{T_2} - \frac{|Q_{\text{CED}}|}{T_2} \leq \frac{Q_{\text{ASS}}}{T_2} - \frac{Q_{\text{ASS}} \cdot T_2}{T_2 \cdot T_1} = \frac{Q_{\text{ASS}}}{T_2} - \frac{Q_{\text{ASS}}}{T_1}
\end{equation}
Riordinando:
\begin{equation}
\frac{Q_{\text{ASS}}}{T_1} + \frac{Q_{\text{CED}}}{T_2} \leq 0\
end{equation}
Dove abbiamo usato il fatto che $Q_{\text{CED}} = -|Q_{\text{CED}}|$ (il calore ceduto è negativo).
Consideriamo ora un ciclo termodinamico che avviene molto lentamente (quasi-statico). Possiamo dividere questo ciclo in molti piccoli intervalli, ciascuno caratterizzato da una temperatura approssimativamente costante. Applicando la relazione precedente a ciascun intervallo e sommando, otteniamo:
\begin{equation}
\sum_{i=1}^{N} \frac{Q_i}{T_i} \leq 0
\end{equation}
ove $Q_i$ è il calore scambiato nell'intervallo $i$-esimo alla temperatura $T_i$.
Al limite per $N \to \infty$, quando gli intervalli diventano infinitesimali, la sommatoria si trasforma in un integrale:
\begin{equation}
\oint \frac{\delta Q}{T} \leq 0
\end{equation}
Questo risultato è noto come Teorema di Clausius e rappresenta una formulazione matematica elegante del secondo principio della termodinamica.
La quantità $\frac{\delta Q}{T}$ che appare nel teorema di Clausius ha una proprietà fondamentale: per trasformazioni reversibili, il suo integrale lungo un ciclo chiuso è nullo, in quanto non sono presenti dissipazioni di energia. Quindi:
\begin{equation}
\oint_{\text{rev}} \frac{\delta Q}{T} = 0
\end{equation}
Da questo possiamo dire che per una trasformazione reversibile, il valore dell'integrale dipende solo dallo stato iniziale e da quello finale, e non dipende in alcun modo dal percorso. Infatti considerando due stati A e B, e prendendo due curve $\Gamma_1$ e $\Gamma_2$ che connettono i due punti, si ha la seguente relazione:
\begin{equation}
\int_{\Gamma_1} \frac{\delta Q}{T} + \int_{-\Gamma_2} \frac{\delta Q}{T} = 0 \Rightarrow \int_{\Gamma_1} \frac{\delta Q}{T} = \int_{\Gamma_2} \frac{\delta Q}{T}
\end{equation}
Dove con $-\Gamma_2$ si intende curva $\Gamma_ 2$ percorsa al contrario, quindi da A a B. Tale comportamento è caratteristico delle funzioni di stato.
Chiamiamo questa nuova funzione di stato entropia e la indichiamo con $S$. Per una trasformazione reversibile da uno stato A a uno stato B, la variazione di entropia sarà:
\begin{equation}
\Delta S = S(B) - S(A) = \int_A^B \frac{\delta Q}{T}
\end{equation}
Il teorema di Clausius parla di cicli, quindi possiamo considerare un ciclo e spezzarlo in due trasformazioni, una arbitraria che va da A a B, mentre l'altra reversibile che ci porta da B ad A. Quindi in formule si ha:
\begin{equation}
\int_A^B\frac{\delta Q}{T} + \int_{B,Rev}^A \frac{\delta Q}{T} \leq 0 \Rightarrow \int_A^B\frac{\delta Q}{T} - \Delta S \leq 0 \Rightarrow \Delta S \geq \int_A^B\frac{\delta Q}{T}
\end{equation}
Da questi passaggi è facile vedere che per un sistema isolato termicamente, quindi che non scambia di calore con l'ambiente, si deve avere che $\Delta S \geq 0$, uguale a zero per trasformazioni reversibili. Questa è una formulazione potente del secondo principio: l'entropia di un sistema isolato non può diminuire. L'entropia può rimanere costante (nei processi reversibili) o aumentare (nei processi irreversibili), ma mai diminuire.
Poiché l'universo nel suo complesso può essere considerato un sistema isolato, l'entropia dell'universo aumenta continuamente. Questo aumento fornisce una "freccia del tempo", distinguendo il passato dal futuro a livello macroscopico
Gli stati $A$ e $B$ sono due stati di equilibrio. Il sistema parte dallo stato $A$, siccome basta una qualsiasi trasformazione reversibile, scegliamo una trasformazione isoterma a temperatura $T_1$ fino allo stato $B$. Per un processo isotermico in un gas perfetto, la variazione di energia interna è nulla ($\Delta U = 0$), quindi dal primo principio:
\[
dU = \delta Q - \delta W \Rightarrow \delta dQ = PdV
\]
La variazione di entropia sarà:
\begin{equation}
\Delta S = \int_A^B \frac{\delta Q}{T} = \int_A^B \frac{P dV}{T}
\end{equation}
Utilizzando l'equazione di stato dei gas perfetti $PV = Nk_B T$ (dove $N$ è il numero di particelle e $k_B$ è la costante di Boltzmann):
\begin{align}
\Delta S &= \int_{V_A}^{V_B} \frac{Nk_B T}{V} \cdot \frac{dV}{T} \nonumber \\&= Nk_B \int_{V_A}^{V_B} \frac{dV}{V} \nonumber \\&= Nk_B \ln\left(\frac{V_B}{V_A}\right)
\end{align}
Questo risultato mostra che l'entropia di un gas perfetto aumenta quando il volume aumenta (espansione) e diminuisce quando il volume diminuisce (compressione).
Esiste un apparente paradosso tra la reversibilità delle leggi fondamentali della fisica e l'irreversibilità descritta dal secondo principio della termodinamica.Le equazioni di Hamilton, che descrivono l'evoluzione dei sistemi meccanici, sono invarianti per inversione temporale. Le traiettorie nello spazio delle fasi possono essere percorse in entrambe le direzioni (reversibilità).Al contrario, il secondo principio della termodinamica introduce un'asimmetria temporale fondamentale con l'aumento monotono dell'entropia.Questa apparente contraddizione viene risolta dalla meccanica statistica, che mostra come l'irreversibilità macroscopica emerga da dinamiche microscopiche reversibili, attraverso considerazioni probabilistiche e il concetto di casualità molecolare.
Quando lavoriamo in laboratorio, ci troviamo spesso in diverse situazioni sperimentali dove possiamo controllare alcune grandezze fisiche piuttosto che altre. Questo ci porta a introdurre diversi potenziali termodinamici, ciascuno utile in specifiche condizioni.Partiamo dall'energia interna $U$, che è una funzione di stato fondamentale in termodinamica. Essendo una funzione di stato, il suo differenziale deve essere una forma esatta, esprimibile come:
\begin{equation}
dU = T dS - P dV + \mu dN
\end{equation}
Questa relazione deriva dal primo principio della termodinamica, considerando che $dS = \frac{\delta Q}{T}$ per trasformazioni reversibili, dove $\delta Q$ rappresenta il calore scambiato. I termini di questa equazione rappresentano rispettivamente il contributo termico ($T dS$), il lavoro meccanico ($-P dV$) e il lavoro chimico ($\mu dN$).
In laboratorio, tuttavia, è generalmente più pratico controllare direttamente la temperatura anziché l'entropia. Per questo motivo, è utile definire un potenziale termodinamico che abbia la temperatura come variabile naturale. Mediante una trasformata di Legendre, introduciamo l'energia libera di Helmholtz:
\begin{equation}
F = U - TS
\end{equation}
Calcolando il differenziale di $F$ otteniamo:
\begin{equation}
dF= dU - TdS - SdT = TdS - PdV +\mu dN - TdS - SdT = - SdT - PdV +\mu dN
\end{equation}
Da questa espressione risulta evidente che l'energia libera di Helmholtz è una funzione naturale della temperatura ($T$), del volume ($V$) e del numero di particelle ($N$), ovvero $F = F(T,V,N)$.
Le derivate parziali di $F$ ci forniscono importanti informazioni sul sistema:
\begin{align}
S &= -\left(\frac{\partial F}{\partial T}\right)_{V,N} \\
P &= -\left(\frac{\partial F}{\partial V}\right)_{T,N} \\
\mu &= \left(\frac{\partial F}{\partial N}\right)_{T,V}
\end{align}
Analogamente, in situazioni dove si controlla la pressione anziché il volume (come nei processi isobari), risulta conveniente definire l'energia libera di Gibbs:
\begin{equation}
G = F + PV = U - TS + PV
\end{equation}
Differenziando questa espressione, otteniamo:
\begin{equation}
dG = dF + PdV + VdP = -SdT + VdP + \mu dN
\end{equation}
Questa relazione mostra che $G = G(T,P,N)$ è funzione naturale della temperatura ($T$), della pressione ($P$) e del numero di particelle ($N$). Le sue derivate parziali sono:
\begin{align}
S &= -\left(\frac{\partial G}{\partial T}\right)_{P,N} \\
V &= \left(\frac{\partial G}{\partial P}\right)_{T,N} \\
\mu &= \left(\frac{\partial G}{\partial N}\right)_{T,P}
\end{align}
Infine, nei sistemi a potenziale chimico costante (come nei sistemi aperti in equilibrio con un serbatoio), si definisce il gran potenziale:
\begin{equation}
\Omega = U - TS - \mu N = F - \mu N
\end{equation}
Differenziando, si ottiene:
\begin{align}
d\Omega &= dF - \mu dN - N d\mu \\
&= (-S dT - P dV + \mu dN) - \mu dN - N d\mu \\
&= -S dT - P dV - N d\mu
\end{align}
Questo dimostra che $\Omega = \Omega(T,V,\mu)$ è funzione dell'entropia ($S$), del volume ($V$) e del potenziale chimico ($\mu$).
Con questi potenziali termodinamici, possiamo riformulare il principio di Clausius in termini più pratici per diverse condizioni sperimentali.
Consideriamo il caso di un sistema isolato meccanicamente, che non scambia lavoro meccanico con l'ambiente. Dal primo principio della termodinamica, abbiamo $dU = \delta Q$ (poiché $\delta W = 0$). Applicando il teorema di Clausius:
\begin{equation}
\Delta S \geq \int_A^B \frac{\delta Q}{T} = \int_A^B \frac{dU}{T}
\end{equation}
Da questa disuguaglianza, per un processo isotermo ($T$ costante), otteniamo:
\begin{equation}
T \Delta S \geq \Delta U
\end{equation}
Riarrangiando i termini e ricordando la definizione di energia libera di Helmholtz:
\begin{equation}
\Delta U - T \Delta S \leq 0 \Rightarrow \Delta F \leq 0
\end{equation}
Questo risultato ci dice che, mentre l'entropia di un sistema isolato tende ad aumentare, l'energia libera di Helmholtz tende a diminuire fino a raggiungere un minimo all'equilibrio. Analogamente, per un sistema isolato termicamente e meccanicamente (a $T$ e $P$ costanti), si può dimostrare che è l'energia libera di Gibbs a dover diminuire fino a raggiungere un valore minimo all'equilibrio:
\begin{equation}
\Delta G \leq 0
\end{equation}
Questa proprietà rende $G$ particolarmente utile nello studio delle reazioni chimiche in condizioni di temperatura e pressione costanti, che sono le condizioni più comuni in laboratorio.
La Meccanica Statistica rappresenta un ponte tra il mondo microscopico e macroscopico della fisica. Accettando l'impossibilità pratica di tracciare le traiettorie di circa 10²³ particelle, la meccanica statistica trasforma questa limitazione in una nuova prospettiva: studiare i sistemi attraverso distribuzioni di probabilità nello spazio delle fasi. Abbiamo poi fatto un breve ripasso della meccanica analitica e della termodinamica, mostrando le equazioni di Hamilton e facendo vedere un'apparente contraddizione tra la reversibilità di queste, e la non reversibilità dell'entropia, contraddizione che trova spiegazione proprio nell'approccio statistico. Infine abbiamo introdotto i potenziali termodinamici che possono risultare utili a seconda delle situazioni che si trattano.