Nell'articolo sull'introduzione alla meccanica statistica abbiamo parlato del problema della meccanica statistica, della notazione Lagrangiana e il collegamento tra sistemi Hamiltoniani e sistemi termodinamici macroscopici. Per comprendere come le proprietà microscopiche di un sistema determinino il suo comportamento macroscopico, dobbiamo sviluppare un formalismo matematico adeguato che ci permetta di costruire questo ponte tra due scale così diverse. Perciò in quest'articolo procederemo a formalizzare il problema, e vedremo la prima distribuzione che ci permette in qualche modo di descrivere lo spazio microscopico.
Ogni particella di un sistema può essere completamente descritta tramite le coordinate generalizzate della posizione e dell'impulso, che indicheremo rispettivamente con $q$ e $p$. Il $\Gamma-Space$ è lo spazio matematico di queste coordinate, dove un singolo punto fornisce la posizione e l'impulso di tutte le particelle del sistema in un dato istante. Quindi l'evoluzione temporale del sistema in esame può essere descritta da una curva in questo spazio. Considerando $N$ particelle che si muovono in uno spazio $d-dimensionale$, il $\Gamma-Space$ sarà uno spazio $N\cdot d$ dimensionale. Rappresentare graficamente uno spazio con così tante dimensioni risulta impossibile, quindi si rappresenta formalmente tramite un punto, che però contiene le informazioni di posizione e impulso su tutto il sistema. In sostanza lo spazio gamma può essere visto come un "super-spazio" dove ogni punto rappresenta un possibile stato microscopico completo del sistema. Alcune traiettorie in questo spazio rappresentano l'evoluzione temporale del sistema secondo le leggi della meccanica Hamiltoniana.
In questa serie di articoli si utilizzeranno spesso alcune delle seguenti notazioni. Innanzitutto introduciamo il vettore contenente tutte le informazioni sulla posizione e l'impulso di tutte le componenti del sistema, quindi definisco $\vec{X}$ il vettore contenente tutte le coordinate che caratterizzano il sistema:
$$\vec{X} = (q_1, \ldots, q_N, p_1, \ldots, p_N)$$
Per l'integrazione nello spazio gamma, utilizziamo una delle seguenti notazioni:
$$dq \, dp \rightarrow \prod_{k=1}^{D \cdot N} dq_k \, dp_k \rightarrow dq^{dN} \, dp^{dN}$$
che rappresentano l'integrazione su tutte le coordinate di posizione e impulso di tutte le $N$ particelle nel sistema.
Quando studiamo sistemi microscopici, ci confrontiamo con un fenomeno fondamentale: i fenomeni microscopici avvengono su scale temporali estremamente piccole rispetto alle scale temporali delle osservabili macroscopiche.
\begin{center}
\begin{tabular}{|c|c|}
\hline
\textbf{Scale temporali microscopiche} & \textbf{Scale temporali macroscopiche} \\
\hline
$\sim 10^{-15}$ - $10^{-12}$ s & $\sim 10^{-3}$ - $10^{0}$ s \\
(vibrazioni molecolari) & (tempi strumentali tipici) \\
\hline
\end{tabular}
\end{center}
Ogni strumento di misura ha i suoi tempi caratteristici di risposta che sono tipicamente molto più lunghi dei tempi di evoluzione microscopica del sistema. Di conseguenza, quando effettuiamo una misura di qualsiasi osservabile, quello che registriamo è in realtà una media temporale di ciò che accade nel mondo microscopico durante il tempo di misura. A questo proposito, definiamo la media temporale di un'osservabile $O$ come:
$$\bar{O} = \frac{1}{T_{\text{exp}}} \int_{t_0}^{t_0+T_{\text{exp}}} O(q(t), p(t)) \, dt$$
dove:
Per progredire nella nostra analisi, vorremmo esprimere la media temporale in termini di distribuzioni di probabilità. A tal fine utilizziamo le funzioni delta di Dirac per contare quante volte il sistema passa vicino a un determinato punto $(q, p)$ nello spazio gamma durante la sua evoluzione temporale. Per quantificare quante volte la traiettoria $q(t)$ passa in prossimità di una posizione $q$ di interesse, possiamo usare:
$$\int dq \, \delta(q(t) - q)$$
che conta il numero di occorrenze in cui il sistema si trova vicino alla posizione $q$. Analogamente, per l'impulso $p$:
$$\int dp \, \delta(p(t) - p)$$
che indica il numero di volte che il sistema ha un impulso vicino a $p$.
Poiché il sistema deve necessariamente trovarsi in qualche punto dello spazio delle fasi in ogni istante (garantendo la sua esistenza fisica), integrando su tutto lo spazio la funzione delta di Dirac si ottiene $1$, in formule:
$$\int dq \, dp \, \delta(q(t) - q) \delta(p(t) - p)=1$$
Possiamo quindi inserire queste funzioni delta all'interno della formula della media temporale:
$$\bar{O} = \frac{1}{T_{\text{exp}}} \int_{t_0}^{t_0+T_{\text{exp}}} dt \int dq \int dp \, \delta(p(t) - p) \, \delta(q(t) - q) \, O(q, p)$$
Applicando le proprietà della funzione delta di Dirac e riorganizzando gli integrali, possiamo riscrivere la media temporale come:
$$\bar{O} = \int dq \int dp \, O(q, p) \, \underline{\left[\frac{1}{T_{\text{exp}}} \int_{t_0}^{t_0+T_{\text{exp}}} dt \, \delta(p(t) - p) \, \delta(q(t) - q)\right]}$$
In questa forma, la quantità sottolineata potrebbe essere interpretata come una distribuzione di probabilità se l'integrale nel tempo fosse indipendente dalle condizioni iniziali del sistema e dalla durata dell'esperimento. Il termine sottolineato rappresenta la frazione di tempo che il sistema trascorre in prossimità del punto $(q, p)$ nello spazio gamma durante l'evoluzione del sistema. Quando questa frazione può essere espressa come una distribuzione di probabilità ben definita, possiamo sostituire le medie temporali con medie statistiche.
Introduciamo due concetti alla base della meccanica statistica:
Nella meccanica statistica ci occupiamo di sistemi termodinamici all'equilibrio. Infatti al di fuori di questi stati non sono ben definite le osservabili termodinamiche, quindi non possiamo dire niente su quanto accade microscopicamente, per questo la meccanica statistica non ci aiuta.
Supponiamo ora di preparare un sistema macroscopico in un certo stato di equilibrio termodinamica, una volta preparato, non conosciamo con precisione la distribuzione microscopica di tutte le particelle. Questo porta alla luce una caratteristica fondamentale della meccanica statistica: microstati differenti possono dare luogo allo stesso macrostato. L'insieme di tutti i microstati compatibili con un dato macrostato viene chiamato ensemble. Quindi un ensamble non è altro che un insieme di punti nel $\Gamma -Space$ compatibili con determinate condizioni macroscopiche. Inoltre se questi punti fossero descritti da una certa distribuzione $\rho_(q,p,t)$ nello spazio delle fasi, allora l'ensamble si definisce ensamble di Gibbs.
Un ensemble di particolare importanza è l'\defconcept{ensemble microcanonico}, che descrive un sistema isolato con energia totale fissata $E$. In questo ensemble, tutti i microstati possibili sono quelli che soddisfano la condizione $H(q,p) = E$, dove $H(q,p)$ è l'Hamiltoniana del sistema.
La distribuzione di probabilità nell'ensemble microcanonico può essere formalmente scritta come:
$$\rho_{\text{micro}} = \begin{cases}
\text{cost} & \text{se } H(q,p) = E \\
0 & \text{altrimenti}
\end{cases}$$
o, in forma più compatta, utilizzando la distribuzione delta di Dirac:
$$\rho_{\text{micro}} = \text{cost} \cdot \delta(H(q,p) - E)$$
Notiamo quindi che la distribuzione così definita dipende dall'hamiltoniana del sistema.
Per descrivere l'ensamble microcanonico, abbiamo usato una distribuzione costante nel caso in cui venisse soddisfatta la condizione dell'energia. In altre parole abbiamo considerato tutti i microstati che rispettano le condizione energetica come equiprobabili tra loro. Quest'ultimo passagio non sappiamo dimostrarlo, ma allo stesso tempo non abbiamo alcuna informazione che ci faccia pensare che un microstato sia più probabile di un altro, per questo motivo si postula. La meccanica statistica si basa su un postulato fondamentale, il postulato di uguale probabilità a priori. Secondo questo postulato: "Tutti i microstati accessibili a un sistema all'equilibrio sono equiprobabili". Stiamo quindi postulando la massima ignoranza su quale preciso microstato occupi il nostro sistema.
Nella pratica, non è mai possibile preparare un sistema con un'energia perfettamente definita, a causa dei limiti di precisione degli strumenti di misura. Inoltre, lo stesso processo di misura introduce necessariamente una perturbazione nel sistema. Di conseguenza, l'energia di un sistema reale non sarà mai esattamente $E$, ma avrà una piccola incertezza $\Delta E \ll E$.
In questo caso più realistico, la distribuzione dell'ensemble microcanonico diventa:
$$\rho_{\text{micro}} = \text{cost} \cdot [\Theta(H(q,p) - E) - \Theta(H(q,p) - (E + \Delta E))]$$
dove $\Theta$ è la funzione gradino di Heaviside. Questa formula seleziona tutti i microstati con energia compresa nell'intervallo $[E, E+\Delta E]$.
Il teorema di Liouville è un risultato fondamentale della meccanica Hamiltoniana che ha importanti implicazioni per la meccanica statistica. Questo afferma che: "Il volume nello spazio delle fasi occupato da un insieme di punti che evolvono secondo le equazioni di Hamilton si conserva nel tempo".
In altre parole, considerando un certo volume nello spazio gamma e lasciandolo evolvere secondo le equazioni di Hamilton, il volume risultante rimarrà invariato, anche se la forma di quest'ultimo potrebbe cambiare drasticamente.
Questo risultato deriva dal fatto che l'evoluzione temporale governata dalle equazioni di Hamilton costituisce una trasformazione canonica, questi tipo di trasformazioni infatti preservano il volume nello spazio delle fasi. Tuttavia qui verrà dimostrato diversamente.
Quindi consideriamo un volumetto infinitesimo $\Omega$ nello spazio gamma, con superficie $S$. Definiamo il vettore velocità $\vec{V}$ come la derivata temporale totale del vettore posizione nello spazio gamma:
$$\vec{V} = \frac{d\vec{X}}{dt} = (\dot{q}_1, \dot{q}_2, \ldots, \dot{q}_N, \dot{p}_1, \dot{p}_2, \ldots, \dot{p}_N)$$
dove $\dot{q}_i$ e $\dot{p}_i$ sono le derivate temporali delle coordinate generalizzate e dei momenti coniugati, determinate dalle equazioni di Hamilton.
Se consideriamo la distribuzione di densità $\rho(q,p,t)$ dei punti nello spazio gamma, la variazione temporale totale del numero di punti all'interno del volume $\Omega$ deve essere uguale al flusso netto di punti attraverso la sua superficie:
$$\frac{d}{dt} \int_{\Omega} \rho(q,p) \, dq \, dp = -\int_{S} \rho \vec{V} \cdot \hat{n} \, dS$$
dove $\hat{n}$ è il versore normale alla superficie $S$. Per il flusso si utilizza il vettore velocità perché in un intorno del punto dove viene calcolato descrive l'evoluzione temporale del sistema. Applicando il teorema della divergenza, otteniamo:
$$\frac{d}{dt} \int_{\Omega} \rho(q,p) \, dq \, dp = -\int_{\Omega} \nabla \cdot (\rho \vec{V}) \, dq \, dp$$
Portando la derivata temporale all'interno dell'integrale questa diventa una derivata parziale, perciò si trova:
$$\int_{\Omega}dq \, dp \, \frac{\partial \rho}{\partial t} + \nabla \cdot (\rho \vec{V}) =0$$
Da questa quindi otteniamo un'equazione di continuità:
$$\frac{\partial \rho}{\partial t} + \nabla \cdot (\rho \vec{V}) = 0$$
Possiamo riscrivere l'equazione di continuità esplicitando la divergenza in termini delle coordinate generalizzate:
$$\frac{\partial \rho}{\partial t} + \sum_{i=1}^{D \cdot N} \left(\frac{\partial \rho}{\partial q_i} \dot{q}_i + \frac{\partial \rho}{\partial p_i} \dot{p}_i\right) + \rho \left(\sum_{i=1}^{D \cdot N} \frac{\partial \dot{q}_i}{\partial q_i} + \frac{\partial \dot{p}_i}{\partial p_i}\right) = 0$$
Utilizzando le equazioni di Hamilton, $\dot{q}_i = \frac{\partial H}{\partial p_i}$ e $\dot{p}_i = -\frac{\partial H}{\partial q_i}$, possiamo riscrivere questa equazione come:
$$\frac{\partial \rho}{\partial t} + \sum_{i=1}^{D \cdot N} \left(\frac{\partial \rho}{\partial q_i} \frac{\partial H}{\partial p_i} - \frac{\partial \rho}{\partial p_i} \frac{\partial H}{\partial q_i}\right) + \rho \left(\sum_{i=1}^{D \cdot N} \frac{\partial^2 H}{\partial q_i \partial p_i} - \frac{\partial^2 H}{\partial p_i \partial q_i}\right) = 0$$
Osserviamo che gli ultimi due termini all'interno della seconda sommatoria si annullano a vicenda, poiché le derivate parziali miste sono uguali (teorema di Schwarz). L'espressione si semplifica quindi in:
$$\frac{\partial \rho}{\partial t} + \sum_{i=1}^{D \cdot N} \left(\frac{\partial \rho}{\partial q_i} \frac{\partial H}{\partial p_i} - \frac{\partial \rho}{\partial p_i} \frac{\partial H}{\partial q_i}\right) = 0$$
Ricordando la definizione delle parentesi di Poisson possiamo riscrivere l'ultima espressione come segue:
$$\frac{\partial \rho}{\partial t} + \{\rho, H\} = 0$$
Siccome l'evoluzione una qualsiasi funzione $f_{(q,p,t)}$ nello spazio delle fasi, è data da:
$$\frac{df}{dt}=\frac{\partial f}{\partial t} + \{f, H\}$$
Vediamo che:
$$\frac{\partial \rho}{\partial t} + \{\rho, H\} = 0 \Rightarrow \frac{d\rho}{dt}=0$$
Perciò l'equazione di continuità mostra come la distribuzione si conservi lungo le soluzioni del moto. Siccome la densità dei punti si conserva nel tempo, questo implica che il volume occupato da un insieme di punti che evolvono secondo le equazione di Hamilton resti costante, dimostrando così il teorema di Liouville.
Inoltre all'equilibrio, la distribuzione $\rho$ non deve dipendere dal tempo, quindi $\frac{\partial \rho}{\partial t} = 0$. Di conseguenza, l'equazione di continuità all'equilibrio diventa:
$$\{\rho, H\} = 0$$
Da questa si trova che $\rho$ debba essere una funzione dell'Hamiltoniana stessa, perciò $\rho = \rho(H)$. Questa dipendenza dall'Hamiltoniana, giustifica in qualche modo la dipendenza della distribuzione microcanonica da questa.
È importante sottolineare alcune condizioni che le traiettorie devono rispettare affinché siano traiettorie fisiche.
Quindi le traiettorie possono quindi formare solo curve aperte o curve chiuse semplici, garantendo l'univocità dell'evoluzione temporale sia in avanti che all'indietro nel tempo.
Dopo aver introdotto il gamma space, il teorema di Liouville e l'ensemble microcanonico, affrontiamo ora un problema fondamentale: sotto quali condizioni è possibile esprimere le medie temporali tramite medie statistiche utilizzando distribuzioni di probabilità? La risposta a questa domanda ci porta al concetto di ergodicità.
Un sistema si dice ergodico quando è in grado di esplorare in maniera ottimale tutto lo spazio delle fasi accessibile, visitando tutti i microstati disponibili compatibili con i vincoli macroscopici. Al contrario, un sistema non ergodico tende a rimanere confinato in regioni limitate dello spazio delle fasi, senza mai esplorare completamente tutti i microstati possibili.
L'importanza dei sistemi ergodici in meccanica statistica deriva dai teoremi di Birkhoff, che stabiliscono precise relazioni tra medie temporali e medie statistiche.
Di seguito si riportano gli enunciati dei due teoremi di Birkhoff riguardanti i sistemi ergodici:
Nonostante l'eleganza teorica dei teoremi di Birkhoff, la loro applicazione pratica incontra due importanti limitazioni:
Consideriamo un esempio per illustrare il concetto di ergodicità e i tempi di convergenza. Dato un sistema con $N$ paricelle in $d$ dimensioni, sia $A(q,p)$ un'osservabile definita come:
$$A(q,p) = \begin{cases}
\text{cost} & \text{se } (q,p) \in G \\
0 & \text{altrimenti}
\end{cases}$$
dove $G$ è un sottoinsieme del volume accessibile nello spazio delle fasi (cioè, dell'ipersuperficie definita da $H(q,p) = E$).
Per un sistema ergodico, la media statistica di questa osservabile nell'ensemble microcanonico sarà:
$$\langle A \rangle = \frac{\text{Vol}(G)}{\Gamma(E)}$$
dove $\Gamma(E)$ è il volume dell'ipersuperficie con energia $E$.
Per dimostrare questo risultato, ricordiamo che la distribuzione nell'ensemble microcanonico è:
$$\rho_{\text{micro}} = \text{cost} \cdot \delta(H(q,p) - E)$$
La condizione di normalizzazione impone:
$$1 = \int dq \int dp \, \rho_{\text{micro}} = \text{cost} \int dq \int dp \, \delta(H(q,p) - E) = \text{cost} \cdot \Gamma(E)$$
Da cui ricaviamo:
$$\text{cost} = \frac{1}{\Gamma(E)}$$
La media statistica dell'osservabile $A$ sarà quindi:
$$\langle A \rangle = \int dq \int dp \, A(q,p) \, \rho_{\text{micro}} = \frac{1}{\Gamma(E)} \int dq \int dp \, A(q,p) \, \delta(H(q,p) - E) = \frac{\text{Vol}(G)}{\Gamma(E)}$$
Affinché la media temporale sia uguale alla media statistica calcolata sopra, il sistema deve avere il tempo di esplorare tutto lo spazio delle fasi accessibile. Il tempo caratteristico $\tau$ necessario per questa esplorazione completa dipende dal rapporto tra il volume $G$ e il volume totale disponibile:
$$\tau \sim \frac{1}{\varepsilon^{\gamma N}}$$
Infatti se prendessimo il volume infinitesimo $d\vec{q}\,d\vec{p}$, questo scalerebbe come$\varepsilon^{2d}$. Siccome il sistema è composto da $N$ particelle, il volume infinitesimo scalerà come $\epsilon^{2dN}$. Vediamo il perché i fattori all'esponente:
Siccome è questo il volumetto che andrà a partizionare tutto lo spazio, il tempo caratteristico dipenderà inversamente da questa grandezza, spiegando così la formula sopra riportata. Perciò minore sarà $Vol(G)$ più tempo impiegherà $\varepsilon$ a partizionarlo, di conseguenza il tempo di convergenza aumenterà, perciò $\gamma$ esprime proprio questa dipendenza. Un problema ulteriore dell'osservabile $A$ definita sopra è che basterebbe che una sola particella si trovi fuori dalla regione $G$ per annullare completamente il valore dell'osservabile. Per sistemi con molte particelle, questo comporterebbe oscillazioni molto ampie nel valore istantaneo dell'osservabile.
Le problematiche sopra esposte riguardanti i problemi dei tempi di convergenza e delle forti oscillazioni, si avrebbero se a noi interessasse una qualsiasi osservabile. Tuttavia i nostri occhi sono puntati sulle poche osservabili termodinamiche, che oltretutto sono osservabili macroscopiche e quindi sono poco sensibili alle fluttuazioni delle singole particelle.
Consideriamo quindi sistemi con hamiltoniana separabile, vale a dire che sia scrivibile come somma di hamiltoniane di singola particella:
$$H(q,p) = \sum_{i=1}^{N} H_i(q_i, p_i)$$
e osservabili anch'esse separabili:
$$f(q,p) = \sum_{i=1}^{N} f_i(q_i, p_i)$$
Per questi sistemi, i teoremi di Khinchin stabiliscono due importanti risultati:
dove $c_1$ e $c_2$ sono costanti positive.
In sostanza i teoremi di Khinchin stabiliscono che, per sistemi con un grande numero di particelle ($N \gg 1$), le fluttuazioni relative delle osservabili diventano trascurabili. Questo fornisce una giustificazione matematica per l'utilizzo delle medie statistiche nella descrizione dei sistemi macroscopici, anche quando l'ergodicità stretta potrebbe non essere verificata o richiederebbe tempi di osservazione impossibilmente lunghi.
In questo articolo abbiamo introdotto i concetti fondamentali dello spazio gamma (o spazio delle fasi), delle distribuzioni di probabilità, dell'ensemble microcanonico nella meccanica statistica e dei sistemi ergodici. Abbiamo mostrato come il teorema di Liouville giustifichi la forma della distribuzione all'equilibrio e come i teoremi di Birkhoff e Khinchin stabiliscano le condizioni sotto le quali le medie temporali possono essere sostituite da medie statistiche. Il passaggio dalla descrizione microscopica a quella macroscopica di un sistema termodinamico rappresenta uno dei più grandi successi della fisica teorica, permettendoci di comprendere come il comportamento collettivo di un enorme numero di particelle dia origine alle leggi macroscopiche della termodinamica.