L'entropia di Boltzmann

Introduzione all'Ensemble Microcanonico

L'ensemble microcanonico rappresenta uno dei pilastri concettuali della meccanica statistica, fornendo un framework teorico per descrivere sistemi fisici isolati caratterizzati da energia fissa. Nella formulazione esposta, questo ensemble è stato definito attraverso l'utilizzo della funzione delta di Dirac, che fissa l'energia del sistema ad un valore preciso. Tale approccio, sebbene matematicamente conveniente, solleva immediate perplessità dal punto di vista fisico, poiché contrasta con il principio fondamentale secondo cui è impossibile determinare con precisione infinita il valore di qualsiasi grandezza fisica. In questo articolo, giustificheremo tale approssimazione mostrando come una trattazione più realistica che considera una piccola incertezza nell'energia converga alla formulazione con la delta di Dirac. Introdurremo inoltre l'entropia di Boltzmann e dimostreremo come questa grandezza soddisfi tutte le proprietà fondamentali dell'entropia termodinamica classica, con particolare attenzione all'additività per sistemi composti e alla sua natura estensiva, proporzionale al numero di particelle del sistema.

Ensemble Microcanonico

Nella meccanica statistica, l'ensemble microcanonico descrive un sistema isolato con energia totale fissata. In accordo con l'articolo precedente, lo definiamo utilizzando la funzione delta di Dirac, che fissa l'energia ad un valore preciso. Tuttavia, questa rappresentazione ideale non corrisponde alle situazioni reali, dove è sempre presente una piccola incertezza nella misura dell'energia. Una definizione più realistica della distribuzione microcanonica può essere formulata come:

\begin{equation}
\rho_{\text{micro}} = \frac{1}{\Gamma_\Delta} \left[ \Theta(E+\Delta-H) - \Theta(E-H) \right]
\end{equation}

dove $\Theta$ è la funzione a gradino di Heaviside, $H$ è l'hamiltoniana del sistema, $E$ è l'energia fissata, $\Delta$ è una piccola variazione dell'energia e $\Gamma_\Delta$ è il fattore di normalizzazione. Questa definizione considera che l'energia del sistema possa trovarsi in un intervallo $[E, E+\Delta]$ anziché avere esattamente il valore $E$. Nel limite per $\Delta \to 0$, troviamo:

\begin{equation}\frac{\Theta(E+\Delta-H) - \Theta(E-H)}{\Delta} \xrightarrow{\Delta \to 0} \delta(E-H)\end{equation}

Quindi, nel limite di $\Delta$ tendente a zero, la distribuzione microcanonica assume la forma più familiare:

\begin{equation}
\rho_{\text{micro}} = \frac{\Delta}{\Gamma_\Delta} \left[ \frac{\Theta(E+\Delta-H) - \Theta(E-H)}{\Delta} \right] \xrightarrow{\Delta \to 0}\frac{\delta(E-H)}{\Gamma}
\end{equation}

dove $\Gamma$ è il fattore di normalizzazione. Vediamo quindi che queste due definizioni sono coerenti tra loro, in quanto è ben definito il limite che porta l'una dall'altra, quindi per comodità di calcolo e trattazione useremo la delta, tenendo a mente che la trattazione con la theta di Heaviside è del tutto equivalente, ma formalmente più lunga.
Per rinforzare quanto detto, vediamo il limite applicato quando si calcolano i valori medi di una certa osservabile $O$. Il valore medio di un'osservabile $O$ nell'ensemble microcanonico è dato da:

\begin{equation}\langle O \rangle = \int dq \int dp , O(q,p) \rho_{\text{micro}}(q,p)\end{equation}

Utilizzando la definizione di distribuzione microcanonica, otteniamo:

\begin{equation}\langle O \rangle = \frac{1}{\Gamma_\Delta} \int dq \int dp , O(q,p) \left[ \frac{\Theta(E+\Delta-H) - \Theta(E-H)}{\Delta} \right] \Delta\end{equation}

Nel limite $\Delta \to 0$, questo diventa:

\begin{equation}\langle O \rangle = \frac{1}{\Gamma} \int dq \int dp , O(q,p) \delta(E-H(q,p))\end{equation}

Questi passaggi mostrano come si passi da una definizione all'altra, mettendo in risalto l'equivalenza tra le due.

L'Entropia di Boltzmann

L'entropia di Boltzmann è definita come:

\begin{equation}S = k_B \ln \Gamma(E, V, N)\end{equation}

dove $k_B$ è la costante di Boltzmann e $\Gamma(E, V, N)$ rappresenta il numero di microstati accessibili al sistema con energia $E$, volume $V$ e numero di particelle $N$. È importante comprendere il significato fisico di $\Gamma(E,V,N)$: questa grandezza conta il numero di volte che un certo microstato attraversa un dato punto dello spazio delle fasi, o equivalentemente, il numero di microstati accessibili che rispettano la condizione sull'energia imposta. La funzione delta di Dirac svolge proprio il ruolo di contatore: nell'integrale, essa dà come risultato 111 ogni volta che si attraversa un microstato che rispetta la condizione data. Siccome l'integrale è essenzialmente una somma, il risultato finale rappresenta il numero di volte in cui la delta si è "accesa", ovvero il numero totale di microstati che soddisfano la condizione energetica.
Per dimostrare che questa definizione soddisfa le proprietà dell'entropia termodinamica nel limite termodinamico (per un numero di particelle tendente all'infinito), dobbiamo verificare:

  1. L'additività dell'entropia
  2. Il rispetto del principio zero della termodinamica
  3. Il rispetto del primo principio della termodinamica
  4. Il rispetto del secondo principio della termodinamica

Additività dell'Entropia

Consideriamo un sistema isolato composto da due sottosistemi, separati da una parete adiabatica esterna, cosicché il sistema non scambi energia con l'ambiente, e da una parete interna che permette lo scambio di energia tra i due sottosistemi. Supponiamo di restare a densità fissa con:

  • $N_1$​ e $V_1$​: numero di particelle e volume del primo sottosistema (fissati)
  • $N_2$​ e $V_2$​: numero di particelle e volume del secondo sottosistema (fissati)
  • $E = E_1 + E_2$: energia totale conservata, con $E_1$ ed $E_2$ che possono variare

Vogliamo dimostrare l'additività dell'entropia in questo scenario. Supponiamo di fissare anche $E_1$ ed $E_ 2$ tali che $E_1 + E_2 = E$. In questo scenario abbiamo che $\Gamma(E,V,N)$ è il numero di microstati che hanno energia $E$, questo numero è dato da tutte le combinazioni dei microstati del sottosistema $1$ che hanno energia $E_1$ e del sottosistema $2$ che hanno energia $E_2$. Siccome un qualsiasi microstato dell'uno può essere accoppiato con tutti i microstati dell'altro, sempre che rispettino la condizione sull'energia, in formule si ha:

\begin{equation}
\Gamma(E,V,N) =  \Gamma_1(E_1,V_1,N_1) \cdot \Gamma_2(E_2,V_2,N_2)
\end{equation}

Siccome ci sono diverse combinazioni di $E_1$ ed $E_2$ che sommate danno energia totale $E$, dobbiamo considerarle tutte, pertanto integriamo:

\begin{equation}\Gamma(E,V,N) = \int dE_1 \int dE_2 , \Gamma_1(E_1,V_1,N_1) \cdot \Gamma_2(E_2,V_2,N_2) \cdot \delta(E_1 + E_2 - E)\end{equation}

Questa espressione riflette il fatto che abbiamo $\Gamma_1(E_1,V_1,N_1)$ microstati possibili per il primo sottosistema con energia $E_1$, $\Gamma_2(E_2,V_2,N_2)$ microstati per il secondo sottosistema con energia $E_2$, e il vincolo che $E_1 + E_2 = E$. Integrando rispetto a $E_2$ (sfruttando la proprietà della delta di Dirac), otteniamo:

\begin{equation}\Gamma(E,V,N) = \int dE_1 , \Gamma_1(E_1,V_1,N_1) \cdot \Gamma_2(E-E_1,V_2,N_2)\end{equation}

Un modo alternativo per derivare questo risultato è considerare l'hamiltoniana totale $H = H_1 + H_2 + H_{12}$, dove $H_{12}$ rappresenta l'interazione tra i due sottosistemi. Se l'interazione è a corto raggio, possiamo trascurare $H_{12}$ e ottenere:

\begin{equation}\Gamma = \int dq \int dp , \delta(H_1 + H_2 - E)\end{equation}

Inserendo le opportune delta di Dirac per le energie dei singoli sottosistemi:

\begin{align}\Gamma &= \int dE_1 \int dE_2 , \delta(E_1 + E_2 - E) \int dq_1 dp_1 , \delta(H_1(q_1,p_1) - E_1) \int dq_2 dp_2 , \delta(H_2(q_2,p_2) - E_2) \&= \int dE_1 \int dE_2 , \delta(E_1 + E_2 - E) \Gamma_1(E_1, V_1, N_1) \Gamma_2(E_2, V_2, N_2)\end{align}

Arriviamo così alla stessa espressione trovata in precedenza. A questo punto, calcoliamo l'entropia totale. Dalla definizione, abbiamo:

\begin{equation}e^{S/k_B} = \Gamma(E,V,N)\end{equation}

Sostituendo l'espressione di $\Gamma$ trovata:

\begin{equation}e^{S/k_B} = \int dE_1 , \Gamma_1(E_1,V_1,N_1) \cdot \Gamma_2(E-E_1,V_2,N_2)\end{equation}

Usando la definizione di entropia per i singoli sottosistemi, possiamo riscrivere:

\begin{equation}e^{S/k_B} = \int dE_1 , e^{S_1(E_1,V_1,N_1)/k_B} \cdot e^{S_2(E-E_1,V_2,N_2)/k_B}\end{equation}

Che possiamo riformulare come:

\begin{equation}e^{S/k_B} = \int dE_1 , e^{[S_1(E_1,V_1,N_1) + S_2(E-E_1,V_2,N_2)]/k_B}\end{equation}

A questo punto, applichiamo l'approssimazione di picco. Questa approssimazione si basa sul fatto che, per sistemi macroscopici, l'integrando è estremamente piccato intorno al suo valore massimo.

La condizione di massimo per l'esponente $[S_1(E_1,V_1,N_1) + S_2(E-E_1,V_2,N_2)]/k_B$ rispetto a $E_1$ è:

\begin{equation}\frac{1}{k_B} \left( \frac{\partial S_1(E_1,V_1,N_1)}{\partial E_1} + \frac{\partial S_2(E-E_1,V_2,N_2)}{\partial E_1} \right) = 0\end{equation}

Considerando che $\frac{\partial S_2(E-E_1)}{\partial E_1} =\left.\frac{\partial S_2(E-E_1)}{\partial E_2} \right|_{\bar{E_2}=E-E_1}\left.\frac{\partial E_2}{\partial E_1} \right|_{\bar{E_2}=E-E_1}=-\frac{\partial S_2(E_2)}{\partial E_2}$, otteniamo:

\begin{equation}
\frac{\partial S_1(E_1,V_1,N_1)}{\partial E_1} = \left.\frac{\partial S_2(E_2,V_2,N_2)}{\partial E_2}\right|_{\bar{E_2}=E-E_1}
\end{equation}

Questa equazione ci dice che, all'equilibrio, le derivate dell'entropia rispetto all'energia dei due sottosistemi devono essere uguali. Definiamo quindi la temperatura come:

\begin{equation}\frac{1}{T} = \frac{\partial S}{\partial E}\end{equation}

Questa definizione dimostra che, all'equilibrio, due corpi in contatto termico devono avere la stessa temperatura, verificando così il principio zero della termodinamica. Proseguendo con l'approssimazione di picco, l'integrale diventa:

\begin{equation}
e^{S/k_B} \approx e^{[S_1(E_1^*,V_1,N_1) + S_2(E_2^*,V_2,N_2)]/k_B} \sqrt{\frac{2\pi}{\left| \frac{\partial^2 S_1}{\partial E_1^2} + \frac{\partial^2 S_2}{\partial E_2^2}\right|}}
\end{equation}

dove $E_1^*$ è il valore di $E_1$ che massimizza l'esponente e $E_2^* = E - E_1^*$. Ora, osserviamo che sia $S$ che $E$ sono proporzionali a $N$ (sono quantità estensive). Questo implica che $\frac{\partial^2 S}{\partial E^2} \sim \frac{1}{N}$. Di conseguenza, il termine sotto radice è proporzionale a $\sqrt{N}$. Quindi possiamo riscrivere:
\begin{equation}
e^{S/k_B} \approx e^{[S_1(E_1^*,V_1,N_1) + S_2(E_2^*,V_2,N_2)]/k_B} \sqrt{N} = ^{[S_1(E_1^*,V_1,N_1) + S_2(E_2^*,V_2,N_2)]/k_B + \frac{1}{2}ln(N)}
\end{equation}

Nel limite termodinamico ($N \to \infty$), il contributo del termine logaritmico è sottodominante rispetto a quelli lineari (dati da $S$), perciò lo trascuro. Quindi:

\begin{equation}
e^{S/k_B} \approx e^{[S_1(E_1^*,V_1,N_1) + S_2(E_2^*,V_2,N_2)]/k_B}
\end{equation}

Prendendo il logaritmo naturale di entrambi i membri:

\begin{equation}
S \approx S_1(E_1^*,V_1,N_1) + S_2(E_2^*,V_2,N_2)
\end{equation}

Questo dimostra l'additività dell'entropia nel limite termodinamico.

Definizione della Pressione

Consideriamo ora il caso in cui il sistema totale è isolato e anche la parete interna è adiabatica, ma mobile. In questo scenario:

  • $E_1$ è fissata.
  • $N_1$ è fissato.
  • $E_2$​ è fissata.
  • $N_2$ è fissato.
  • I volumi $V_1$ e $V_2$ invece possono variare, con il vincolo $V = V_1 + V_2$​.

Ripetendo un'analisi simile a quella precedente, otteniamo:

\begin{equation}\Gamma(E,V,N) = \int dV_1 , \Gamma_1(E_1,V_1,N_1) \cdot \Gamma_2(E_2,V-V_1,N_2)\end{equation}

Applicando di nuovo l'approssimazione del punto di sella, troviamo la condizione di equilibrio:

\begin{equation}\frac{\partial S_1}{\partial V_1} = \frac{\partial S_2}{\partial V_2}\end{equation}

Definiamo quindi la pressione come:

\begin{equation}\frac{\partial S}{\partial V} = \frac{P}{T}\end{equation}

Questa relazione ci dice che, all'equilibrio, le pressioni dei due sottosistemi devono essere uguali.

Sistemi con Scambio di Particelle

IIn modo analogo, considerando un sistema che permette lo scambio di particelle (con parete permeabile), troviamo:

\begin{equation}
\frac{\partial S}{\partial N} = -\frac{\mu}{T}
\end{equation}

dove $\mu$ è il potenziale chimico. All'equilibrio, i potenziali chimici dei due sottosistemi devono essere uguali.

Verifica del Primo Principio della Termodinamica

Dal primo principio della termodinamica, sappiamo che:

\begin{equation}dE = \delta Q + \delta W = TdS - PdV + \mu dN\end{equation}

Riarrangiando, otteniamo:

\begin{equation}dS = \frac{1}{T}dE + \frac{P}{T}dV - \frac{\mu}{T}dN\end{equation}

Da cui ricaviamo:

\begin{equation}\frac{\partial S}{\partial E} = \frac{1}{T}, \quad \frac{\partial S}{\partial V} = \frac{P}{T}, \quad \frac{\partial S}{\partial N} = -\frac{\mu}{T}\end{equation}

Queste relazioni sono esattamente quelle che abbiamo derivato dalla meccanica statistica, verificando così il primo principio della termodinamica.

Il secondo principio della termodinamica è automaticamente soddisfatto dalla definizione di entropia, poiché quando si rimuove un vincolo, l'unico risultato possibile è l'aumento dell'entropia. Questo avviene perché la rimozione di un vincolo aumenta il numero di microstati disponibili al sistema, e quindi aumenta l'entropia.

Definizioni Alternative dell'Entropia

Possiamo definire un'entropia alternativa come:

\begin{equation}
\tilde{S} = k_B \ln \Sigma(E)
\end{equation}

dove $\Sigma(E)$ è il volume dello spazio delle fasi con energia minore o uguale a $E$:

\begin{equation}
\Sigma(E) = \int dq \int dp \, \Theta(E-H(q,p))
\end{equation}

La relazione tra $\Gamma(E)$ e $\Sigma(E)$ è data da:

\begin{equation}
\Gamma(E) = \frac{d\Sigma(E)}{dE}
\end{equation}
Adesso partizioniamo il volume $\Sigma(E)$, dividenolo in tanti piccoli volumi $\Gamma_{\Delta}$, tali che in ciascuno di essi l'energia possa essere considerata approssimativamente costante. Otteniamo quindi:
\begin{equation}
   \Sigma(E)= \sum_{\Delta} \Gamma_{\Delta}
\end{equation}
Quindi, ricordando la definizione di entropia, si ha:
\begin{equation}
   \Sigma(E)=e^{\tilde{S}/k_b}= \sum_{\Delta} e^{S_{\Delta}/k_b} \sim e^{S(E)/k_b}
\end{equation}
Nell'ultima uguaglianza abbiamo sfruttato un fatto fondamentale: l'entropia cresce con l'energia, poiché aumenta il numero di microstati accessibili. Dato che l'energia massima qui è $E$ (per via della funzione $\Theta$), l'entropia massima sarà proprio $S(E)$, e quindi la sommatoria sarà dominata da questo termine nel limite termodinamico.

Valor Medio di $H_1$

Calcoliamo ora il valore medio di $H1$ (l'hamiltoniana del primo sottosistema) all'interno del sistema composto:

\begin{equation}
\langle H_1 \rangle = \frac{1}{\Gamma(E)} \int dq \int dp , H_1 , \delta(H_1 + H_2 - E)
\end{equation}
Seguendo lo stesso procedimento usato in precedenza, inseriamo le delta di Dirac per le energie dei singoli sottosistemi:
\begin{align}
\langle H_1 \rangle &= \frac{1}{\Gamma(E)} \int dE_1 \int dE_2 \, E_1 \, \delta(E_1 + E_2 - E) \int dq_1 dp_1 \, \delta(H_1(q_1,p_1) - E_1) \int dq_2 dp_2 \, \delta(H_2(q_2,p_2) - E_2) \\
&= \frac{1}{\Gamma(E)} \int dE_1 \int dE_2 , E_1 \, \delta(E_1 + E_2 - E) \, \Gamma_1(E_1, V_1, N_1) \, \Gamma_2(E_2, V_2, N_2)
\end{align}
Integrando rispetto a $E2$ otteniamo:

\begin{equation}
\langle H_1 \rangle = \frac{1}{\Gamma(E)} \int dE_1 \, E_1 \, \Gamma_1(E_1, V_1, N_1) \, \Gamma_2(E-E_1, V_2, N_2)
\end{equation}
Utilizzando le definizioni di entropia, possiamo riscrivere:
\begin{equation}
\langle H_1 \rangle = \frac{1}{\Gamma(E)} \int dE_1 \, E_1 \, e^{S_1(E_1,V_1,N_1)/k_B} \, e^{S_2(E-E_1,V_2,N_2)/k_B}
\end{equation}
Che può essere espresso come:
\begin{equation}
\langle H_1 \rangle = \frac{1}{\Gamma(E)} \int dE_1 \, E_1 \, e^{[S_1(E_1,V_1,N_1) + S_2(E-E_1,V_2,N_2)]/k_B}
\end{equation}
Possiamo riscrivere questo integrale come:
\begin{equation}
\langle H_1 \rangle = \frac{1}{\Gamma(E)} \int dE_1 \, e^{[S_1(E_1,V_1,N_1) + S_2(E-E_1,V_2,N_2)]/k_B + \ln(E_1)}
\end{equation}

Osserviamo che $ln⁡(E1)$ cresce come $ln(N)$, quindi è un termine subdominante rispetto a $S_1$ e $S_2$, che invece crescono come $N$. Nel limite termodinamico, questo termine logaritmico non modifica il punto di massimo dell'esponenziale. Perciò applicando l'approssimazione di picco, otteniamo:
\begin{equation}
\langle H_1 \rangle = \frac{1}{\Gamma(E)} \, E_1^* \, e^{[S_1(E_1^*,V_1,N_1) + S_2(E-E_1^*,V_2,N_2)]/k_B}
\end{equation}
dove $E_1^*$ è il valore di $E_1$ che massimizza l'esponente. Ma riconosciamo che:

\begin{equation}
\frac{1}{\Gamma(E)} \, e^{[S_1(E_1^*,V_1,N_1) + S_2(E-E_1^*,V_2,N_2)]/k_B} = \frac{e^{S/k_B}}{\Gamma(E)} = 1
\end{equation}
Quindi, otteniamo semplicemente:
\begin{equation}
\langle H_1 \rangle = E_1^*
\end{equation}
Questo importante risultato dimostra che, all'equilibrio, il valore medio dell'energia del primo sottosistema coincide esattamente con il valore $E_1^*$ che massimizza l'entropia totale del sistema. Conferma quindi che l'energia si distribuisce tra i sottosistemi in modo da massimizzare l'entropia totale, in pieno accordo con il secondo principio della termodinamica.

Entropia: Una Quantità Estensiva

Per dimostrare definitivamente che l'entropia è una quantità estensiva (proporzionale a $N$), dobbiamo considerare la natura discreta dello spazio delle fasi, spiegabile dalla precisione finita degli strumenti di misura e dalla meccanica quantistica.

In un sistema fisico reale, non possiamo avere valori continui delle posizioni $q$ e degli impulsi $p$. A causa dell'incertezza sia nelle misurazioni di laboratorio che, più fondamentalmente, per via del principio di indeterminazione di Heisenberg, i microstati non sono punti nello spazio delle fasi ma piuttosto "celle" o "caselle".

Consideriamo una singola particella confinata in una scatola di lunghezza $L$ in $d$ dimensioni, con una risoluzione nella posizione data da $\epsilon_q$. Il numero di caselle disponibili per la posizione è:

\begin{equation}
N_q = \frac{L^d}{\epsilon_q^d}
\end{equation}

La particella potrà avere impulsi compresi tra un valore minimo e un valore massimo $P_{max}$, con una risoluzione $\epsilon_p$, il numero di caselle per l'impulso sarà:

\begin{equation}
N_p = \frac{(2P_{max})^d}{\epsilon_p^d}
\end{equation}

Il fattore $2$ appare perché l'impulso può essere sia positivo che negativo.

Per due particelle, il numero di caselle per la posizione diventa:

\begin{equation}
N_q = \frac{L^{2d}}{\epsilon_q^{2d}}
\end{equation}

poiché abbiamo $N_q$ possibilità per la prima particella e $N_q$ possibilità per la seconda. Analogamente, per l'impulso:

\begin{equation}
N_p = \frac{(2P_{max})^{2d}}{\epsilon_p^{2d}}
\end{equation}

Generalizzando a $N$ particelle, otteniamo:

\begin{equation}
N_q = \frac{L^{Nd}}{\epsilon_q^{Nd}} \quad \text{e} \quad N_p = \frac{(2P_{max})^{Nd}}{\epsilon_p^{Nd}}
\end{equation}

Il numero totale di microstati è dato dal numero di modi $W$ in cui possiamo sistemare le particelle nelle caselle, per $\Delta q $ $\Delta p$, ovvero le caselle stesse:
\begin{equation}
\Gamma = \Delta q^{Nd} \cdot \Delta p^{Nd} \cdot W
\end{equation}
Dalle informazioni esposte sappiamo che $W=N_q \cdot N_p$, inoltre supponiamo che le dimensioni delle celle siano pari alla risoluzione per l'impulso e la posizione, cioè $\Delta p =\epsilon_p$ e $\Delta q =\epsilon_q$. Da queste considerazioni si trova che:
\begin{equation}
   \Gamma = N_q \cdot N_p \cdot \epsilon_q^{Nd} \epsilon_p^{Nd}= \frac{L^{Nd}}{\epsilon_q^{Nd}} \frac{(2P_{max})^{Nd}}{\epsilon_p^{Nd}}  \cdot \epsilon_q^{Nd} \epsilon_p^{Nd}= L^{Nd} \cdot (2P_{max})^{Nd}
\end{equation}

Considerando che l'hamiltoniana del sistema è della forma:

\begin{equation}
H = \sum_i \frac{p_i^2}{2m_i} + V(\{q_i\})
\end{equation}

possiamo determinare $P_{max}$ imponendo che tutte le particelle siano ferme tranne una, che avrà energia cinetica pari a $E-V$:

\begin{equation}
P_{max} = \sqrt{2m(E-V)}
\end{equation}

Sostituendo in $\Gamma$:

\begin{equation}
\Gamma = L^{Nd} \cdot 2^{Nd} \cdot (2m(E-V))^{Nd/2}
\end{equation}

L'entropia è quindi:

\begin{equation}
S = k_B \ln \Gamma = k_B \ln [L^{Nd} \cdot 2^{Nd} \cdot (2m(E-V))^{Nd/2}]
\end{equation}

Usando le proprietà dei logaritmi:

\begin{equation}
S = k_B \cdot Nd \cdot \ln L + k_B \cdot Nd \cdot \ln 2 + k_B \cdot \frac{Nd}{2} \cdot \ln (2m(E-V))
\end{equation}

Che possiamo riscrivere come:

\begin{equation}
S = N \cdot k_B \cdot [d \cdot \ln L + d \cdot \ln 2 + \frac{d}{2} \cdot \ln (2m(E-V))]
\end{equation}

Questa espressione dimostra chiaramente che $S \propto N$, confermando che l'entropia è una quantità estensiva.

Conclusioni

In questo articolo, abbiamo esaminato in dettaglio l'ensemble microcanonico e le proprietà dell'entropia di Boltzmann. Partendo dalla definizione formale, abbiamo dimostrato:

  1. L'additività dell'entropia per sistemi composti
  2. La validità dei principi della termodinamica
  3. La natura estensiva dell'entropia

La definizione di Boltzmann dell'entropia come $S = k_B \ln \Gamma$ costituisce un ponte fondamentale tra la descrizione microscopica e macroscopica della materia, permettendo di derivare i principi della termodinamica dalle leggi della meccanica statistica. Questa connessione tra il comportamento microscopico e le proprietà macroscopiche è uno dei risultati più profondi della fisica moderna, espresso eloquentemente nella famosa equazione $S = k_B \ln \Gamma$ incisa sulla tomba di Boltzmann.