La loi de distribution de Boltzmann
La façon de connecter la distribution de particules sur leur niveaux d'énergies et leur propriétés thermodynamiques peut être réalisée via la notion d'entropie.
Lors de l'augmentation de la température d'un système, l'entropie croit pour deux raisons. D'abord parce que l'agitation thermique éloigne les molécules les une des autres et augmente ainsi le volume du système, l'éloignant de son état de cristal parfait au zéro absolu. Ensuite parce que le fait de communiquer de l'énergie aux particules les fait passer dans des états d'énergie supérieurs à leur état fondamental. En notant W le nombre de façons de distribuer ces N particules sur leurs i états d'énergie appelés ni, on peut donc écrire que :
\(W= \frac {N!} {n_1! n_2! n_3! ...}\)
On imagine qu'il existe une relation entre l'entropie et la probabilité \(P\), ou le nombre de possibilités \(W\) de trouver les particules dans un état donné, le système évoluant toujours à énergie constante. En effet, il existe une connexion entre la probabilité \(P\) de trouver un système dans un état donnée et le nombre total d'état accessibles \(W\). Le second principe implique que la probabilité \(P\) soit maximale (car \(W\) doit être le plus grand possible). Plus cette probabilité est grande, plus l'entropie est grande (puisque le désordre est grand).
Cette relation entre l'entropie et le nombre de façons de distribuer les particules peut être définie comme suit. On imagine que l'entropie de 2 systèmes indépendants est additive, pour donner l'entropie totale de ce système (\(S = S_1 + S_2\)). Si il y a \(W_1\) façons de distribuer les particules dans le système 1 et \(W_2\) dans le 2, alors dans le systèmes total on trouvera \(W = W_1 * W_2\) de faire cette distribution.
Une bonne façon mathématique de représenter cet état de fait passe par la fonction logarithme et on retrouve la formule de Boltzmann :
\(S = k\ln W\)
La statistique de Boltzmann (non démontrée en détail ici) donne une information sur la façon de distribuer \(i\) particules sur des niveaux d'énergies \(\epsilon_i\) :
\(n_i = {n_0}{p_i}e^{-\frac{\epsilon_i}{kT}}\)
Cette relation décrit la connexion entre le nombre de particules dans le niveau particulier ni et le nombre de particules dans le niveau le plus bas \(n_0\).
Il peut par ailleurs être intéressant de connecter ce nombre \(n_i\) au nombre total de particules, \(N\). On utilise la loi de distribution de Boltzmann, en notant que \(N\) est la somme de tous les \(n_i\).
\(N=\displaystyle{\sum_i{n_i}} = n_0 \displaystyle{\sum_i{p_i}^{-\frac{\epsilon_i}{kT}}}\)
Avec la relation (7) donnant la valeur de \(n_0\), on écrit plus généralement :
\(n_i = \frac{N{p_i}e^{-\frac{\epsilon_i}{kT}}} {\displaystyle{\sum_i{p_i}e^{-\frac{\epsilon_i}{kT}}}}\)
Cette relation générale nous donne des informations sur la façon de distribuer des particules sur leur niveau d'énergies. La quantité \({\displaystyle{\sum_i{p_i}e^{-\frac{\epsilon_i}{kT}}}}\) est une quantité sans dimension, appelée la fonction de partition.