.
-

La thermodynamique
Thermodynamique classique et physique statistique
La thermodynamique est une branche de la physique tournée vers l'étude de  l'énergie, de ses formes et de ses transformations. Elle fournit un cadre conceptuel  pour comprendre pourquoi certaines transformations sont possibles et d'autres non, et pour optimiser l'utilisation de l'énergie. Elle a a deux versants. La thermodynamique classique et la thermodynamique statistique (ou physique statistique).

La thermodynamique classique est une science macroscopique, c'est-à-dire qu'elle s'intéresse aux propriétés globales d'un système (température, pression, volume, énergie interne, etc.) plutôt qu'au comportement individuel des particules (atomes, molécules). Elle cherche à comprendre comment l'énergie est transférée, transformée et distribuée dans les systèmes physiques. Son origine historique est étroitement liée à l'invention et à l'amélioration des machines thermiques (comme la machine à vapeur) au XIXe siècle, où la question de l'efficacité énergétique était devenue primordiale.

La thermodynamique statistique, quant à elle, s'occupe de relier le comportement macroscopique des systèmes thermodynamiques à leur description microscopique (classique ou quantique), en utilisant les outils comme la théorie des probabilités et la statistique.Elle permet d'interpréter les lois de la thermodynamique classique (comme l'entropie, l'énergie libre ou la température) en termes de mouvements, d'états et de probabilités des particules (atomes, molécules, etc.) qui composent un système.

La thermodynamique est une science extrêmement polyvalente et s'applique à une multitude de domaines : chimie (prédiction de la spontanéité des réactions chimiques, calcul des équilibres chimiques, étude des changements de phase), biologie (compréhension du métabolisme cellulaire, du transfert d'énergie dans les organismes vivants), météorologie et climatologie (étude des transferts d'énergie dans l'atmosphère et les océans),  écologie (analyse des flux d'énergie dans les écosystèmes), astrophysique et cosmologie (étude des étoiles, des trous noirs, de l'évolution et du destin de l'univers), ingénierie (conception et optimisation des moteurs, des centrales électriques, des systèmes de réfrigération et de climatisation, des turbines, des processus industriels), sciences des matériaux (compréhension des transitions de phase dans les matériaux, conception d'alliages et de matériaux).

Thermodynamique classique

Concepts généraux.
Le système thermodynamique.
Un système thermodynamique est la portion de matière ou d'espace délimitée par une frontière (réelle ou imaginaire) que a l'on choisi d'étudier. Cette limite sépare le système de son environnement, avec lequel il peut échanger de l'énergie (chaleur, travail) et/ou de la matière. Trois types de systèmes sont généralement distingués : système ouvert (échange de matière et d'énergie avec l'environnement), fermé  (échange d'énergie mais pas de matière avec l'environnement, ou isolé (aucun échange, ni de matière, ni d'énergie, avec l'environnement. L'environnement (ou extérieur) est tout ce qui n'appartient pas au système mais qui peut interagir avec lui.

Propriétés d'un système, variables et fonctions d'état.
On appelle propriétés d'un système toutes les caractéristiques mesurables d'un système, qu'elles décrivent son état (température, pression, volume) ou son comportement (échanges d'énergie). Elles peuvent être intensives (indépendantes de la quantité de matière, comme la température) ou extensives (dépendantes de la quantité, comme le volume ou l'énergie interne).

Les notions de grandeurs d'état ou de variables d'état (ces termes sont ordinairement utilisés de manière interchangeable) correspondent à des propriétés qui définissent l'état thermodynamique du système à un instant donné. Les variables d'état les plus courantes sont la température (T), directement rattachée à la notion de chaleur; la pression (P), qui est la force exercée sur une surface; et le volume (V), qui est l'espace occupé par le système. On rencontrera aussi par la suite d'autres variables d'état comme l'entropie (S), l'énergie libre de Gibbs (G), l'énergie libre de Helmholtz (A), ou encore la quantité de matière (n).

Le terme de paramètres d'état peut désigner deux choses : soit des variables d'état clés utilisées pour décrire un système (ex :  T, P,  V), soit des constantes ou conditions qui caractérisent un processus (ex : la température constante dans un processus isotherme).

Les fonctions d'état, quant à elles sont des quantités (comme l'énergie interne ( U ), l'enthalpie ( H ), l'entropie ( S )) qui dépendent uniquement de l'état actuel du système, indépendamment du processus qui y a mené (elles sont indépendantes du chemin).  La variation d'une fonction d'état lors d'une transformation (du passage d'un état A à un état B) est simplement la différence entre sa valeur dans l'état final (B) et sa valeur dans l'état initial (A) : ΔX = X(État B) - X(État A). Cela est vrai quel que soit le chemin suivi entre A et B.

L'énergie
L'énergie est le concept central. En thermodynamique, l'énergie existe sous différentes formes et peut être transférée :

• L'énergie Interne (U) est l'énergie totale contenue dans le système. La thermodynamique statistique y voit l'énergie due aux mouvements et interactions des particules microscopiques (énergie cinétique et potentielle microscopiques). C'est une fonction d'état, c'est-à-dire qu'elle ne dépend que de l'état actuel du système (température, pression, volume, composition) et non du chemin parcouru pour atteindre cet état.

• La chaleur (Q) correspond au transfert d'énergie entre le système et l'environnement dû à une différence de température. La chaleur "coule" spontanément du corps chaud vers le corps froid. Ce n'est pas une fonction d'état; elle dépend du chemin suivi pendant la transformation.

La notion d'énergie est associée à celle de travail (W). Le travail correspond au transfert d'énergie entre le système et l'environnement qui n'est pas dû à une différence de température. Le travail peut être mécanique (expansion/compression d'un gaz, déplacement d'un piston), électrique, etc. Ce n'est pas non plus une fonction d'état ; il dépend du chemin suivi.

Les processus thermodynamiques.
On appelle processus thermodynamique une transformation qui fait passer le système d'un état initial à un état final. Un processus peut être :

• Isotherme. - La température (T) du système reste constante tout au long du processus.. Pour maintenir la température constante, il doit y avoir un échange de chaleur (Q) entre le système et son environnement (un réservoir de chaleur à température constante). Pour un gaz parfait, l'énergie interne (U) ne change pas (ΔU = 0). Dans ce cas, la chaleur échangée est égale au travail effectué (Q = W).

• Isobare. -  La pression (P) du système reste constante tout au long du processus. C'est un processus très courant, par exemple, lorsqu'une réaction chimique ou un changement de phase se produit à pression atmosphérique constante. Le travail effectué par le système est simple à calculer : W = P.ΔV.

• Isochore (ou isovolumétrique ou isostère). - Le volume (V) du système reste constant tout au long du processus. Dans ce type de processus, aucun travail de dilatation ou de compression n'est effectué par le système (W = 0). Le changement d'énergie interne est directement égal à la chaleur échangée (ΔU = Q). C'est typique des processus se déroulant dans un récipient rigide et fermé.

• Adiabatique. -  Aucun échange de chaleur (Q) ne se produit entre le système et son environnement. Cela peut se produire si le système est très bien isolé thermiquement, ou si le processus est très rapide (pas le temps d'échanger de la chaleur, comme dans le cas d'une compression ou détente rapide d'un gaz). Le changement d'énergie interne est égal à l'opposé du travail effectué (ΔU = -W). Pour un gaz parfait, un processus adiabatique suit la relation PVγ = constante, où γ est l'indice adiabatique (rapport des chaleurs spécifiques Cp/Cv).

• Polytropique. - Ce processus plus général est décrit par la relation PVn = constante, où n est un indice polytropique qui peut prendre diverses valeurs. Il s'agit d'une généralisation qui inclut plusieurs des processus précédents comme cas particuliers :

n = 0 : Processus isobare (PV0 = P = constante)

n = 1 : Processus isotherme (PV1 = PV = constante, loi de Boyle-Mariotte pour gaz parfait)

n = γ : Processus adiabatique (PVγ = constante)

n → ∞ : Processus isochore (implique que V est constant pour que PVnreste fini ou que P varie infiniment vite, mais le sens physique est V = constante)

  • Cycle thermodynamique. - C'est une suite de processus thermodynamiques qui ramène le système à son état initial. L'état final est identique à l'état initial. Le changement net des propriétés d'état (U, H, S, P, V, T) est nul sur un cycle complet. Les cycles sont fondamentaux pour le fonctionnement des moteurs thermiques et des réfrigérateurs (par exemple, cycle de Carnot, cycle d'Otto, cycle de Diesel, cycle de Rankine).
Ces types de processus sont les briques de base pour analyser et comprendre le comportement des systèmes thermodynamiques et le fonctionnement des machines thermiques. Chacun pourra en outre être caractérisé par sa réversibilité ou non :
• Réversible. - Un processus réversible est un processus idéal et lent qui peut être inversé à tout moment sans laisser de trace dans l'environnement.

• Irréversible. - Un processus irréversible est tout processus réel, spontané, qui ne peut pas être simplement inversé.

L'entropie.
Les définitions précédentes permettent d'introduire la notion d'entropie : l'entropie (S), en première approche, se présente comme une fonction d'état extensive qui, en vertu du second principe de la thermodynamique (V. ci-dessous) augmente strictement dans une transformation adiabatique et reste constante dans une transformation réversible (processus isentropique). Dans ce cas, il n'y a pas de production d'entropie interne (due à des irréversibilités comme le frottement, la viscosité, etc.) et aucun échange de chaleur (qui changerait l'entropie si T n'est pas infini). C'est une idéalisation qui peut être utilisée pour modéliser des processus efficaces (comme dans les turbines ou les compresseurs).

L'entropie quantifie la tendance des systèmes à évoluer spontanément vers des états où l'énergie est moins concentrée et moins disponible pour le travail. C'est un concept central pour comprendre la direction des processus naturels et l'irréversibilité.

Mathématiquement, pour une transformation réversible infinitésimale, le changement d'entropie dS est défini comme la chaleur élémentaire dQ reçue par le système divisée par sa température absolue T (dS = dQ/T). Pour une transformation irréversible, le changement d'entropie du système est supérieur à dQ/T. L'entropie est donc aussi liée à l'irréversibilité des processus réels et à l'indisponibilité de l'énergie pour effectuer un travail utile. Un système à haute entropie a une grande partie de son énergie sous une forme peu utilisable pour le travail.

Autres concepts importants dérivés.

• Enthalpie (H). - Définie comme H = U + PV. C'est une fonction d'état très utile pour étudier les processus à pression constante (ce qui est courant en chimie). La variation d'enthalpie (ΔH) lors d'une transformation isobare est égale à la chaleur échangée (ΔH = Q_p).

• Énergie Libre de Gibbs (G). - Définie comme G = H - TS. C'est une fonction d'état est importante, surtout en chimie, pour prédire la spontanéité d'un processus à température et pression constantes. Une réaction est spontanée si ΔG < 0.

• Énergie Libre de Helmholtz (F). - Définie comme F = U - TS. Utile pour prédire la spontanéité à température et volume constants.

Les principes de la thermodynamique.
La thermodynamique repose sur quelques lois fondamentales, déduites de l'observation et de l'expérience, qui sont universellement valides, et qu'on appelle les principes de la thermodynamique :

Le principe zéro ou principe d'équilibre thermique.
Le principe zéro énonce que si un corps A est en équilibre thermique avec un corps B, et que le corps B est en équilibre thermique avec un corps C, alors le corps A est aussi en équilibre thermique avec le corps C.

Ce principe, bien qu'ajouté après les autres (d'où le nom "zéro"), est fondamental car il établit la notion de température. Il permet de définir une échelle de température et justifie l'utilisation d'un thermomètre : si le thermomètre (B) est en équilibre avec un corps (A), sa mesure de température sera la même que si on le met en équilibre avec un autre corps (C) qui est lui-même en équilibre avec (A).

Le premier principe ou principe de conservation de l'énergie.
Le premier principe énonce que la variation de l'énergie interne d'un système (ΔU) est égale à la quantité de chaleur (Q) et de travail (W) échangés avec l'environnement : ΔU = Q + W (selon la convention où W est le travail reçu par le système). Une autre convention courante en ingénierie est ΔU = Q - W (où W est le travail fourni par le système).

Le premier principe est le principe de conservation de l'énergie appliqué aux systèmes thermodynamiques. L'énergie ne peut être ni créée ni détruite, seulement transformée d'une forme à une autre (chaleur, travail, énergie interne). Il signifie notamment qu'il est impossible de construire un mouvement perpétuel de première espèce (une machine qui produirait du travail sans consommer d'énergie).

Le deuxième principe ou principe d'évolution ou d'entropie.
Il existe plusieurs formulation  équivalentes du deuxième principe de la thermodynamique :

• Il est impossible de construire une machine qui, fonctionnant en cycle, ne produirait d'autre effet que la transformation intégrale de la chaleur en travail (énoncé de Kelvin-Planck). Autrement dit, aucune machine thermique ne peut avoir un rendement de 100%.

• La chaleur ne peut pas passer spontanément d'un corps froid à un corps chaud sans apport de travail extérieur (énoncé de Clausius).

• L'entropie (S) d'un système isolé ne peut qu'augmenter au cours d'une transformation irréversible ou rester constante au cours d'une transformation réversible. Elle ne peut jamais diminuer. ΔStotal ≥ 0 pour un système isolé, où ΔStotal = ΔSsystème + ΔSenvironnement.

Ce principe dicte la direction des processus spontanés dans la nature (la "flèche du temps"). Parmi le conséquences de ce deuxième principe, on a l'impossibilité de construire un mouvement perpétuel de deuxième espèce (une machine qui respecterait le premier principe mais violerait le second, par exemple en convertissant toute la chaleur en travail).

Le troisième principe (principe de Nernst).
Le troisième principe de la thermodynamique concerne  l'entropie. Il énonce que l'entropie d'un système pur cristallin tend vers zéro quand la température approche du zéro absolu (0 kelvin ou -273,15 °C) . Cela impose une limite fondamentale à l'abaissement de la température : le zéro absolu (0 K) est inatteignable. Ce principe fournit un point de référence absolu pour l'entropie. Il implique aussi que le zéro absolu est une température impossible à atteindre par un nombre fini d'opérations.

L'équilibre thermodynamique.
L'équilibre thermodynamique est un état stable d'un système physique où aucune de ses propriétés macroscopiques ne change au cours du temps. Cet état est atteint lorsqu'il n'existe plus de flux nets de matière, d'énergie ou de travail, ni de forces motrices comme des gradients de température, de pression ou de potentiel chimique, que ce soit au sein du système lui-même ou entre le système et son environnement. Pour qu'un système soit en équilibre thermodynamique complet, il doit simultanément satisfaire plusieurs conditions d'équilibre :

• L'équilibre thermique, qui correspond au fait que la température est uniforme dans tout le système et égale à celle de l'environnement s'il y a contact thermique, sans transfert de chaleur net.

• L'équilibre mécanique, qui implique que la pression est uniforme dans tout le système (en négligeant les effets des champs externes significatifs ou en considérant leur influence constante) et qu'il n'y a pas de mouvement macroscopique ou de forces non compensées.

• L'équilibre chimique et de phase (ou matériel), qui assure que la composition chimique du système est constante et uniforme, qu'aucune réaction chimique nette ne se produit, et si plusieurs phases sont présentes, que la quantité de chaque phase reste constante car les taux de transitions de phase sont égaux. Cela entraîne l'uniformité des potentiels chimiques pour chaque espèce présente.

Autrement dit, l'équilibre thermodynamique représente l'état de repos ultime pour un système donné dans des conditions fixes, un état où toutes les tendances au changement spontané ont cessé et où les variables intensives comme la température, la pression et le potentiel chimique sont uniformes. C'est l'état vers lequel un système isolé ou en contact avec un environnement constant évolue naturellement conformément à la seconde loi de la thermodynamique.

La thermodynamique  statistique

La thermodynamique (ou physique) statistique permet d'interpréter les concepts de la thermodynamique classique (comme l'entropie, l'énergie libre ou la température) en termes de mouvements, d'états et de probabilités des particules (atomes, molécules, etc.) qui composent un système. Elle établit ainsi un pont entre la mécanique (classique ou quantique) et la thermodynamique classique. Ses objectifs principaux sont la déduction des lois thermodynamiques à partir des lois microscopiques de la mécanique, la description statistique de l'état d'un système contenant un très grand nombre de particules, la prédiction des propriétés macroscopiques (pression, chaleur, entropie...) en fonction des propriétés microscopiques.

Concepts généraux.
Micro-états vs. macro-états.
Pour décrire un système composé d'un très grand nombre de particules (comme un gaz, un liquide ou un solide), on distingue deux niveaux de description : les micro-états et les macro-états.

• Un micro-état est une description complète et détaillée de l'état microscopique du système à un instant donné. Il s'agit de spécifier l'état de chaque particule individuelle qui compose le système. Pour un système classique, cela impliquerait de connaître la position et la quantité de mouvement (ou impulsion) de chaque atome ou molécule. Pour un système quantique, il s'agirait de spécifier l'état quantique de chaque particule. C'est une description exhaustive de la configuration microscopique spécifique du système.

• Un macro-état, en revanche, est une description de l'état du système en utilisant des propriétés macroscopiques, c'est-à-dire des grandeurs mesurables à notre échelle et qui décrivent le système dans son ensemble. Des exemples typiques de propriétés décrivant un macro-état sont la pression, le volume, la température, l'énergie interne totale, la densité ou l'aimantation. Un macro-état caractérise l'état global du système sans entrer dans les détails des configurations individuelles des particules.

La distinction fondamentale est qu'un macro-état donné correspond généralement à un très grand nombre de micro-états possibles. Autrement dit, il existe une multitude de configurations microscopiques différentes (micro-états) qui peuvent toutes résulter en les mêmes valeurs pour les propriétés macroscopiques mesurables (macro-état). Par exemple, un gaz à une certaine pression, un certain volume et une certaine température peut avoir ses molécules réparties et se déplaçant de milliards de milliards de façons différentes, chacune de ces configurations instantanées étant un micro-état, mais toutes contribuant au même macro-état global.

La physique statistique, qui donc a pour but de faire le lien entre le monde microscopique (micro-états) et le monde macroscopique (macro-états), postule que le comportement macroscopique observé (les lois de la thermodynamique) émerge des propriétés statistiques d'un ensemble de micro-états possibles. L'hypothèse fondamentale est généralement que, en l'absence de contraintes spécifiques, tous les micro-états accessibles correspondant à un macro-état donné sont équiprobables. La probabilité d'observer un certain macro-état est alors proportionnelle au nombre de micro-états qui lui correspondent. Les états d'équilibre thermodynamique sont ceux qui correspondent au plus grand nombre de micro-états possibles, c'est pourquoi ils sont les plus probables. Le nombre de micro-états associés à un macro-état est une quantité centrale, intimement liée à l'entropie du système.

Ensembles statistiques.
Lorsqu'on étudie les systèmes comportant un très grand nombre de particules (comme un gaz dans un volume, un cristal, etc.), il est impossible de suivre l'état microscopique exact (position et impulsion) de chaque particule à chaque instant. De plus, les propriétés macroscopiques observées sont des moyennes sur des échelles de temps très longues par rapport aux mouvements microscopiques. On ne cherche donc pas à décrire l'état microscopique unique du système à un instant donné, mais plutôt la distribution de probabilité sur l'ensemble des états microscopiques compatibles avec les conditions macroscopiques connues. C'est là qu'intervient la notion d'ensemble statistique. 

Le concept d'ensemble statistique consiste à imaginer une collection hypothétique d'un très grand nombre (idéalement infini) de copies "identiques" du système étudié. Ces copies sont identiques dans le sens où elles sont soumises aux mêmes contraintes macroscopiques (par exemple, même énergie totale, même volume, même nombre de particules, ou même température, etc.), mais chacune de ces copies se trouve dans un état microscopique différent compatible avec ces contraintes. Cette collection de systèmes, chacun dans un état microscopique possible, constitue un ensemble statistique.

L'idée centrale est que les propriétés macroscopiques d'équilibre d'un système peuvent être obtenues en calculant la moyenne sur cet ensemble statistique. L'hypothèse ergodique suggère que, pour un système en équilibre, la moyenne temporelle d'une quantité mesurée sur une longue période pour un seul système est égale à la moyenne de cette quantité calculée sur tous les systèmes de l'ensemble à un instant donné. L'approche par ensemble peut être plus facile à manipuler mathématiquement.
-

L'hypothèse ergodique

L'hypothèse ergodique est un principe central en physique statistique et en théorie des systèmes dynamiques. Elle postule que, pour un système isolé en équilibre thermodynamique, la moyenne temporelle d'une propriété macroscopique (calculée en observant le système sur une période très longue) est égale à la moyenne d'ensemble (calculée en prenant la moyenne sur toutes les configurations microscopiques possibles du système, pondérées par leur probabilité). Cela revient à supposer que, sur le long terme, un système dynamique explore toutes les configurations accessibles de son espace des phases (espace combinant positions et vitesses de toutes les particules). Ainsi, la trajectoire temporelle d'une unique réalisation du système permettrait de représenter toutes les possibilités statistiques du système.

 Introduite au XIXe siècle par Boltzmann et J. W. Gibbs, elle a permis de relier les descriptions microscopiques (mouvements de particules) aux grandeurs macroscopiques (température, pression). Elle justifie l'utilisation de l'ensemble microcanonique (ci-dessous) en mécanique statistique, où toutes les configurations énergétiques accessibles sont considérées comme équiprobables.

Mathématiquement, l'hypothèse ergodique n'est pas toujours vérifiée. Seuls certains systèmes ergodiques (comme les systèmes chaotiques fortement mélangés) la satisfont. Par exemple, les systèmes intégrables (avec mouvements périodiques) ne sont pas ergodiques. En pratique, pour des systèmes macroscopiques (comme les gaz), l'hypothèse est une approximation utile, car la grande quantité de particules (de l'ordre de 1023) rend les écarts statistiques négligeables. Le théorème ergodique de Birkhoff formalise mathématiquement les conditions où les deux moyennes coïncident, mais il reste abstrait. L'hypothèse ergodique reste donc une hypothèse physique simplificatrice.

Les principaux ensembles statistiques utilisés, correspondant à différentes conditions expérimentales ou à différentes manières de décrire le système. Les trois ensembles les plus couramment utilisés sont :

• L'ensemble microcanonique modélise un système isolé, où l'énergie totale (E), le volume (V) et le nombre de particules (N) sont fixés. Dans cet ensemble, tous les états microscopiques qui ont l'énergie E, le volume V et le nombre de particules N sont considérés comme ayant la même probabilité. C'est le point de départ conceptuel, basé sur le postulat fondamental de la physique statistique qui stipule que tous les micro-états accessibles à un système isolé en équilibre sont équiprobables. L'ensemble microcanonique est particulièrement utile pour définir l'entropie d'un système isolé (ordinairement liée au logarithme du nombre d'états accessibles). 

• L'ensemble canonique modélise un système en équilibre thermique avec un grand réservoir de chaleur (un "thermostat"), dont la température (T) est fixée. Le volume (V) et le nombre de particules (N) sont également fixés, mais l'énergie du système peut fluctuer en échangeant de la chaleur avec le réservoir. La probabilité qu'un système de cet ensemble se trouve dans un état microscopique donné d'énergie ε est proportionnelle au facteur de Boltzmann exp(-ε/kT), où k est la constante de Boltzmann. Cet ensemble est le plus couramment utilisé en pratique pour les systèmes à température constante. La fonction de partition canonique (Z) est la quantité fondamentale de cet ensemble.

• L'ensemble grand canonique modélise un système en équilibre thermique et diffusif avec un grand réservoir de chaleur et de particules. Le volume (V), la température (T) et le potentiel chimique (μ) sont fixés. Le nombre de particules (N) et l'énergie (E) du système peuvent tous deux fluctuer en échangeant particules et énergie avec le réservoir. La probabilité d'un micro-état d'énergie ε et de N particules est proportionnelle à la quantité exp(-(ε - μN)/kT). Cet ensemble est particulièrement utile pour étudier les systèmes où le nombre de particules n'est pas constant (par exemple, des réactions chimiques ou des gaz en contact avec une phase liquide) ou des sous-régions d'un système plus vaste. La grande fonction de partition (Ξ) est la quantité clé de cet ensemble. 

Principales grandeurs définies statistiquement.
L'utilisation de ces ensembles permet de définir et de calculer les grandeurs macroscopiques de manière statistique. Ces grandeurs sont généralement obtenues en calculant des moyennes sur l'ensemble ou en les dérivant de fonctions génératrices spécifiques à chaque ensemble, appelées fonctions de partition (fonction de partition canonique Z, fonction de partition grand canonique Zgrand). Ces fonctions de partition encodent toute l'information thermodynamique du système pour les conditions données.
• L'énergie interne (U ou E) est  définie comme la valeur moyenne de l'énergie microscopique du système sur l'ensemble des micro-états possibles pondérés par leurs probabilités. 

• L'entropie (S) est une mesure fondamentale du désordre ou du nombre de micro-états accessibles à un système macroscopique dans un état donné, dont la formule de Boltzmann (S = k log W) ou la formule de Gibbs (S = -k Σᵢ páµ¢ log páµ¢) sont des définitions statistiques clés. 

• Les énergies libres (comme l'énergie libre de Helmholtz F ou l'énergie libre de Gibbs G)  sont construites à partir de l'énergie interne et de l'entropie et sont intimement liées aux fonctions de partition décrivant l'ensemble statistique du système à l'équilibre. 

+ L'énergie libre de Helmholtz (F ou A) est définie pour l'ensemble canonique (F = U - TS), elle est directement liée au logarithme de la fonction de partition canonique (F = -kT ln Z). C'est une grandeur fondamentale pour les systèmes à température et volume constants, et elle permet de déterminer l'équilibre et les propriétés du système.

+ L'énergie libre de Gibbs (G) est définie pour les systèmes à température et pression constantes (G = U + PV - TS = F + PV), elle est liée à la fonction de partition appropriée ou peut être dérivée de l'énergie libre de Helmholtz.

• La pression (P), interprétable comme la force moyenne exercée par unité de surface due aux collisions des particules avec les parois du contenant, peut être calculée comme la dérivée de l'énergie libre de Helmholtz par rapport au volume (P = - (∂F/∂V)T) ou comme la moyenne statistique de la force exercée sur les parois.

• La température (T), qui caractérise la distribution statistique de l'énergie entre les différentes particules, est définie par diverses relations, comme, par exemple, celle liée à la dérivée de l'entropie par rapport à l'énergie interne. 

Lien avec la physique quantique.
En mécanique quantique, les états accessibles sont discrets, ce qui permet une description rigoureuse des micro-états. On distingue alors deux cadres fondamentaux pour décrire la distribution des particules dans différents types de systèmes physiques selon leur nature quantique et les conditions thermodynamiques :
• La statistique de Bose-Einstein s'applique aux particules appelées bosons, qui possèdent un spin entier (comme 0, 1, 2, etc.). Ces particules obéissent au principe d'indiscernabilité et, contrairement aux fermions, ne sont pas soumises au principe d'exclusion de Pauli. Cela signifie que plusieurs bosons peuvent occuper simultanément le même état quantique. Cette propriété conduit à des comportements collectifs spécifiques, tels que la condensation de Bose-Einstein, phénomène dans lequel un grand nombre de bosons occupent le niveau d'énergie le plus bas à très basse température. La distribution statistique de Bose-Einstein donne la moyenne du nombre de particules dans un état d'énergie donné par la formule

où est le nombre moyen de particules dans l'état i, Ei​ l'énergie de cet état, μ le potentiel chimique, k la constante de Boltzmann et T la température. Le signe négatif dans le dénominateur traduit la tendance des bosons à "s'entasser" dans les mêmes états.

• La statistique de Fermi-Dirac, en revanche, s'applique aux fermions, qui sont des particules de spin demi-entier (comme 1/2, 3/2, etc.), telles que les électrons, les protons et les neutrons. Ces particules obéissent au principe d'exclusion de Pauli, selon lequel deux fermions identiques ne peuvent pas occuper le même état quantique. En conséquence, à température nulle, tous les états jusqu'à une certaine énergie (appelée énergie de Fermi) sont occupés, tandis que ceux au-dessus sont vides. La distribution de Fermi-Dirac est donnée par

Le signe positif dans le dénominateur reflète l'effet du principe d'exclusion, qui empêche plusieurs fermions de se retrouver dans le même état. Cette statistique est essentielle pour décrire des systèmes comme les électrons dans un métal ou les étoiles à neutrons.

Utilisée pour décrire des gaz idéaux classiques, comme l'air à température ambiante, la distribution de Maxwell-Boltzmann est utilisée  lorsque  (Ei−μ)≫kT. Elle apparaît alors comme une limite des deux distributions quantiques précédentes. 
• La distribution de Maxwell-Boltzmann s'applique ainsi aux particules classiques ou aux systèmes où les effets quantiques sont négligeables, en général à haute température et faible densité. Elle suppose que les particules sont discernables et qu'il n'y a pas de restrictions quant à leur occupation des états d'énergie :
Cette distribution est exponentielle et ne montre ni effet de regroupement (comme chez les bosons) ni effet d'exclusion (comme chez les fermions). Elle est une illustration du principe de correspondance qui voit dans les lois de la physique classique des forme limites des lois quantiques aux échelles non-quantiques.

La thermodynamique pour faire et pour penser

Applications majeures.
La physique statistique a de nombreuses applications majeures dans des domaines variés de la physique, de la chimie et même de certaines branches de la biologie et de l'informatique. Elle est directement impliquée dans la compréhension des propriétés macroscopiques de la matière à partir du comportement microscopique de ses constituants.

En thermodynamique proprement dite, la physique statistique permet de dériver les lois classiques à partir des principes fondamentaux, en reliant les notions de température, d'entropie et d'énergie à la distribution des états microscopiques. Elle permet de prédire les équilibres thermiques, les capacités calorifiques, les transitions de phase (comme la fusion ou l'ébullition) et les comportements critiques, par exemple dans le cas du changement d'un liquide en gaz.

Dans la physique des gaz, elle est utilisée pour modéliser les gaz parfaits et réels, et pour comprendre la diffusion, la conduction thermique, la viscosité, ou encore les fluctuations de pression et de densité. Les lois de transport dans les gaz et les plasmas, et notamment a théorie cinétique des gaz, découlent directement de la physique statistique.

En physique de la matière condensée, elle est fondamentale pour décrire les solides et les liquides. Elle permet de comprendre la structure électronique des métaux, les propriétés thermiques des cristaux, les phénomènes magnétiques (comme le paramagnétisme ou le ferromagnétisme), les supraconducteurs, ainsi que la théorie des bandes électroniques et des isolants.

Dans la physique quantique, la physique statistique permet de traiter les systèmes de nombreuses particules, comme les gaz de fermions et de bosons, en lien avec la statistique de Fermi-Dirac et de Bose-Einstein. Elle explique des phénomènes comme la condensation de Bose-Einstein, l'effet Hall quantique, et les propriétés quantiques des électrons dans les solides.

Elle est aussi essentielle en astrophysique pour décrire les étoiles, les naines blanches, les étoiles à neutrons et les trous noirs. Le comportement des gaz dégénérés, comme les électrons dans une naine blanche ou les neutrons dans une étoile à neutrons, est compris grâce à la statistique quantique. Elle intervient également dans la compréhension de la nucléosynthèse et de la thermodynamique des systèmes gravitationnels.

En chimie, elle intervient dans la théorie des réactions, en particulier à travers la distribution de Boltzmann, et dans les équilibres chimiques à l'échelle moléculaire. Elle est aussi utilisée pour prédire les constantes d'équilibre, les vitesses de réaction, et les propriétés spectroscopiques.

En biophysique, la thermodynamique est employée pour modéliser les processus thermiques et de transport dans les systèmes vivants, comme la diffusion des ions à travers les membranes, les fluctuations dans les canaux ioniques, ou le repliement des protéines.

En informatique, la physique statistique a inspiré des modèles comme les réseaux de neurones et des approches de l'apprentissage machine. Elle a aussi des applications dans la théorie de l'information, notamment via l'entropie de Shannon, qui est directement inspirée de l'entropie thermodynamique.

Enfin, la thermodynamqiue joue un rôle en économie et en finance dans certaines modélisations dites d'« économie statistique » où l'on applique des concepts de distributions et d'équilibre à des agents économiques. 

Une vision du monde.
La thermodynamique, bien au-delà de ses applications techniques et de ses lois sur l'énergie et la chaleur, recèle des dimensions philosophiques profondes. Elle nous confronte à la nature directionnelle du temps, à l'émergence de propriétés collectives, au rôle de la probabilité, et aux contraintes fondamentales qui pèsent sur toute dynamique dans l'univers.

La flèche du temps.
L'une des implications les plus frappantes concerne la nature du temps. Contrairement aux lois de la mécanique classique qui sont généralement réversibles par rapport au temps (un film d'un système mécanique joué à l'envers reste plausible), la thermodynamique, en particulier avec son second principe, introduit une irréversibilité fondamentale. Ce principe stipule que dans tout processus spontané au sein d'un système isolé, l'entropie ne peut que croître ou rester constante. Elle ne diminue jamais spontanément. L'augmentation de l'entropie est associée à la transition d'états plus ordonnés et moins probables vers des états plus désordonnés et statistiquement plus probables. Ce second principe fournit ainsi une base physique à la flèche du temps, la directionnalité intrinsèque que nous percevons pour le temps, allant invariablement du passé vers le futur. 

L'avenir est la direction dans laquelle l'entropie de l'univers (ou de tout système isolé) tend à s'accroître. Par exemple, le mélange d'un liquide chaud et d'un liquide froid conduit spontanément à une température intermédiaire (augmentation du désordre), mais le processus inverse (séparation spontanée en un liquide chaud et un froid) ne se produit jamais. Les événements que nous observons dans la nature — comme une tasse de café chaud qui refroidit, un bâtiment qui se dégrade avec le temps, ou l'irréversibilité constatée quand on casse un oeuf — sont encore des exemples de processus qui augmentent l'entropie et définissent ainsi une direction temporelle privilégiée. Pourquoi en est-il ainsi? Pourquoi le temps s'écoule-t-il du passé vers le futur?

Bien que les lois physiques fondamentales décrivant les interactions au niveau microscopique soient souvent symétriques par rapport au temps (elles fonctionnent aussi bien en avançant qu'en reculant dans le temps), la flèche du temps que nous expérimentons au quotidien émerge du comportement statistique d'un très grand nombre de particules. Le deuxième principe de la thermodynamique est une loi statistique qui décrit la probabilité écrasante que les systèmes macroscopiques évoluent vers des états de plus haute entropie. C'est donc l'augmentation irréversible de l'entropie qui est généralement considérée comme la manifestation physique la plus fondamentale de la flèche du temps que nous percevons.

Le devenir de l'univers.
Cette tendance à l'uniformisation et à la perte d'énergie utilisable soulève des questions sur le devenir ultime de l'univers. Le premier principe de la thermodynamique concerne la conservation de l'énergie (l'énergie totale d'un système isolé reste constante), mais c'est encore ici le second principe (dans tout système isolé, l'entropie tend à augmenter avec le temps) qui est particulièrement pertinent.

Une augmentation de l'entropie signifie que les systèmes évoluent spontanément vers des états plus désordonnés, où l'énergie est moins concentrée et moins apte à effectuer un travail utile. Les processus naturels, qu'il s'agisse d'une tasse de café chaud qui refroidit ou d'une étoile qui brûle son combustible, augmentent l'entropie globale de l'univers.

L'univers pris dans sa globalité peut être considéré comme un système, sinon complètement isolé, du moins immense et évoluant selon ces principes. Appliquer le second principe de la thermodynamique à l'univers dans son ensemble suggère que son entropie totale est en augmentation constante depuis le début de son expansion (modèle du big bang). Les réactions nucléaires au coeur des étoiles, la formation et l'évolution des galaxies, et même l'expansion elle-même contribuent à cette augmentation inexorable de l'entropie.

Cette augmentation perpétuelle de l'entropie implique pour le devenir de l'univers une évolution vers un état de désordre maximal et de dispersion totale de l'énergie. C'est le concept de la mort thermique de l'univers. Dans un état de mort thermique, l'univers aurait atteint l'équilibre thermodynamique. Cela signifie que la température serait uniforme partout. Il n'y aurait plus de gradients de température ou de densité pour permettre l'écoulement d'énergie et l'exécution de travail. Toutes les structures organisées comme les étoiles, les galaxies et même les atomes finiraient par se désagréger ou s'éloigner les unes des autres au point de devenir insignifiantes. L'énergie, qui était autrefois concentrée et utilisable (par exemple, sous forme de lumière stellaire), serait diffusée uniformément dans un espace immensément froid et vide.

L'émergence des phénomènes macroscopiques.
Peut-on expliquer les propriétés d'un système complexe uniquement à partir de celles de ses constituants élémentaires, ou existe-t-il des propriétés dites émergentes qui ne se déduisent pas simplement de la somme des parties? Cette interrogation philosophique large, qui est celle du débat entre réductionnisme et émergentisme, se pose notamment dans la relation entre la thermodynamique classique (macroscopique) et la mécanique statistique (microscopique).

On l'a dit, la thermodynamique classique décrit des propriétés globales comme la température, l'entropie, ou la pression, sans faire appel à la structure microscopique de la matière. En revanche, la mécanique statistique cherche à expliquer ces propriétés en les déduisant des comportements collectifs d'un très grand nombre de particules. Cependant, le processus de réduction n'est pas toujours trivial. Certaines propriétés, comme les états de la matière (solide, liquide, gaz), ou les transitions de phase (comme la condensation ou la supraconductivité), présentent des comportements collectifs qui ne se retrouvent pas au niveau des particules prises individuellement. Ces comportements dépendent d'interactions globales, de la coopération de nombreuses entités, et font apparaître des propriétés émergentes. Par exemple, la notion d'entropie est difficile à définir uniquement par les trajectoires de chaque particule : elle reflète un degré de désordre global, une information qui émerge d'une description statistique et qui n'a pas de sens pour une seule particule.

Les propriétés émergentes sont des caractéristiques d'un système dans son ensemble qui ne sont pas présentes au niveau de ses composants individuels, mais qui résultent de leurs interactions collectives à grande échelle. Des concepts fondamentaux de la thermodynamique comme la température, la pression, l'entropie ou l'énergie interne sont des exemples classiques de propriétés émergentes. Une molécule unique n'a pas de température; celle-ci n'acquiert un sens que lorsqu'on considère un grand ensemble de molécules, et elle est alors définie comme une mesure liée à l'énergie cinétique moyenne de ces particules. De même, la pression est une propriété émergente qui décrit la force moyenne exercée par les collisions de milliards de particules sur une surface. L'entropie, une mesure du désordre ou du nombre d'états microscopiques possibles pour un état macroscopique donné, est la quintessence d'une propriété émergente qui n'a de pertinence que pour un système composé de nombreuses particules. La thermodynamique fournit un cadre puissant pour décrire et prédire le comportement de ces propriétés émergentes sans nécessiter une connaissance détaillée de chaque interaction microscopique individuelle. Elle établit des relations générales entre elles (comme les lois des gaz parfaits) et décrit des phénomènes émergents spectaculaires tels que les transitions de phase (la fusion, l'ébullition, etc.), qui surviennent lorsque les interactions collectives entre particules se réorganisent de manière fondamentale à certaines conditions de température et de pression. En ce sens, la thermodynamique est la science par excellence de l'émergence, reliant le monde microscopique au monde macroscopique perceptible en se focalisant sur les comportements collectifs et leurs propriétés résultantes.
Au final la question reste posée : même si, en théorie, les lois microscopiques déterminent les lois macroscopiques, peut-on réellement réduire les phénomènes thermodynamiques à ceux-ci sans perte d'information ou de sens? Certains soutiennent que l'émergence n'est qu'une question de complexité pratique, et que tout est en principe réductible. D'autres, en revanche, estiment que certaines lois émergentes sont fondamentales à leur niveau et ne peuvent pas être dérivées, ou le sont seulement à travers des approximations qui perdent l'intuition physique du phénomène. Le problème de la réduction en thermodynamique questionne ainsi la hiérarchie des niveaux d'explication en science : la macro peut-elle toujours s'expliquer par le micro, ou faut-il reconnaître une autonomie relative des phénomènes collectifs ? Cette tension entre réductionnisme et émergentisme est au coeur de nombreuses disciplines scientifiques, bien au-delà de la thermodynamique.

Les structures dissipatives.
La thermodynamique met en évidence les limites des processus physiques et, par extension, peut-être des systèmes (comme la vie ou la conscience) qui existent dans un univers soumis à ses lois. Créer de l'ordre localement (comme dans un organisme vivant ou une civilisation) nécessite toujours de dissiper de l'énergie et d'augmenter l'entropie de l'environnement global, ce qui rappelle que l'ordre apparent est souvent maintenu au prix d'un désordre accru ailleurs. Cette interaction constante entre ordre et désordre, entre potentiel et dissipation, offre un cadre conceptuel pour penser l'existence, l'évolution et la fin des systèmes complexes dans le cosmos. Le concept de structure dissipative apporte ici un éclairage particulier.

Les structures dissipatives sont des systèmes thermodynamiques ouverts qui fonctionnent loin de l'équilibre thermodynamique. Contrairement aux systèmes fermés ou isolés qui, selon le deuxième principe de la thermodynamique, évoluent vers un état d'entropie maximale (désordre), les structures dissipatives peuvent maintenir un état ordonné et complexe. Elles y parviennent en échangeant constamment de l'énergie et de la matière avec leur environnement et en dissipant de l'énergie (augmentant l'entropie) dans cet environnement. Ce flux d'énergie et de matière et cette dissipation sont essentiels pour le maintien de leur ordre interne, d'où le terme "dissipatif". Ce concept, largement développé par le chimiste et physicien Ilya Prigogine, prix Nobel de chimie en 1977, explique l'émergence spontanée de l'ordre, de l'organisation et de la complexité dans les systèmes naturels non en équilibre. 

La formation des structures dissipatives nécessite que le système soit ouvert, qu'il soit maintenu loin de l'équilibre par des contraintes externes, et que les dynamiques internes soient non-linéaires. Dans ces conditions, les fluctuations peuvent être amplifiées et conduire à des transitions vers de nouveaux états plus organisés, comme les cellules de Bénard dans un fluide chauffé par le bas, les réactions chimiques oscillantes comme la réaction de Belousov-Zhabotinsky, ou encore les systèmes biologiques comme les cellules vivantes. Les travaux sur les structures dissipatives ont élargi le cadre de la thermodynamique pour comprendre les phénomènes d'auto-organisation et d'évolution dans les systèmes complexes, bien au-delà de la physique et de la chimie, touchant à la biologie, l'écologie, et même certains aspects des sciences sociales.

La limitation de la connaissance.
La thermodynamique, en particulier dans sa forme statistique, soulève de manière fondamentale la question de la nature de la probabilité : est-elle un simple reflet de notre ignorance ou révèle-t-elle une propriété réelle des systèmes physiques? À première vue, la thermodynamique classique évite la question, se contentant de décrire les systèmes par des grandeurs macroscopiques, sans faire intervenir explicitement la notion de probabilité. Toutefois, dès que l'on cherche à expliquer ces phénomènes macroscopiques à partir du comportement des particules microscopiques, la probabilité devient indispensable, notamment avec l'avènement de la mécanique statistique initiée par Boltzmann et poursuivie par Gibbs.

Selon une première lecture, dite épistémique et qui est associée à Maxwell, Gibbs et aussi aux approches bayésiennes modernes, la probabilité exprime simplement notre ignorance des états exacts du système. Les lois fondamentales qui régissent les particules sont déterministes, mais le nombre colossal de constituants et l'impossibilité pratique d'en connaître les positions et vitesses exactes nous obligent à adopter une approche probabiliste. Dans ce cadre, la probabilité ne reflète pas une propriété du monde, mais plutôt une limitation de notre connaissance. L'entropie, par exemple, mesure le degré de cette ignorance : plus nous avons d'incertitude sur l'état microscopique d'un système, plus l'entropie est élevée. 

Mais une autre lecture, ontologique, notamment défendue par Boltzmann, mais surtout par des approches contemporaines en physique statistique, soutient que la probabilité est intrinsèquement liée au comportement collectif des systèmes complexes. Même si chaque particule obéit à une dynamique déterministe, le système dans son ensemble manifeste des régularités statistiques robustes, indépendantes de notre connaissance. Ces régularités, comme l'évolution vers l'équilibre ou l'augmentation de l'entropie, semblent indiquer que la probabilité est plus qu'un outil pratique : elle saisit des tendances objectives du monde macroscopique. Cette idée est renforcée par les théories ergodiques et les résultats issus de la théorie du chaos déterministe, qui montrent que, pour des systèmes complexes, la dynamique conduit naturellement à des comportements statistiques, comme si la probabilité était « inscrite » dans la nature. 

La probabilité est-elle un artifice de description ou une caractéristique fondamentale des systèmes à grand nombre de degrés de liberté? La thermodynamique ne tranche pas formellement cette question, mais elle la pose en filigrane à travers ses méthodes et ses paradoxes, comme celui de Loschmidt oucelui de Zermelo, qui soulignent justement les difficultés d'une interprétation purement subjective de la probabilité dans un cadre déterministe. 

Les paradoxes de Loschmidt et de Zermelo sont deux objections majeures qui furent soulevées à la fin du XIXe siècle contre l'interprétation statistique de la thermodynamique, et en particulier contre l'explication par Ludwig Boltzmann de l'origine microscopique du deuxième principe (l'augmentation de l'entropie). La résolution de ces paradoxes peut résider dans une compréhension plus approfondie de la nature statistique et probabiliste du deuxième principe de la thermodynamique tel qu'interprété par Boltzmann. L'augmentation de l'entropie ne doit pas être vue comme une loi absolue et déterministe pour chaque évolution microscopique possible, mais comme une conséquence extrêmement probable pour la vaste majorité des états microscopiques et des trajectoires possibles d'un système macroscopique. Bien que des états de basse entropie puissent être atteints par réversibilité inversée (Loschmidt) ou par récurrence (Zermelo), les conditions nécessaires pour réaliser l'inversion de Loschmidt sont extraordinairement précises et inatteignables en pratique, et les temps de récurrence prédits par le théorème de Zermelo pour des systèmes macroscopiques sont si vastes (dépassant de loin l'âge de l'univers) qu'ils sont sans pertinence pratique. Cela conduit à considérer que le deuxième principe décrit le comportement typique et quasi certain d'un système macroscopique loin de l'équilibre, plutôt qu'une impossibilité fondamentale pour toute déviation microscopique ou fluctuation rare sur des échelles de temps ou de précision inaccessibles.
.


Dictionnaire Idées et méthodes
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
[Aide][Recherche sur Internet]

© Serge Jodra, 2025. - Reproduction interdite.