.
-

Physique
 
La physique de la matière condensée
La physique de la matière condensée est l'étude des propriétés de la matière lorsqu'un grand nombre de particules (atomes, molécules, électrons) interagissent, particulièrement dans les phases condensées comme les solides ou les liquides. Elle étudie des phénomènes émergents qui n'existent pas au niveau d'une seule particule, tels que la supraconductivité (absence de résistance électrique à basse température), la superfluidité (absence de viscosité), le magnétisme, les semi-conducteurs (base de l'électronique moderne), les cristaux liquides, les matériaux topologiques et les phénomènes critiques lors des transitions de phase. 

C'est aujourd'hui la plus vaste branche de la physique en termes de chercheurs et aussi un domaine foisonnant qui se déploie dans de multiples directions. Au-delà de sa dimension fondamentale, la matière condensée est au coeur de nombreuses applications. La conception des matériaux utilisés dans l'électronique, l'énergie, l'optique ou encore l'informatique repose directement sur les connaissances acquises dans ce domaine. Les transistors, les lasers, les écrans modernes, les matériaux supraconducteurs pour l'imagerie médicale ou le transport d'électricité sont autant d'exemples concrets de cette interaction constante entre recherche fondamentale et innovation technologique.

La diversité des systèmes étudiés va ainsi des solides cristallins classiques aux matériaux amorphes et vitreux, des liquides simples aux fluides quantiques comme l'hélium superfluide, des aimants aux ferroélectriques, des semi-conducteurs traditionnels aux matériaux à corrélations fortes, sans oublier les phases exotiques de la matière topologique. Tous ces systèmes partagent un même trait : leurs propriétés macroscopiques ne se réduisent pas à la somme des comportements microscopiques, mais découlent d'organisations collectives gouvernées par les symétries, les interactions et les contraintes imposées par l'environnement.

L'un des enjeux majeurs de cette discipline est de comprendre comment des propriétés collectives émergent à partir de règles simples. Un cristal, par exemple, est formé de la répétition régulière d'un motif atomique, et cette organisation périodique engendre une structure électronique qui explique la conductivité d'un métal, la non-conductivité électrique d'un isolant ou encore le comportement particulier d'un semi-conducteur. De même, des phénomènes aussi spectaculaires que la supraconductivité, le magnétisme collectif ou les transitions de phase trouvent leur origine dans les interactions corrélées de milliards de particules qui, prises individuellement, n'auraient pas ces propriétés. C'est ce concept d'émergence qui confère à la matière condensée son rôle central dans la compréhension des états de la matière.

Des modèles basés sur la mécanique quantique, comme la théorie de Landau des transitions de phase ou la théorie des bandes fournissent des cadres conceptuels puissants pour relier la structure microscopique aux propriétés mesurables. 

Phénomènes émergents

La physique de la matière condensée s'est édifiée sur la constatation que les solides et les liquides ne se comportent pas comme de simples collections d'atomes indépendants. Dès qu'un grand nombre de particules interagissent, elles donnent naissance à des propriétés nouvelles qui ne peuvent pas se comprendre en étudiant une particule isolée : de l'organisation collective naît l'émergence de comportements inédits. La superfluidité, la supraconductivité et les phénomènes magnétiques collectifs en sont des illustrations classiques. Leur émergence repose sur la coopération à grande échelle de degrés de liberté microscopiques, rendue possible par des conditions extrêmes de température et par des interactions spécifiques.

Superfluidité.
La superfluidité se manifeste dans certains liquides, comme l'hélium-4 refroidi en dessous de 2,17 K (point lambda), où les particules composant les composant entrent dans une phase quantique où elles perdent toute viscosité et conduction thermique normale : un liquide superfluide peut circuler sans aucune résistance interne. Ce comportement s'accompagne de phénomènes spectaculaires : le liquide peut grimper le long des parois d'un récipient, s'écouler à travers des capillaires microscopiques sans résistance, ou encore former des tourbillons quantifiés stables. Cette propriété émerge de la condensation de Bose-Einstein, un phénomène quantique collectif où une fraction importante des atomes occupe le même état quantique fondamental (V. plus bas). À cette échelle, les fluctuations thermiques sont suffisamment faibles pour que les effets quantiques, normalement invisibles à l'échelle macroscopique, deviennent dominants. L'onde de matière associée à cet état collectif se comporte comme une onde cohérente unique, permettant un écoulement sans dissipation. La superfluidité n'est donc pas une propriété d'un atome isolé, mais une manifestation de la cohérence quantique à grande échelle, rendue possible par les statistiques de Bose-Einstein et les interactions faibles entre particules. 

Supraconductivité.
La supraconductivité est l'annulation totale de la résistance électrique observée dans certains matériaux lorsqu'ils sont refroidis en dessous d'une température critique, souvent proche du zéro absolu. Découverte en 1911 dans le mercure, ce phénomène s'accompagne également de l'expulsion des champs magnétiques (effet Meissner), une signature fondamentale qui distingue un supraconducteur d'un simple conducteur parfait. La compréhension moderne de la supraconductivité repose sur la théorie BCS (Bardeen-Cooper-Schrieffer, 1957), qui montre que les électrons, normalement des fermions répulsifs, peuvent former des paires appelées paires de Cooper grâce à une interaction indirecte médiée par les vibrations du réseau cristallin (phonons). Ces paires se comportent comme des bosons et peuvent alors se condenser dans un état quantique collectif cohérent. Ce condensat macroscopique permet aux paires de circuler sans collision ni dissipation, d'où l'absence de résistance. Comme dans le cas de la superfluidité, il s'agit d'un phénomène émergent : aucun électron seul n'est supraconducteur, mais l'interaction collective de millions d'électrons donne naissance à un état fondamentalement nouveau. 

Phénomènes magnétiques collectifs.
Le magnétisme existe à l'échelle des particules individuelles, mais envisagé à l'échelle macroscopique, il donne naissance à des propriétés collectives remarquables qui peuvent le faire voir aussi comme un phénomène émergent. Les interactions microscopiques entre des particules élémentaires, notamment celles des spins (sources d'un moment magnétique) des électrons dans les matériaux, ne sont pas directement observables à grande échelle, mais elles déterminent de manière significative la structure et le comportement des matériaux magnétiques à l'échelle macroscopique. Le magnétisme ainsi considéré  émerge lorsque de nombreux spins, initialement désordonnés, tendent à s'aligner dans une configuration cohérente. Cette organisation collective, ordinairement décrite par des concepts tels que la corrélation des spins ou la polarisation magnétique, n'est pas, ici encore, simplement la somme des propriétés individuelles des particules, mais résulte d'une dynamique collective complexe. Le ferromagnétisme, l'antiferromagnétisme et la frustration magnétique sont des exemples typiques de phénomènes émergents dans les systèmes magnétiques.

• Le ferromagnétisme émerge lorsque les spins des électrons dans un matériau se synchronisent et s'alignent dans le même sens sous l'influence dominante de forces de couplage ferromagnétique. À l'échelle microscopique, chaque spin interagit avec ses voisins proches via un champ magnétique local, favorisant un alignement parallèle. À l'échelle macroscopique, cet alignement collectif conduit à une polarisation magnétique nette caractéristique. La transition vers l'état ferromagnétique, appelée température de Curie, marque l'apparition d'un ordre magnétique spontané, qui n'est pas présent à haute température où les fluctuations thermiques perturbent l'alignement des spins.

• L'antiferromagnétisme, quant à lui, émerge lorsque les spins s'alignent alternativement dans des directions opposées, annulant ainsi la polarisation magnétique locale. Les interactions antiferromagnétiques prédominent dans ces systèmes, où chaque spin tend à s'opposer à celui de ses voisins immédiats. Cela conduit à une absence apparente de magnétisme macroscopique dans l'état ordonné, car les moments magnétiques locaux se compensent mutuellement. Lorsque la température atteint la température de Néel (analogue, pour l'antiferromagnétisme, à la température de Curie), le système passe d'un état désordonné à un état ordonné antiferromagnétique, où les spins forment des motifs réguliers de compensation.

• La frustration magnétique apparaît lorsque les interactions entre spins ne peuvent pas être simultanément satisfaites, créant des configurations où il n'existe pas de solution unique pour minimiser l'énergie du système. Cette situation peut survenir dans des réseaux cristallographiques complexes où plusieurs spins sont connectés de manière incompatible. Dans de tels systèmes, les spins cherchent à se stabiliser dans des configurations partiellement désordonnées, conduisant à des états magnétiques non conventionnels, comme les phases liquides magnétiques ou les états de spin excité. La frustration empêche généralement l'apparition d'un ordre magnétique classique, provoquant des comportements dynamiques riches et des états métastables. Dans certains systèmes dits frustrés, l'impossibilité d'un alignement parfait conduit à des états désordonnés quantiques, comme les liquides de spins, où les corrélations persistent sans brisure de symétrie classique.

Phases de la matière et transitions de phases

Les phases de la matière.
Une phase est un état de la matière défini par ses propriétés macroscopiques homogènes (= propriétés physiques et chimiques uniformes et stables dans le temps) et son organisation interne ( = organisation particulière des particules qui la composent répondant à un ensemble défini de symétries). Par exemple, un liquide et un solide contiennent tous deux des molécules d'eau, mais leur arrangement et leur mobilité diffèrent : dans un liquide, les molécules sont en contact mais se déplacent librement, tandis que dans un solide cristallin, elles sont disposées de façon régulière dans un réseau rigide.

On distingue plusieurs types de phases, les unes courantes (les phases solides, liquides et gazeuses), mais d'autres aussi plus exotiques (cristaux liquides, plasmas quarks-gluons, etc). Deux parties d'un même matériau appartiennent à la même phase si elles sont homogènes et peuvent se transformer l'une dans l'autre sans qu'il y ait de discontinuité. 

Etat solide.
L'état solide est caractérisé par une organisation structurée et rigide des atomes ou molécules qui composent la matière. Les particules sont disposées dans un réseau cristallin, avec des forces d'interaction fortes entre elles, ce qui limite leur mobilité. Dans les matériaux cristallins, les atomes sont alignés dans un arrangement périodique répétitif, tandis que dans les matériaux amorphes, ils ne suivent pas de structure ordonnée apparente, et se rapprochent par là des verres. Cette organisation fixe confère aux solides une résistance mécanique élevée, une forme définie et une capacité à résister aux changements de volume sous pression. Les solides peuvent subir des transformations, comme le glissement des plans de grains dans les métaux, mais ces changements sont généralement lents et nécessitent des efforts importants. Certains solides constitués d'un assemblage rigide de microcristaux, définissant des orientations décorrélées les unes des autres, sont dit amorphes. Il doivent cependant être distingués d'autres matériaux proprement amorphes (sans structures cristallines) comme les verres.. 

Etat liquide.
L'état liquide se distingue par l'absence d'ordre spatial fixe. Les particules y sont désordonnées, pouvant se déplacer librement, mais restent fortement corrélées à courte distance. Cette liberté de mouvement confère aux liquides la capacité d'épouser la forme de leur contenant tout en conservant un volume propre. Cependant, les distances intermoléculaires sont suffisamment courtes pour maintenir des forces d'attraction intermoléculaires, ce qui empêche les particules de s'échapper et confère une cohésion au liquide. Ce phénomène explique pourquoi les liquides ont une surface libre et peuvent être versés, mais également pourquoi ils possèdent une masse volumique constante et une compressibilité faible. Les liquides  possèdent aussi des propriétés dynamiques complexes, comme la viscosité, qui mesure leur résistance à l'écoulement (La mécanique des fluides).

Verres.
Les verres sont des matériaux amorphes, c'est-à-dire qu'ils n'ont pas d'organisation structurale ordonnée à grande échelle comme les cristaux. Contrairement aux solides cristallins, où les atomes ou molécules sont organisés dans un réseau périodique, les verres présentent une structure aléatoire. Cette organisation désordonnée provient généralement du refoidissement rapide d'un liquide, empêchant ainsi la formation complète du réseau cristallin. Les verres sont solides à température ambiante, mais   leur structure ressemble aussi à celle d'un liquide figé et ils conservent certaines propriétés des liquides comme la capacité à subir des déformations plastiques sous stress. Ils sont généralement transparents, perméables aux ondes électromagnétiques dans certaines gammes de fréquences, et possèdent une résistance mécanique variable selon leur composition chimique. 

Cristaux liquides.
Les cristaux liquides occupent une position intermédiaire entre les états solide et liquide. Ils combinent certaines propriétés structurales des solides cristallins, comme l'orientation ordonnée des molécules, avec la fluidité des liquides. Dans un cristal liquide, les molécules sont orientées de manière régulière, mais elles peuvent pivoter autour de leur axe principal, permettant ainsi un certain degré de mobilité. Cette organisation particulière donne aux cristaux liquides des propriétés optiques particulières, comme la polarisation de la lumière et la modification de la transmission lumineuse en fonction de l'application de champs électriques ou magnétiques

Condensats de Bose-Einstein.
Les condensats de Bose-Einstein apparaissent à des températures extrêmement basses, proches du zéro absolu. Dans ces conditions, des bosons identiques, comme des atomes de rubidium ou de sodium refroidis par laser et piégés magnétiquement, se trouvent tous dans le même état quantique fondamental. Le système se comporte alors comme une unique « onde de matière » macroscopique. Cette cohérence quantique à grande échelle donne lieu à des phénomènes comme la superfluidité, les interférences quantiques à l'échelle visible, et l'étude de nouveaux régimes de la mécanique quantique. Ces condensats offrent un terrain d'expérimentation privilégié pour étudier la physique des particules, les transitions de phase quantiques et même la simulation de phénomènes cosmologiques.

Plasmas de quarks-gluons.
Les plasmas de quarks-gluons, à l'opposé extrême de l'échelle énergétique,constituent une phase de la matière qui se forme à des températures et densités extrêmement élevées, telles qu'elles existaient quelques microsecondes après le tout début de l'expansion de l'univers (big bang). Dans ce régime, les quarks et les gluons, normalement confinés à l'intérieur des protons et neutrons, deviennent libres de se déplacer dans un état de plasma fortement interactif. Ces conditions sont recréées artificiellement dans des accélérateurs de particules comme le LHC ou le RHIC, où des ions lourds sont accélérés et collisionnés à des vitesses proches de celle de la lumière. L'étude de ce plasma permet de mieux comprendre l'interaction forte, les propriétés collectives des quarks et des gluons, ainsi que l'origine de la matière visible dans l'univers.

La théorie de Landau des transitions de phase.
Lorsqu'un système passe d'une phase à une autre, il subit une transition de phase. La compréhension des transitions de phase repose sur l'analyse des symétries et des interactions du système. Une phase peut être considérée comme plus ou moins ordonnée selon la symétrie qu'elle conserve, et une transition correspond souvent à une brisure de symétrie. Elle est accompagnée de modifications de densité, d'aimantation, de structure atomique ou d'autres grandeurs macroscopiques, lorsque certaines conditions externes, comme la température, la pression ou le champ magnétique, sont modifiées. La théorie de Landau des transitions de phase, introduite en 1937, constitue un cadre conceptuel utile en première approche pour décrire et comprendre ces changements d'état de la matière. L'idée centrale repose sur l'introduction d'un paramètre d'ordre, une grandeur macroscopique qui distingue clirement une phase d'une autre. On peut ainsi classifier les différents états du matériau en fonction de leur degré d'ordre ou des symétries qu'on y observe.

Le paramètre d'ordre.
Le paramètre d'ordre décrit l'amplitude de la brisure de symétrie lors d'une transition de phase. Avant la transition, le système présente une certaine symétrie macroscopique qui se brise après la transition, conduisant à un état ordonné. Le paramètre d'ordre est lié à cette asymétrie. Par exemple, dans le ferromagnétisme, la symétrie rotationnelle du magnétisme est brisée par l'apparition d'un moment magnétique global non nul, ce moment correspont au paramètre d'ordre. Dans un supraconducteur, c'est l'apparition d'une fonction d'onde de paires de Cooper qui constitue le paramètre d'ordre.

La théorie de Landau établit que le paramètre d'ordre doit être nul avant la transition de phase (dans l'état désordonné), et non nul après (dans l'état ordonné). La variation de ce paramètre autour de zéro permet de décrire la dynamique de la transition. Les symétries du système influencent directement la forme du potentiel libre de Ginzburg-Landau, qui dépend du paramètre d'ordre et permet de prédire les propriétés thermodynamiques et les comportements critiques du matériau.

Énergie libre et potentiel de Ginzburg-Landau.
La théorie part du principe que, près de la transition, l'énergie libre du système peut être développée en série de Taylor de puissances du paramètre d'ordre, en ne retenant que les termes compatibles avec les symétries fondamentales du problème. Le développement de l'énergie libre prend une forme polynomiale où chaque terme reflète une contribution spécifique au comportement du système. L'énergie libre est une fonction de la température T et de le paramètre ordre ψ. Pour un système proche d'une transition de phase critique, on écrit l'énergie libre sous la forme d'un potentiel de Ginzburg-Landau qui est une approximation permettant de simplifier l'analyse des transitions de phase proches du point critique. Une valeur approchée de l'énergie libre totale F peut être écrite sous la forme suivante :

où ψ est le paramètre d'ordre,  F0​ est une constante indépendante du paramètre d'ordre, a(T) est une fonction de température qui change de signe au point critique, b est une constante positive. Le terme  représente une contribution quadratique en ψ, tandis que le terme  est une contribution quartique, qui garantit que l'énergie libre admet un minimum global stable.

Les coefficients de ce développement dépendent en général de la température. Près du point critique, a(T) devient négatif, ce qui permet àψ de prendre une valeur non nulle, signifiant que la symétrie du système est brisée. Lorsque T dépasse le point critique, a(T) devient positif, et ψ doit redevenir nul pour minimiser l'énergie libre, restaurant ainsi la symétrie initiale. C'est ce mécanisme qui décrit de manière simple l'apparition spontanée d'une structure ordonnée à la transition de phase. 

Le potentiel de Ginzburg-Landau est donc une approximation utile pour décrire l'énergie libre dans le voisinage du point critique, où les fluctuations de ψ sont importantes. Cette approximation permet de rendre compte des comportements critiques et de prédire les propriétés thermodynamiques du système, telles que la température de transition, la variation de la capacité calorifique spécifique, et les exposants critiques.

Ordre d'une transition de phase.
La théorie de Landau conduit à distinguer deux grandes catégories de transitions, définies par la forme de l'énergie libre en fonction du paramètre d'ordre (présence ou non de termes cubiques ou du signe du coefficient associé au terme quartique). Les transitions du premier ordre sont caractérisées par une discontinuité du paramètre d'ordre et par l'existence d'une chaleur latente. Les transitions du second ordre se signalent par une évolution progressive du paramètre d'ordre. Il n'y a pas de chaleur latente, mais certaines grandeurs thermodynamiques, comme la capacité calorifique ou la susceptibilité magnétique, présentent des singularités ou des divergences près du point critique.

• Les transitions du second ordre. - Dans une transition du second ordre, dite continue, le paramètre d'ordre croît progressivement à partir de zéro lorsque la température descend en dessous de la valeur critique. L'énergie libre admet alors un minimum qui se déplace continûment, sans discontinuité dans les quantités thermodynamiques elles-mêmes, mais avec des singularités dans leurs dérivées. Deux exemples :
+ La transition ferromagnétique se décrit en introduisant l'aimantation moyenne (moment magnétique moyen) comme paramètre d'ordre. L'énergie libre est développée en fonction de ce paramètre, en tenant compte de la symétrie de renversement de l'aimantation (l'invariance par inversion du spin). Le développement contient donc des termes quadratiques et quartiques, mais pas cubiques. Le coefficient du terme quadratique dépend de la température et change de signe au point critique. Au-dessus de la température de Curie Tc, ce coefficient est positif et l'énergie libre est minimale pour une aimantation nulle, correspondant à la phase paramagnétique. En dessous de cette température, il devient négatif et l'énergie libre est minimisée pour une aimantation non nulle, marquant l'apparition de l'ordre magnétique global. L'aimantation croît alors continûment à partir de zéro, ce qui illustre le caractère continu de cette transition de phase.

+ La transition supraconductrice (= passage d'une phase normale (conducteur classique) à une phase superconductrice) s'analyse de manière analogue, avec comme paramètre d'ordre la fonction d'onde macroscopique associée aux paires de Cooper. Par symétrie, l'énergie libre doit dépendre seulement du module de cette fonction d'onde, de sorte que le développement se fait en puissances de son amplitude. Là encore, le signe du terme quadratique détermine l'état stable : au-dessus de la température critique, l'amplitude optimale est nulle et le système se trouve dans l'état normal. En dessous, l'énergie libre est minimisée pour une amplitude non nulle de la fonction d'onde, signifiant que les électrons se condensent dans un état collectif cohérent. La transition est de type continu, et la théorie de Landau-Ginzburg permet en plus d'incorporer les effets spatiaux et les champs électromagnétiques, ce qui explique des phénomènes comme la rigidité de phase ou l'expulsion du champ magnétique (effet Meissner).

• Les transitions du premier ordre, en revanche, sont caractérisées par une discontinuité du paramètre d'ordre à la température de transition. Le système passe brutalement d'un état désordonné à un état ordonné, avec coexistence possible des deux phases au point de transition. L'énergie libre possède alors deux minima distincts, et le système bascule de l'un à l'autre quand les conditions thermodynamiques sont modifiées. Un exemple classique  :
+ La transition liquide-glace ne présente pas de paramètre d'ordre n'est pas aussi simple à identifier qu'une aimantation ou une fonction d'onde, mais on peut le relier à l'ordre cristallin qui apparaît lorsque les molécules se figent dans une structure périodique (dans une transition liquide-gaz, qui est aussi une transition du premier ordre, le paramètre d'ordre pourrait être la densité). Le développement de l'énergie libre doit alors inclure des termes cubiques autorisés par la symétrie brisée, ce qui permet l'existence de deux minima stables correspondant aux phases liquide et solide. À la température de fusion, ces deux minima coexistent et le système passe de l'un à l'autre de façon abrupte. Le paramètre d'ordre, qui mesure l'amplitude de l'ordre cristallin, est nul dans le liquide et non nul dans le solide, avec une discontinuité nette à la transition. Cette discontinuité se traduit par la présence d'une chaleur latente et par un changement brutal des propriétés macroscopiques, caractéristiques d'une transition du premier ordre.
Ces deux types de transitions présentent ainsi des signatures thermodynamiques distinctes. Dans une transition du premier ordre, il existe une chaleur latente, correspondant à une discontinuité dans l'entropie, ainsi qu'une discontinuité dans le volume ou dans d'autres variables extensives. Dans une transition du second ordre, au contraire, il n'y a pas de chaleur latente, mais les grandeurs comme la capacité calorifique, la susceptibilité magnétique ou la compressibilité deviennent divergentes ou présentent de fortes anomalies en raison des corrélations de grande portée qui apparaissent.

Au-delà de l'approximation de Landau : le groupe de renormalisation.
La théorie de Landau fournit un cadre élégant pour comprendre la structure des transitions de phase. Elle a même trouvé des applications dans des domaines variés, allant des transitions de phase dans les systèmes de particules élémentaires aux phénomènes collectifs en biologie ou en chimie. En mettant en avant la notion de paramètre d'ordre et de brisure de symétrie, la théorie de Landau offre une perspective unifiée sur les transformations profondes que subissent les systèmes complexes lorsqu'ils passent d'un état à un autre. Mais elle repose sur une approximation essentielle : l'hypothèse que le comportement du système est bien décrit par la valeur moyenne du paramètre d'ordre, sans prise en compte des fluctuations microscopiques (quantiques et thermiques). Or, à proximité d'un point critique, ces fluctuations deviennent de plus en plus importantes et s'étendent sur de grandes distances dans le système. La longueur de corrélation, qui mesure la taille des régions au sein desquelles les variables microscopiques sont corrélées, diverge. Dans ce régime, l'approximation de Landau, qui suppose un développement régulier de l'énergie libre autour d'une valeur moyenne homogène, échoue à décrire correctement la physique observée.

C'est précisément pour pallier ces limites qu'a été introduite la théorie du groupe de renormalisation, développée dans les années 1970 notamment par Kenneth Wilson. L'idée centrale est d'analyser la manière dont les interactions et les fluctuations à petite échelle se répercutent sur les comportements à grande échelle. On procède conceptuellement par un “grossissement de maille†: les degrés de liberté microscopiques sont intégrés progressivement, et l'on observe comment les paramètres effectifs du système évoluent à chaque étape. Cette démarche permet de mettre en évidence l'existence de points fixes, qui contrôlent les propriétés universelles des transitions de phase.

La notion d'universalité, en particulier, est ici une avancée majeure par rapport à la vision de Landau. Elle signifie que des systèmes physiques très différents – par exemple un aimant ferromagnétique, un fluide proche du point critique liquide-gaz ou encore certains modèles de réseaux de spins – présentent les mêmes lois de puissance et les mêmes exposants critiques. Ce caractère universel ne dépend pas des détails microscopiques, mais seulement de quelques ingrédients clés : la dimension de l'espace et la symétrie du paramètre d'ordre. La théorie du groupe de renormalisation explique ainsi pourquoi les exposants critiques expérimentaux diffèrent de ceux prédits par la théorie de Landau, sauf dans des échelles suffisamment élevées où les fluctuations deviennent négligeables et où la théorie de Landau redevient utilisable.

Les quasiparticules

Une fois les phases identifiées, il faut comprendre les phénomènes qui les caractérisent, en particulier comment elles vibrent, fluctuent et transmettent l'énergie. Dans un système complexe à N corps, il est utile de décrire les excitations collectives du système comme s'il s'agissait particules indépendantes d'un type nouveau, toutes porteuses des mêmes propriétés effectives (différentes de celles des particules libres). On parle alors de quasiparticules. Il s'agit d'une approximation mathématique puissante qui transforme un problème compliqué à N corps en un problème beaucoup plus simple. Une quasiparticule n'est pas une particule fondamentale au sens du Modèle Standard des particules (comme un électron ou un quark). C'est une entité émergente, une perturbation qui se propage dans le matériau en se comportant comme si c'était une particule. Ainsi, dans un cristal, les atomes vibrent, mais la description la plus efficace consiste à introduire les phonons, quasiparticules quantiques de vibration. Dans un aimant, les ondes de spin se traduisent par des magnons. Dans les électrons d'un métal, les oscillations de densité donnent des plasmons, etc. Ces quasiparticules forment un langage universel qui simplifie la physique des systèmes complexes en termes d'entités élémentaires nouvelles.
La ola, comme exemple. - On illustre communément la notion de quasi-particule à partir de analogie offerte par la ola (= vague, en espagnol), que produit une une foule dans un stade. L'excitation (la vague) se déplace à travers la foule. Chaque personne se lève et se rassoit à sa place, mais la vague elle-même voyage. On peut décrire cette vague par sa vitesse, sa direction, son énergie. Elle se comporte comme un objet unique, une quasi-vague, bien qu'elle émerge du comportement collectif de milliers de personnes. Elle n'existe pas en dehors de la foule. Le principe est le même en physique de la matière condensée. 
Le pouvoir du concept de quasiparticule réside dans sa simplicité. Il permet aux physiciens d'utiliser tout l'appareil mathématique développé pour les particules libres (comme la conservation de l'impulsion et de l'énergie dans les collisions) pour décrire des phénomènes collectifs complexes dans la matière. Une collision entre une particule et une quasi-particule, ou entre deux quasi-particules, peut être calculée presque comme une collision entre deux balles de billard. C'est ce qui fait des quasiparticules l'outil linguistique et conceptuel indispensable pour décrire et comprendre le monde riche des matériaux. Voici quelques-unes des quasiparticules les plus importantes :

Phonons.
Le phonon est le quantum de vibration dans un réseau cristallin. Dans un solide, les atomes ne sont pas fixes; ils oscillent autour de leurs positions d'équilibre. Ces vibrations se propagent sous forme d'ondes sonores. Le phonon est la particule associée à ces ondes, tout comme le photon est la particule associée à une onde lumineuse. Les phonons peremettent d'expliquer expliquer des propriétés comme la chaleur spécifique des solides à basse température et la conduction thermique dans les isolants.

Solitons.
Les solitons sont des ondes particulières capables de se maintenir sous forme localisée dans des systèmes non linéaires, sans se disperser ou disparaître. Ils apparaissent dans divers contextes physiques, tels que les fibres optiques, les fluides ou les solides, où ils peuvent transporter de l'énergie sur de longues distances sans perte significative. Les tsunamis sont des solitons hydrodynamiques de très grande longueur d'onde (de l'ordre de la centaine de kilomètres). D'autres solitons, de longueur d'onde beaucoup plus petite, peuvent également se former à la surface des océans ou être créés en laboratoire.

Trous.
Le trou est l'une des quasiparticules les plus simples et les plus utiles. Si un électron est manquant dans une bande d'énergie autrement pleine, cette absence se comporte exactement comme une particule avec une charge électrique positive (opposée à celle de l'électron) et une masse effective positive. La conduction dans les semi-conducteurs de type P est entièrement décrite par le mouvement de ces trous.

Excitons.
État lié d'un électron et d'un trou (l'absence d'électron). L'exciton est un état lié, semblable à un atome d'hydrogène, formé par un électron (chargé négativement) et un trou (chargé positivement) qui s'attirent via la force de Coulomb. Il s'agit d'une quasiparticule neutre mais excitée, qui est impliquée dans l'absorption de la lumière et les processus photoluminescents dans les semi-conducteurs et les isolants, et est au cœur du fonctionnement des diodes OLED et des cellules solaires photovoltaïques. Selon la distance qui sépare le trou et l'electron, on parle d'exciton de Mott-Wannier (séparation de quelques centaines d'Å), ou d'exciton de Frenkel (distance inférieure à 5 Å), dans les cas extrêmes.

Polaritons.
Les polaritons sont des quasiparticules qui apparaissent dans les matériaux optiques. Ils résultent de l'interaction entre des photons et d'autres excitations du matériau, comme les phonons ou les excitons. Ils combinent ainsi des propriétés photoniques et électroniques, et occasionnent des phénomènes observés en optique quantique.

Plasmons.
Le plasmon est le quantum d'oscillation collective du "gaz d'électrons" (plasma) dans  un métamatériau ou un métal, induites par une onde électromagnétique. Si on perturbe la densité électronique, les électrons vont osciller ensemble autour de leur position d'équilibre, comme un liquide incompressible. Ces oscillations créent une onde de surface appelée onde de surface plasmon-polariton (SPP), qui peut se propager le long de la frontière métal/matière isolante avec une faible dissipation d'énergie. Les plasmons de surface sont notamment utilisés en nanotechnologie et en bio-détection.

Polarons.
Le polaron se forme lorsqu'un électron se déplace dans un cristal et déforme le réseau atomique autour de lui à cause des interactions électrostatiques. L'électron se déplace en traînant avec lui cette déformation de réseau. L'objet composite "électron + déformation" est le polaron. Il a une masse effective plus grande que celle d'un électron libre parce qu'il doit déplacer non seulement lui-même, mais aussi le champ de déformation qui l'entoure. Le nom de la quasiparticule vient de ce que la déformation du réseau produit une polarisation locale. 

Magnons.
Le magnon est la quasiparticule associée à cette onde de spin collective. Dans un matériau magnétique (comme un ferromagnétique), l'excitation la plus simple n'est pas de retourner un seul spin (ce qui coûterait très cher en énergie), mais de créer une onde où l'orientation des spins varie de façon progressive d'un atome à l'autre. 
Les magnons sont impliqués dans l'étude des phénomènes des transitions de phase magnétiques et des phénomènes de transport électronique dans les matériaux magnétiques.

Anyons.
Enfin, dans le domaine très actuel de la physique mésoscopique ( = étude des phénomènes aux échelles entre le domaine quantique et le domaine macroscopique) et de l'information quantique, on trouve des quasiparticules aux propriétés encore plus exotiques, comme les anyons. Contrairement aux fermions et aux bosons standards, les anyons obéissent à des statistiques fractionnaires. Ces entités émergent dans certains systèmes bidimensionnels, tels que le gaz d'électrons dans l'effet Hall quantique fractionnaire.

L'anyon de Majorana est une une quasi-particule qui est sa propre antiparticule et qui obéit à une statistique non abélienne. Ce type d'entité esrt prédit émerger aux extrémités de certains nanofils supraconducteurs ou dans les défauts de matériaux topologiques (V. plus bas) en proximité avec un supraconducteur. La manipulation des anyons de Majorana pourrait former la base d'un calcul quantique topologique intrinsèquement robuste contre les décohérences locales.

La théorie des bandes

Dans de nombreux matériaux, les électrons interagissent si fortement que les images simples des solides échouent. La théorie des bandes, proposée en 1928 par Félix Bloch, permet d'expliquer les propriétés électroniques des solides à partir de leur structure microscopique. Son idée de base est que les électrons d'un cristal ne se comportent pas comme des particules libres, mais comme des particules soumises à un potentiel périodique créé par les ions du réseau. Cette périodicité fondamentale modifie radicalement le spectre d'énergie des électrons par rapport à celui d'un gaz libre.

Bandes permises et bandes interdites.
Les solides cristallins sont envisagés comme des ensembles d'atomes disposés de manière périodique dans l'espace. Lorsque des atomes isolés, chacun avec ses niveaux d'énergie électroniques discrets et bien définis (comme les orbitales 1s, 2s, 2p, etc.), se rapprochent pour former un cristal, leurs fonctions d'onde électroniques commencent à se recouvrir. Ce recouvrement signifie que les électrons ne sont plus strictement localisés sur un seul atome mais peuvent être échangés entre atomes voisins, un phénomène régi par le principe d'exclusion de Pauli.

Chaque niveau d'énergie atomique discret se transforme alors en une bande d'énergie permise. Le nombre d'états électroniques (orbitales) dans cette bande est extrêmement grand, mais fini. Par exemple, un niveau s (dégénérescence 1) provenant de N atomes donnera naissance à une bande contenant N états très proches les uns des autres. De même, un niveau p (dégénérescence 3) donnera naissance à trois bandes contenant au total 3N états.

Les bandes permises peuvent accueillir ou non des électrons. On distingue ainsi en particulier la bande de valence et la bande de conduction. La première correspond à la plage d'énergie la plus élevée encore remplie par des électrons à température nulle. Elle est issue des orbitales de valence des atomes et contient les électrons responsables des liaisons chimiques. Au-dessus de cette bande se trouve la bande de conduction, qui regroupe des états d'énergie disponibles mais vides ou partiellement occupés. Les électrons qui parviennent dans cette bande sont délocalisés dans le solide et peuvent se déplacer librement, ce qui permet la conduction électrique. Entre ces deux bandes peut exister une région appelée gap (= fossé) énergétique ou bande interdite

Les bandes interdites émergent naturellement comme des intervalles d'énergie où aucune orbitale électronique n'est autorisée. Elles apparaissent aux limites de la zone de Brillouin, qui est une construction de l'espace des moments qui définit la périodicité du réseau cristallin. Mathématiquement, c'est une conséquence de la solution de l'équation de Schrödinger pour un potentiel périodique (théorème de Bloch). Les ondes électroniques dont le vecteur d'onde atteint ces limites subissent une diffraction de Bragg, créant des interférences destructives qui ouvrent une gap énergétique. L'ampleur de cette bande interdite dépend de la force du potentiel périodique du réseau cristallin.

La zone de Brillouin est une cellule primitive dans l'espace des vecteurs d'onde (espace réciproque) qui représente tous les états de mouvement possibles pour une onde électronique dans un réseau cristallin périodique. Elle est construite en traçant les plans médiateurs entre le point d'origine et tous les points du réseau réciproque. La première zone de Brillouin est la région la plus proche de l'origine délimitée par ces plans. Elle contient toutes les informations nécessaires sur la symétrie et les propriétés électroniques du cristal, ce qui permet de décrire complètement le comportement des électrons sans avoir à considérer des vecteurs d'onde en dehors de cette zone.

Le théorème de Bloch est un résultat fondamental qui décrit la forme des fonctions d'onde électroniques dans un potentiel périodique, comme celui créé par les ions d'un cristal. Il stipule que les solutions de l'équation de Schrödinger pour un tel potentiel peuvent s'écrire comme le produit d'une onde plane et d'une fonction périodique : ψk(r) = uk(r) e(i k·r), où uk(r) a la même périodicité que le réseau cristallin. Cela signifie que l'électron n'est pas localisé sur un atome particulier mais se propage à travers tout le cristal, et que son comportement est caractérisé par un vecteur d'onde k. Ce théorème justifie pourquoi l'énergie électronique est décrite par des bandes En(k), qui sont des fonctions continues de k au sein de la zone de Brillouin.

La diffraction de Bragg est un phénomène qui se produit lorsqu'une onde, comme une onde électronique, rencontre un réseau périodique. La condition pour qu'une diffraction constructive se produise est donnée par la loi de Bragg : nλ = 2d sinθ, où λ est la longueur d'onde, d est l'espacement entre les plans cristallins et θ est l'angle d'incidence. Dans le contexte de la théorie des bandes, cette condition est équivalente à ce que le vecteur d'onde k de l'électron atteigne la frontière de la zone de Brillouin. À ce point, l'onde est réfléchie par le réseau, ce qui conduit à la formation d'ondes stationnaires. Cette interférence ouvre une bande interdite dans le spectre d'énergie, car deux états d'énergie différents (les ondes stationnaires se propageant dans des directions opposées) apparaissent pour le même vecteur d'onde à la frontière de la zone. C'est le mécanisme physique à l'origine de la création des bandes interdites.

Distinction métaux/isolants.semi-conducteurs.
La classification des solides en métaux, isolants et semi-conducteurs découle directement de cette description. 
• Un métal possède une bande de valence partiellement remplie ou une bande de valence remplie qui chevauche une bande de conduction vide. Dans les deux cas, il n'y a pas de gap d'énergie entre les états occupés et les états vacants. Les électrons peuvent donc facilement se déplacer et participer à la conduction électrique, même avec une très faible énergie fournie (comme un faible champ électrique).

• Un isolant (ou un semi-conducteur à 0 K) possède une bande de valence parfaitement remplie et une bande de conduction parfaitement vide, séparées par un large gap d'énergie interdit (généralement > 4 eV). À basse température, l'énergie thermique disponible est insuffisante pour exciter un nombre significatif d'électrons à travers ce gap vers la bande de conduction. La bande de valence étant pleine, les électrons ne peuvent pas se déplacer facilement, ce qui entraîne une très faible conductivité.

• Un semi-conducteur suit le même principe de base qu'un isolant : une bande de valence pleine et une bande de conduction vide séparées par un gap d'énergie interdit. La distinction cruciale est que ce gap est étroit (généralement < 4 eV). À température ambiante, l'énergie thermique est suffisante pour exciter un nombre non négligeable d'électrons de la bande de valence vers la bande de conduction. Ceci laisse derrière eux des trous (états vacants traités comme des quasiparticules) dans la bande de valence. La conduction électrique devient alors possible grâce au mouvement de ces électrons dans la bande de conduction et des trous dans la bande de valence. La conductivité d'un semi-conducteur intrinsèque augmente de façon exponentielle avec la température.

L'intérêt de la théorie des bandes ne se limite pas à la justification de cette classification. Toute l'industrie des puces électroniques, des transistors, des diodes et des processeurs découle directement de cette théorie. Celle-ci permet également d'expliquer des phénomènes plus subtils comme l'anisotropie de la conductivité, l'existence de porteurs effectifs (électrons et trous) dont la masse apparente peut être très différente de celle de l'électron libre, ou encore des propriétés optiques telles que l'absorption et l'émission de photons dans des semi-conducteurs. En affinant le calcul des bandes par des méthodes plus précises, comme la théorie de la fonctionnelle de la densité, on peut prédire les propriétés électroniques et structurales d'une grande variété de matériaux avec une grande précision. Au-delà de ses applications classiques, la théorie des bandes s'est révélée être aussi une base pour comprendre une nouvelle catégorie de matériaux, les matériaux topologiques. 

Les matériaux topologiques

L'idée que la topologie de la structure de bande peut engendrer de nouvelles phases de la matière, protégées par des invariants topologiques, a ouvert un champ de recherche extrêmement actif de nos jours (leurs travaux fondateurs dans ce domaine a valu le prix Nobel de physique à David Thouless, Duncan Haldane et Michael Kosterlitz en 2016). Un matériau topologique est un solide dont les propriétés électroniques ou vibratoires ne se comprennent pas seulement par la symétrie locale des atomes ou la structure cristalline, mais par une caractérisation topologique des états quantiques qu'il héberge. Contrairement aux isolants classiques, où la conduction est entièrement déterminée par la présence ou non d'un gap électronique, un matériau topologique peut être isolant dans son volume mais conducteur à sa surface ou sur ses arêtes. Cette conduction de bord est protégée par des invariants topologiques et par des symétries fondamentales, ce qui la rend robuste face aux perturbations locales ou aux défauts.

Le recours à la topologie dans la physique des solides se traduit par la mise au jour d'invariants entiers permettant de classifier les bandes électroniques. Ces invariants servent à distinguer des phases de la matière qui, tout en ayant le même type de symétrie, possèdent des comportements physiques radicalement différents. La transition entre une phase topologique et une phase triviale requiert la fermeture et la réouverture du gap d'énergie, analogue à un changement de genre topologique en mathématiques.

Contrairement aux phases de matière traditionnelles (comme un ferromagnétique ou un cristal) qui sont décrites par un paramètre d'ordre local (comme l'aimantation ou la densité atomique), une phase topologique est caractérisée par un invariant topologique global. Cet invariant est un nombre entier qui ne change pas sous l'effet de déformations continues du système, tant que la bande interdite reste ouverte. C'est analogue à la façon dont un tore (une bouée) et une sphère sont topologiquement distincts : on ne peut pas transformer l'un en l'autre sans créer une déchirure. Les états de bord ne peuvent être détruits que si l'on brise la symétrie qui garantit leur existence, par exemple l'invariance de temps pour les isolants Z2, ou la symétrie cristalline pour certains isolants topologiques protégés par la symétrie spatiale. Cela explique leur robustesse contre les impuretés, contrairement aux canaux de conduction ordinaires.

Les isolants topologiques en deux dimensions constituent une première réalisation : ils présentent un effet Hall quantique sans champ magnétique externe, où les électrons circulent sur les bords en canaux unidirectionnels, protégés de la diffusion par le désordre. En trois dimensions, on trouve des isolants topologiques avec états de surface dont la dispersion particulière rappelle celle des électrons relativistes. À côté de ces systèmes, sont apparus les semi-métaux topologiques, tels que les semi-métaux de Dirac ou de Weyl, où les bandes se croisent en points ou en lignes protégés par la symétrie. Ces croisements donnent lieu à des quasi-particules effectives qui imitent des particules fondamentales prédite par la théorie des champs.

Classification des phases topologiques.
La classification des phases topologiques repose sur l'idée qu'un état quantique de la matière peut présenter des propriétés invariantes vis-à-vis de déformations continues, tant que certaines symétries et l'existence d'un gap énergétique sont préservées. Contrairement aux phases classiques de la matière, qui se distinguent par des paramètres d'ordre locaux associés à la rupture de symétries (comme dans la théorie de Landau), les phases topologiques, on l'a dit, se caractérisent par des invariants globaux insensibles aux perturbations microscopiques. Selon que les phases dépendent ou non des interactions des particules dans le matériaux considéré, on destingue deux grands types de phases topologiques :

• Les phases topologiques non-interactives sont des états de la matière caractérisés par des propriétés topologiques qui ne dépendent pas des interactions entre les particules, mais uniquement de leur symétrie. Ces phases peuvent être décrites par des théories de champ quantique topologiques, comme les théories des champs topologiques ou les modèles de Chern-Simons en dimension impaire. Elles comprennent des exemples tels que les isolants topologiques bidimensionnels (ITB) et tridimensionnels (ITT), où les états électroniques à la surface ou aux bords du matériau sont protégés par une topologie spécifique plutôt que par une bande de conductivité classique. Ces phases sont ordinairement stables contre des perturbations faibles et présentent des propriétés spéciales telles que la conductivité quantique des bords.

• Les phases topologiques interactives, en revanche, dépendent directement des interactions entre les particules. Ces interactions peuvent modifier la structure topologique du système, introduisant des phénomènes plus complexes que ceux observés dans les phases non interactives. Par exemple, dans certaines phases topologiques interactives, les excitations quasiparticules peuvent exister sous forme de quasi-particules fractionnaires, comme dans les fluides de Hall fractionnaires, où les charges apparentes transportées par ces quasi-particules ne sont pas entières mais fractionnaires. Ces systèmes peuvent également présenter des phénomènes tels que l'enchevêtrement topologique ou des phases de confinement topologique, où les excitations sont liées de manière complexe par des relations topologiques. Les phases interactives comprennent des systèmes comme les états liquides de spin topologiques ou les supraconducteurs topologiques, où les interactions jouent un rôle crucial dans la stabilité et la nature des phases.

Ajoutons que la classification topologique de la matière ne se limite pas aux électrons. Des systèmes photoniques, phononiques ou mécaniques peuvent être conçus pour présenter des modes de bord protégés par la topologie. La topologie est ainsi devenue un langage transversal permettant d'unifier et de prédire des comportements inattendus dans des domaines variés au-delà même de celui de la physique de la matière condensée.

La table périodique des matériaux topologiques.
La classification générale des phases topologiques non interactives repose sur ce que l'on appelle la « table périodique des isolants et supraconducteurs topologiques ». Celle-ci organise les phases possibles en fonction de la dimension spatiale et des symétries fondamentales du système : symétrie de renversement du temps, symétrie de conjugaison de charge et symétrie chirale. On obtient ainsi une grille qui permet de prédire, pour chaque dimension et chaque classe de symétrie, l'existence d'invariants topologiques de divers types. Selon la dimension spatiale et la nature des symétries (invariance par renversement du temps, symétrie de conjugaison de charge, symétrie chirale), un matériau peut ou non héberger un invariant topologique caractéristique.

Ces symétries définissent dix classes universelles (A, AIII, AI, BDI, D, DIII, AII, CII, C, CI), connues sous le nom de classes d'Altland–Zirnbauer (AZ). Pour chacune de ces classes, il existe une structure périodique qui indique, en fonction de la dimension spatiale, si la phase topologique possible est caractérisée par un invariant entier (), un invariant binaire (2) ou bien si elle est triviale. Par exemple, dans deux dimensions, la classe sans symétrie particulière (classe A) peut porter un invariant de type nombre de Chern, responsable de l'effet Hall quantique. En trois dimensions, la classe avec symétrie de renversement du temps mais sans symétrie de conjugaison de charge (classe AII) admet un invariant 2, ce qui correspond aux isolants topologiques tridimensionnels.

La périodicité de cette classification se répète tous les huit intervalles de dimension spatiale, reflétant une structure mathématique profonde. C'est cette régularité qui a conduit à l'appellation de « table périodique », par analogie avec celle des éléments chimiques, car elle permet d'anticiper systématiquement quelles phases topologiques sont possibles sans avoir à analyser chaque cas particulier séparément. Dans la pratique, cette table sert de carte conceptuelle pour guider la recherche de nouveaux matériaux topologiques. Elle indique aux physiciens quelles combinaisons de symétries et de dimensions peuvent héberger des phases protégées et quels types d'états de bord devraient émerger. De cette manière, elle fournit un langage commun reliant les prédictions théoriques aux découvertes expérimentales, et structure le domaine de la topologie de la matière de façon universelle. 

Un extrait simplifié de la table périodique des matériaux topologiques :
-

Classe AZ
Dimension
Invariant
Exemples
A
Aucune symétrie particulière.

2D 
Z (nombre de Chern) Isolants de Chern (ex. effet Hall quantique sans champ magnétique, modèle de Haldane).
3D Trivial Pas de phase topologique stable.
AII
Symétrie de renversement du temps avec T² = −1 typique des électrons avec couplage spin-orbite.
2D  Z2 Isolants topologiques 2D (effet Hall quantique de spin, ex. puits quantiques HgTe/CdTe).
3D Z2 Isolants topologiques 3D (ex. Bi2Se3, Bi2Te3, Sb2Te3).
D
Symétrie de conjugaison de charge, supraconducteurs sans symétrie temporelle.
1D Z2 Supraconducteurs topologiques 1D (chaîne de Kitaev, états de Majorana aux extrémités).
2D  Z Supraconducteurs topologiques 2D (paires de type p+ip, vortex hébergeant des modes de Majorana).
DIII
Temps inversé et charge-conjuguée, supraconducteurs avec symétrie de renversement du temps.
1D Z2 Chaînes de Majorana protégées par symétrie temporelle.
3D Z Supraconducteurs topologiques tridimensionnels (ex. certains états proposés dans le cuivre dopé Bi2Se3).

Cette organisation s'étend à toutes les classes et dimensions, avec une structure périodique qui se répète tous les huit degrés de dimension. C'est cette périodicité mathématique qui rend la classification complète et prédictive.

Au-delà du cadre des fermions non interactifs, la classification s'élargit avec les phases symétriquement protégées (SPT phases), qui impliquent les interactions. Ces phases restent distinctes de la phase triviale tant que certaines symétries globales (par exemple l'invariance sous inversion du temps ou la conservation de la parité de particule) sont respectées. Les systèmes de bosons topologiques, ou encore les phases fractonnaires, illustrent cette extension et nécessitent des outils plus généraux comme la cohomologie des groupes ou la théorie des catégories. Dans les cas encore plus complexes des phases avec ordre topologique intrinsèque, les excitations émergentes sont des quasiparticules fractionnaires (anyons) avec des statistiques exotiques, et la classification fait appel à des structures mathématiques sophistiquées telles que les catégories tensorielles modulaires.

La matière molle et les milieux désordonnés

La physique classique s'est traditionnellement construite autour de l'étude de deux états de la matière bien définis : le solide, caractérisé par une forme et un volume propres, et le liquide, défini par sa capacité à s'écouler et à épouser la forme de son contenant. Pourtant, une grande partie des matériaux que nous côtoyons dans notre vie quotidienne – depuis la mayonnaise jusqu'au shampoing, en passant par les gels, les mousses, les polymères ou le verre – échappent à cette classification binaire. Ces matériaux possèdent des propriétés mécaniques et structurales à mi-chemin entre le solide et le liquide. Ils forment le vaste domaine de la matière molle et des milieux désordonnés, qui nécessite une approche pluridisciplinaire, à la frontière entre la physique, la chimie, la science des matériaux et la biologie. L'enjeu est considérable. Il est fondamental pour comprendre la physique du vivant (la cellule est un concentré de matière molle complexe : cytosquelette, membranes, acides nucléiques) et pour concevoir les matériaux de demain, intelligents, fonctionnels et durables. Comprendre comment un désordre apparent peut engendrer des comportements collectifs organisés et des propriétés mécaniques finement modulables reste l'un des défis majeurs de la physique contemporaine.

La matière molle.
La matière molle (soft matter), dont l'étude a aussi donné lieu à un Prix Nobel (en 1991) avec Pierre-Gilles de Gennes pour ses travaux sur les cristaux liquides et les polymère, se définit par sa grande sensibilité aux faibles sollicitations. Une énergie faible, de l'ordre de l'énergie thermique kBT (où kB est la constante de Boltzmann et T la température absolue), est suffisante pour provoquer des déformations importantes, des changements de structure ou de phase. Cette extrême sensibilité provient de la faiblesse des énergies d'interaction qui maintiennent cohérents ces matériaux. Ces énergies sont bien plus faibles que les liaisons covalentes ou ioniques des solides durs, et sont fréquemment de nature entropique. Les constituants de la matière molle sont divers mais partagent une échelle mésoscopique : ils sont beaucoup plus grands qu'un atome, mais assez petits pour que l'agitation thermique joue un rôle décisif. On peut citer :

• Les polymères sont des macromolécules formées par la répétition d'unités (monomères) reliées de manière covalente. La longueur considérable de ces chaînes, associée à leur flexibilité, confère à ces systèmes des propriétés mécaniques et dynamiques singulières, comme l'élasticité du caoutchouc, la viscosité élevée des solutions concentrées ou la capacité de former des réseaux interconnectés. L'étude de leurs conformations repose sur une approche statistique permettant de décrire les fluctuations entropiques, la dynamique de reptation et les effets d'entrelacement. En fonction de leur architecture (linéaire, ramifiée, réticulée) et de leurs conditions d'assemblage, les polymères peuvent conduire à des phases amorphes, cristallines ou vitreuses, mais également à des gels présentant des propriétés viscoélastiques. 

• Les colloïdes sont des systèmes dispersés constitués de particules de taille comprise entre quelques nanomètres et quelques micromètres en suspension dans un milieu fluide. Leur comportement est gouverné par la compétition entre forces attractives de type van der Waals ou interactions de déplétion et forces répulsives électrostatiques ou stériques. Cette balance d'interactions conditionne la stabilité de la suspension ainsi que son évolution structurale, qui peut aboutir à la formation de phases liquides, cristallines, vitreuses ou encore gélifiées. Selon les conditions expérimentales, les colloïdes peuvent s'assembler en structures désordonnées, cristallines ou vitreuses. Les systèmes colloïdaux, en raison de leur accessibilité expérimentale et de l'échelle intermédiaire des particules, constituent des modèles privilégiés pour l'étude de phénomènes fondamentaux tels que la cristallisation, le vieillissement des verres ou les transitions de phase hors équilibre. 

• Les tensioactifs sont des molécules amphiphiles possédant simultanément un segment hydrophile et un segment hydrophobe. 
Lorsqu'ils sont dissous dans un solvant, ils s'auto-assemblent en structures variées telles que micelles sphériques, cylindrique, vésicules ou bicouches, afin de minimiser l'énergie libre associée aux interfaces. Ces morphologies résultent d'un compromis entre interactions hydrophobes et contraintes géométriques, et leur organisation dépend fortement de paramètres expérimentaux tels que la concentration, la température ou la nature du solvant. Les agrégats de tensioactifs donnent naissance à des phases mésomorphes d'une grande richesse, notamment des phases cubiques, hexagonales ou lamellaires, dont l'étude éclaire les mécanismes d'auto-organisation dans les systèmes biologiques et industriels, en particulier essentiels dans des applications allant de la formulation de détergents à la conception de systèmes biomimétiques.

• Les cristaux liquides, comme on l'a dit plus haut, se situent à l'interface entre les états solides et liquides, en présentant simultanément une mobilité moléculaire caractéristique d'un fluide et un ordre orienté propre aux phases cristallines. Selon la nature des molécules et les conditions thermodynamiques, plusieurs mésophases sont observées : nématique, smectique ou cholestérique, chacune se distinguant par un degré d'ordre positionnel et/ou directionnel particulier. Ces systèmes présentent une sensibilité aux champs externes, notamment électriques et magnétiques, ce qui en fait des matériaux de choix dans le domaine des dispositifs optoélectroniques. Les affichages à cristaux liquides (LCD), par exemple, sont basés sur la possibilité qu'ils offrent de moduler de leur biréfringence. Leur étude constitue par ailleurs un terrain privilégié pour l'analyse des transitions d'ordre et de la physique de l'orientation moléculaire. 

Au fil des exemples que l'on vient de donner, deux concepts unificateurs sont apparus. Celui d'auto-assemblage et celui-d'auto-organisation. Le premier correspond à une organisation spontanée vers l'équilibre sous l'effet d'interactions réversibles, tandis que l'auto-organisation désigne l'émergence de structures dynamiques et persistantes loin de l'équilibre, grâce à un apport continu d'énergie. Les deux notions sont complémentaires pour comprendre la richesse des comportements dans les systèmes mous.

L'auto assemblage.
L'auto-assemblage désigne le processus par lequel des entités moléculaires ou supramoléculaires s'organisent spontanément en structures ordonnées ou hiérarchisées, sous l'effet d'interactions locales faibles et réversibles, sans intervention extérieure directe pour imposer l'agencement. Ce concept explique la formation de nombreuses structures complexes à partir de constituants simples, en s'appuyant sur un compromis subtil entre enthalpie et entropie. Les interactions mises en jeu peuvent être de nature variée, telles que les liaisons hydrogène, les forces électrostatiques, les interactions hydrophobes ou les forces de van der Waals.

L'auto-assemblage est au coeur du comportement des tensioactifs, qui s'organisent en micelles, bicouches ou vésicules afin de minimiser l'énergie interfaciale, mais également des cristaux liquides, dont les molécules anisotropes s'orientent collectivement pour donner naissance à des mésophases ordonnées. Les polymères peuvent également s'auto-assembler en micro-domaines, par ségrégation de blocs incompatibles dans les copolymères, générant des morphologies lamellaires, cylindriques ou cubiques. Dans le cas des colloïdes, l'auto-organisation induite par des interactions spécifiques peut conduire à la formation de réseaux périodiques ou amorphes, ce qui permet de modéliser des transitions de phase analogues à celles observées dans les systèmes atomiques.

L'intérêt fondamental du concept d'auto-assemblage réside dans le fait qu'il permet de comprendre comment des structures complexes, dotées de propriétés fonctionnelles, émergent de manière spontanée à partir de constituants élémentaires relativement simples. Ce mécanisme se distingue de l'assemblage dirigé par les humains en ce qu'il repose sur des principes thermodynamiques d'équilibre ou de quasi-équilibre, où la configuration finale correspond à un état de basse énergie libre. Il ouvre également une voie vers la conception de matériaux « intelligents » capables de s'organiser, de se réorganiser et de s'adapter à leur environnement en réponse à des stimuli externes comme la température, le pH, la lumière ou un champ électrique.

L'auto-organisation.
L'auto-organisation, en revanche, s'inscrit dans un cadre dynamique hors équilibre. Ici, les structures émergent de l'évolution temporelle du système, sous l'effet de flux de matière ou d'énergie qui l'empêchent d'atteindre l'équilibre thermodynamique. Les motifs observés résultent de processus collectifs, souvent non linéaires, et sont maintenus tant que le système reste alimenté en énergie.  Ce phénomène est ordinairement observé dans les systèmes où les interactions locales entre les éléments, tels que des molécules ou des particules, mènent à une organisation globale spontanée et adaptative.

Des exemples classiques sont la convection de Bénard, les ondes de Belousov–Zhabotinsky ou encore certains motifs spatio-temporels dans les gels réactionnels. Dans le contexte de la matière molle, on retrouve l'auto-organisation dans des systèmes actifs, comme des suspensions de particules motiles ou des assemblages biologiques. Les propriétés macroscopiques émergent naturellement à partir de dynamiques microscopiques. Par exemple, dans un gel, les molécules de polymère peuvent se déplacer librement dans certaines conditions, mais en présence de contraintes ou de changements environnementaux, elles s'organisent en réseaux complexes. Ces réseaux sont auto-organisés : ils émergent sans qu'une structure préexistante soit imposée, mais plutôt grâce aux interactions chimiques et physiques entre les molécules.

Un autre exemple est donné par les systèmes de phase séparée, où deux fluides ou matériaux se mélangent pour former une solution homogène. À mesure que des paramètres tels que la température ou la concentration changent, ces solutions peuvent subir une séparation en phases distinctes. Cela reflète également une auto-organisation, car les molécules organisent leurs positions pour minimiser leur énergie potentielle, conduisant à des structures plus stables.

Les milieux désordonés.
La notion de milieux désordonnés recoupe partiellement celle de matière molle mais s'en distingue par son accent sur l'absence d'ordre à longue portée et l'hétérogénéité spatiale. Les milieux désordonnés constituent une classe de systèmes où l'organisation spatiale et les propriétés macroscopiques ne peuvent être décrites par un ordre périodique simple, mais résultent au contraire de la complexité des interactions locales et de la dynamique collective des constituants. Un verre de silicate est un exemple canonique : il possède la rigidité mécanique d'un solide, mais l'arrangement atomique désordonné d'un liquide figé. Ce désordre structural a des conséquences profondes sur les propriétés dynamiques (relaxation lente, non exponentielle), vibratoires (existence de modes localisés) et de transport. Outre les verres, on pourra mentionner ici, comme exemples de milieux désordonnés :

• Les mousses sont formées par la dispersion de bulles de gaz dans un liquide ou un solide, stabilisées par des agents tensioactifs qui réduisent l'énergie interfaciale. Leur structure est caractérisée par un réseau polyédrique de films minces, dont l'évolution est gouvernée par des processus tels que le drainage gravitaire, la coalescence et le mûrissement d'Ostwald. Elles se distinguent par un comportement mécanique atypique, présentant une élasticité apparente à faible contrainte et un écoulement plastique au-delà d'un seuil, ce qui les rapproche des matériaux dits « à seuil d'écoulement ». Leur désordre structural confère une forte hétérogénéité locale, faisant de leur description théorique un défi pour la physique statistique.

• Les émulsions consistent en une dispersion de gouttelettes d'un liquide dans un autre liquide non miscible, généralement stabilisée par des tensioactifs ou des particules colloïdales. Comme pour les mousses, leur stabilité repose sur la minimisation de l'énergie interfaciale, mais leur dynamique est dominée par des phénomènes tels que la coalescence, la floculation et le mûrissement d'Ostwald. Elles présentent également un comportement mécanique de type viscoélastique ou plastique selon la fraction volumique de gouttelettes, et peuvent, dans des régimes concentrés, former des structures désordonnées proches des verres mous. Les émulsions constituent ainsi un système modèle pour l'étude de la transition vitreuse, des propriétés rhéologiques non linéaires et de la dynamique lente des milieux désordonnés.

• Les matériaux granulaires se composent d'assemblages de particules solides de taille mésoscopique, dont les interactions sont essentiellement de nature mécanique, dominées par les contacts, la friction et la pesanteur. Leur particularité réside dans l'absence d'agitation thermique significative, ce qui distingue leur comportement de celui des systèmes colloïdaux ou moléculaires. Ils présentent une dualité remarquable, pouvant se comporter comme un fluide lorsqu'ils s'écoulent sous agitation ou comme un solide lorsqu'ils sont confinés. Leur organisation est intrinsèquement désordonnée, mais des structures émergentes comme les arches, les chaînes de force ou les états métastables gouvernent leurs propriétés macroscopiques. L'étude des matériaux granulaires a permis de mettre en évidence des phénomènes génériques tels que le blocage (jamming), l'auto-organisation sous cisaillement et la dynamique intermittente.

• Les gels, enfin, sont des systèmes hétérogènes caractérisés par la présence d'un réseau solide formé par l'association de particules, de polymères ou de macromolécules, emprisonnant un fluide dans ses mailles. Leur nature désordonnée provient de la distribution aléatoire des liaisons et de la géométrie complexe du réseau. Les gels présentent un comportement mécanique hybride, combinant rigidité élastique et réponse visqueuse, et se distinguent par des phénomènes de vieillissement et de relaxation lente. Ces systèmes offrent un cadre conceptuel pour l'étude des transitions dynamiques et de la physique hors équilibre, tout en trouvant des applications dans les biomatériaux, l'alimentation ou la cosmétique.

Ces différents systèmes illustrent la richesse et la diversité des milieux désordonnés, où l'absence d'ordre cristallin n'exclut pas l'émergence de propriétés collectives robustes et universelles. Leur étude met en évidence l'importance des concepts de frustration, de blocage et de dynamique lente, qui constituent aujourd'hui des notions centrales dans la compréhension de la matière complexe, mais qui, ensemble,  soulignent aussi la difficulté de prédire et de modéliser les comportements de systèmes désordonnés, en raison de l'interdépendance complexe de leurs constituants et de la présence de nombreux états métastables..

La frustration.
La frustration désigne une situation où les interactions entre les constituants du système (comme des spins dans un réseau magnétique) ne peuvent pas être simultanément satisfaites. Par exemple, dans un réseau triangulaire avec des interactions antiferromagnétiques, il est impossible pour chaque spin d'aligner son voisin de manière cohérente. Cela conduit à une situation où l'énergie locale ne peut pas être minimisée complètement, ce qui engendre un désordre structurel persistant et une instabilité énergétique locale.

Le blocage.
Le blocage est lié à cette frustration : dans certains cas, le système se bloque dans des configurations locales où il est difficile de basculer vers une autre configuration optimale sans franchir une barrière d'énergie élevée. Cette immobilité relative empêche le système de réorganiser entièrement ses composantes, même lorsque des fluctuations thermiques ou autres perturbations pourraient théoriquement provoquer des changements.

La dynamique lente.
Enfin, la dynamique lente décrit la manière dont le système évolue temporellement dans ces conditions. À cause de la frustration et du blocage, les transitions entre différentes configurations d'équilibre deviennent extrêmement rares et nécessitent généralement des temps très longs. Ce phénomène est particulièrement visible dans les verres, où la relaxation vers l'équilibre thermodynamique peut prendre des durées astronomiques, rendant pratiquement impossible l'observation de l'équilibre dans des expériences de laboratoire. La dynamique lente reflète donc non seulement la complexité des interactions dans les milieux désordonnés, mais aussi et leur tendance à s'attarder dans des états métastables.

.


Les mots de la matière
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
[Aide][Recherche sur Internet]

© Serge Jodra, 2025. - Reproduction interdite.