 |
La
physique
de la matière condensée est l'étude des propriétés de la matière
lorsqu'un grand nombre de particules (atomes, molécules, électrons) interagissent,
particulièrement dans les phases condensées comme les solides ou les
liquides. Elle étudie des phénomènes émergents qui n'existent pas au
niveau d'une seule particule, tels que la supraconductivité (absence de
résistance électrique à basse température), la superfluidité (absence
de viscosité), le magnétisme,
les semi-conducteurs (base de l'électronique moderne), les cristaux liquides,
les matériaux topologiques et les phénomènes critiques lors des transitions
de phase.
C'est aujourd'hui
la plus vaste branche de la physique en termes de chercheurs et aussi un
domaine foisonnant qui se déploie dans de multiples directions. Au-delÃ
de sa dimension fondamentale, la matière condensée est au coeur de nombreuses
applications. La conception des matériaux utilisés dans l'électronique,
l'énergie, l'optique ou encore l'informatique
repose directement sur les connaissances acquises dans ce domaine. Les
transistors, les lasers, les écrans modernes,
les matériaux supraconducteurs pour l'imagerie médicale ou le transport
d'électricité sont autant d'exemples concrets de cette interaction constante
entre recherche fondamentale et innovation technologique.
La diversité des
systèmes étudiés va ainsi des solides cristallins classiques aux matériaux
amorphes et vitreux, des liquides simples aux fluides quantiques comme
l'hélium superfluide, des aimants
aux ferroélectriques, des semi-conducteurs traditionnels aux matériaux
à corrélations fortes, sans oublier les phases exotiques de la matière
topologique. Tous ces systèmes partagent un même trait : leurs propriétés
macroscopiques ne se réduisent pas à la somme des comportements microscopiques,
mais découlent d'organisations collectives gouvernées par les symétries,
les interactions et les contraintes imposées par l'environnement.
L'un des enjeux majeurs
de cette discipline est de comprendre comment des propriétés collectives
émergent à partir de règles simples. Un cristal,
par exemple, est formé de la répétition régulière d'un motif atomique,
et cette organisation périodique engendre une structure électronique
qui explique la conductivité d'un métal, la non-conductivité électrique
d'un isolant ou encore le comportement particulier d'un semi-conducteur.
De même, des phénomènes aussi spectaculaires
que la supraconductivité, le magnétisme collectif ou les transitions
de phase trouvent leur origine dans les interactions corrélées de milliards
de particules qui, prises individuellement, n'auraient pas ces propriétés.
C'est ce concept d'émergence qui confère à la matière condensée son
rôle central dans la compréhension des états de la matière.
Des modèles basés
sur la mécanique quantique, comme la théorie
de Landau des transitions de phase ou la théorie des bandes fournissent
des cadres conceptuels puissants pour relier la structure microscopique
aux propriétés mesurables.
Phénomènes émergents
La physique de la matière
condensée s'est édifiée sur la constatation que les solides et les liquides
ne se comportent pas comme de simples collections d'atomes indépendants.
Dès qu'un grand nombre de particules interagissent, elles donnent naissance
à des propriétés nouvelles qui ne peuvent
pas se comprendre en étudiant une particule isolée : de l'organisation
collective naît l'émergence de comportements inédits. La superfluidité,
la supraconductivité et les phénomènes magnétiques collectifs en sont
des illustrations classiques. Leur émergence repose sur la coopération
à grande échelle de degrés de liberté
microscopiques, rendue possible par des conditions extrêmes de température
et par des interactions spécifiques.
Superfluidité.
La superfluidité
se manifeste dans certains liquides, comme l'hélium-4 refroidi en dessous
de 2,17 K (point lambda), où les particules composant les composant entrent
dans une phase quantique où elles perdent toute viscosité et conduction
thermique normale : un liquide superfluide peut circuler sans aucune résistance
interne. Ce comportement s'accompagne de phénomènes spectaculaires :
le liquide peut grimper le long des parois d'un récipient, s'écouler
à travers des capillaires microscopiques sans résistance, ou encore former
des tourbillons quantifiés stables. Cette propriété émerge de la condensation
de Bose-Einstein, un phénomène quantique collectif où une fraction importante
des atomes occupe le même état quantique fondamental
(V. plus bas). À cette échelle, les fluctuations thermiques sont suffisamment
faibles pour que les effets quantiques, normalement invisibles à l'échelle
macroscopique, deviennent dominants. L'onde de matière associée à cet
état collectif se comporte comme une onde cohérente unique, permettant
un écoulement sans dissipation. La superfluidité n'est donc pas une propriété
d'un atome isolé, mais une manifestation de la cohérence quantique Ã
grande échelle, rendue possible par les statistiques
de Bose-Einstein et les interactions faibles entre particules.
Supraconductivité.
La supraconductivité
est l'annulation totale de la résistance électrique observée dans certains
matériaux lorsqu'ils sont refroidis en dessous d'une température critique,
souvent proche du zéro absolu. Découverte
en 1911 dans le mercure, ce phénomène s'accompagne
également de l'expulsion des champs magnétiques (effet
Meissner), une signature fondamentale qui distingue un supraconducteur
d'un simple conducteur parfait. La compréhension moderne de la supraconductivité
repose sur la théorie BCS (Bardeen-Cooper-Schrieffer, 1957), qui montre
que les électrons, normalement des fermions
répulsifs, peuvent former des paires appelées paires
de Cooper grâce à une interaction indirecte médiée par les vibrations
du réseau cristallin (phonons). Ces paires se comportent comme des bosons
et peuvent alors se condenser dans un état quantique collectif cohérent.
Ce condensat macroscopique permet aux paires de circuler sans collision
ni dissipation, d'où l'absence de résistance. Comme dans le cas de la
superfluidité, il s'agit d'un phénomène émergent : aucun électron
seul n'est supraconducteur, mais l'interaction collective de millions d'électrons
donne naissance à un état fondamentalement nouveau.
Phénomènes magnétiques
collectifs.
Le magnétisme
existe à l'échelle des particules individuelles, mais envisagé à l'échelle
macroscopique, il donne naissance à des propriétés collectives remarquables
qui peuvent le faire voir aussi comme un phénomène émergent. Les interactions
microscopiques entre des particules élémentaires, notamment celles des
spins
(sources d'un moment magnétique) des électrons
dans les matériaux, ne sont pas directement observables à grande échelle,
mais elles déterminent de manière significative la structure et le comportement
des matériaux magnétiques à l'échelle macroscopique. Le magnétisme
ainsi considéré émerge lorsque de nombreux spins, initialement
désordonnés, tendent à s'aligner dans une configuration cohérente.
Cette organisation collective, ordinairement décrite par des concepts
tels que la corrélation des spins ou la polarisation magnétique, n'est
pas, ici encore, simplement la somme des propriétés individuelles des
particules, mais résulte d'une dynamique collective complexe. Le ferromagnétisme,
l'antiferromagnétisme et la frustration magnétique sont des exemples
typiques de phénomènes émergents dans les systèmes magnétiques.
• Le
ferromagnétisme
émerge lorsque les spins des électrons dans un matériau se synchronisent
et s'alignent dans le même sens sous l'influence dominante de forces de
couplage ferromagnétique. À l'échelle microscopique, chaque spin interagit
avec ses voisins proches via un champ magnétique local, favorisant un
alignement parallèle. À l'échelle macroscopique, cet alignement collectif
conduit à une polarisation magnétique nette caractéristique. La transition
vers l'état ferromagnétique, appelée température
de Curie, marque l'apparition d'un ordre magnétique spontané, qui
n'est pas présent à haute température où les fluctuations thermiques
perturbent l'alignement des spins.
• L'antiferromagnétisme,
quant à lui, émerge lorsque les spins s'alignent alternativement dans
des directions opposées, annulant ainsi la polarisation magnétique locale.
Les interactions antiferromagnétiques prédominent dans ces systèmes,
où chaque spin tend à s'opposer à celui de ses voisins immédiats. Cela
conduit à une absence apparente de magnétisme macroscopique dans l'état
ordonné, car les moments magnétiques locaux se compensent mutuellement.
Lorsque la température atteint la température de Néel (analogue, pour
l'antiferromagnétisme, à la température de Curie), le système passe
d'un état désordonné à un état ordonné antiferromagnétique, où
les spins forment des motifs réguliers de compensation.
• La frustration
magnétique apparaît lorsque les interactions entre spins ne peuvent
pas être simultanément satisfaites, créant des configurations où il
n'existe pas de solution unique pour minimiser l'énergie du système.
Cette situation peut survenir dans des réseaux cristallographiques complexes
où plusieurs spins sont connectés de manière incompatible. Dans de tels
systèmes, les spins cherchent à se stabiliser dans des configurations
partiellement désordonnées, conduisant à des états magnétiques non
conventionnels, comme les phases liquides magnétiques ou les états de
spin excité. La frustration empêche généralement l'apparition d'un
ordre magnétique classique, provoquant des comportements dynamiques riches
et des états métastables. Dans certains systèmes dits frustrés, l'impossibilité
d'un alignement parfait conduit à des états désordonnés quantiques,
comme les liquides de spins, où les corrélations persistent sans
brisure
de symétrie classique.
Phases de la matière
et transitions de phases
Les phases de la
matière.
Une phase
est un état de la matière défini par ses propriétés macroscopiques
homogènes (= propriétés physiques et chimiques uniformes et stables
dans le temps) et son organisation interne ( = organisation particulière
des particules qui la composent répondant à un ensemble défini de symétries).
Par exemple, un liquide et un solide contiennent tous deux des molécules
d'eau, mais leur arrangement et leur mobilité diffèrent : dans un liquide,
les molécules sont en contact mais se déplacent
librement, tandis que dans un solide cristallin, elles sont disposées
de façon régulière dans un réseau rigide.
On distingue plusieurs
types de phases, les unes courantes (les phases solides, liquides et gazeuses),
mais d'autres aussi plus exotiques (cristaux liquides, plasmas quarks-gluons,
etc). Deux parties d'un même matériau appartiennent à la même phase
si elles sont homogènes et peuvent se transformer l'une dans l'autre sans
qu'il y ait de discontinuité.
Etat
solide.
L'état solide
est caractérisé par une organisation structurée et rigide des atomes
ou molécules qui composent la matière. Les particules sont disposées
dans un réseau cristallin, avec des forces d'interaction fortes entre
elles, ce qui limite leur mobilité. Dans les matériaux cristallins, les
atomes
sont alignés dans un arrangement périodique répétitif, tandis que dans
les matériaux amorphes, ils ne suivent pas de structure ordonnée apparente,
et se rapprochent par là des verres. Cette organisation fixe confère
aux solides une résistance mécanique élevée, une forme définie et
une capacité à résister aux changements de volume sous pression.
Les solides peuvent subir des transformations, comme le glissement des
plans de grains dans les métaux, mais ces changements sont généralement
lents et nécessitent des efforts importants. Certains solides constitués
d'un assemblage rigide de microcristaux, définissant des orientations
décorrélées les unes des autres, sont dit amorphes. Il doivent cependant
être distingués d'autres matériaux proprement amorphes (sans structures
cristallines) comme les verres..
Etat
liquide.
L'état liquide
se distingue par l'absence d'ordre spatial fixe. Les particules y sont
désordonnées, pouvant se déplacer librement, mais restent fortement
corrélées à courte distance. Cette liberté de mouvement confère aux
liquides la capacité d'épouser la forme de leur contenant tout en conservant
un volume propre. Cependant, les distances intermoléculaires sont suffisamment
courtes pour maintenir des forces d'attraction intermoléculaires, ce qui
empêche les particules de s'échapper et confère une cohésion au liquide.
Ce phénomène explique pourquoi les liquides ont une surface libre et
peuvent être versés, mais également pourquoi ils possèdent une masse
volumique constante et une compressibilité faible. Les liquides
possèdent aussi des propriétés dynamiques complexes, comme la viscosité,
qui mesure leur résistance à l'écoulement ( La
mécanique des fluides).
Verres.
Les verres sont
des matériaux amorphes, c'est-à -dire qu'ils n'ont pas d'organisation
structurale ordonnée à grande échelle comme les cristaux. Contrairement
aux solides cristallins, où les atomes ou molécules sont organisés dans
un réseau périodique, les verres présentent une structure aléatoire.
Cette organisation désordonnée provient généralement du refoidissement
rapide d'un liquide, empêchant ainsi la formation complète du réseau
cristallin. Les verres sont solides à température ambiante, mais
leur structure ressemble aussi à celle d'un liquide figé et ils conservent
certaines propriétés des liquides comme la capacité à subir des déformations
plastiques sous stress. Ils sont généralement transparents, perméables
aux ondes électromagnétiques
dans certaines gammes de fréquences, et possèdent une résistance mécanique
variable selon leur composition chimique.
Cristaux
liquides.
Les cristaux liquides
occupent une position intermédiaire entre les états solide et liquide.
Ils combinent certaines propriétés structurales des solides cristallins,
comme l'orientation ordonnée des molécules, avec la fluidité des liquides.
Dans un cristal liquide, les molécules sont orientées de manière régulière,
mais elles peuvent pivoter autour de leur axe principal, permettant ainsi
un certain degré de mobilité. Cette organisation particulière donne
aux cristaux liquides des propriétés optiques particulières, comme la
polarisation
de la lumière et la modification de la transmission
lumineuse en fonction de l'application de champs
électriques ou magnétiques.
Condensats
de Bose-Einstein.
Les condensats de
Bose-Einstein apparaissent à des températures extrêmement basses, proches
du zéro absolu. Dans ces conditions, des bosons identiques, comme des
atomes de rubidium ou de sodium
refroidis par laser et piégés magnétiquement,
se trouvent tous dans le même état quantique fondamental. Le système
se comporte alors comme une unique « onde de matière » macroscopique.
Cette cohérence quantique à grande échelle donne lieu à des phénomènes
comme la superfluidité, les interférences quantiques à l'échelle visible,
et l'étude de nouveaux régimes de la mécanique quantique. Ces condensats
offrent un terrain d'expérimentation privilégié pour étudier la physique
des particules, les transitions de phase quantiques et même la simulation
de phénomènes cosmologiques.
Plasmas
de quarks-gluons.
Les plasmas de quarks-gluons,
à l'opposé extrême de l'échelle énergétique,constituent une phase
de la matière qui se forme à des températures et densités extrêmement
élevées, telles qu'elles existaient quelques microsecondes après le
tout début de l'expansion de l'univers (big bang).
Dans ce régime, les quarks et les gluons, normalement confinés à l'intérieur
des protons et neutrons,
deviennent libres de se déplacer dans un état de plasma fortement interactif.
Ces conditions sont recréées artificiellement dans des accélérateurs
de particules comme le LHC ou le RHIC, où des ions lourds sont accélérés
et collisionnés à des vitesses proches de celle de la lumière. L'étude
de ce plasma permet de mieux comprendre l'interaction forte, les propriétés
collectives des quarks et des gluons,
ainsi que l'origine de la matière visible dans l'univers.
La théorie de
Landau des transitions de phase.
Lorsqu'un système
passe d'une phase à une autre, il subit une transition de phase. La compréhension
des transitions de phase repose sur l'analyse des symétries et des interactions
du système. Une phase peut être considérée comme plus ou moins ordonnée
selon la symétrie qu'elle conserve, et une transition correspond souvent
à une brisure de symétrie. Elle est accompagnée de modifications de
densité, d'aimantation, de structure atomique ou d'autres grandeurs macroscopiques,
lorsque certaines conditions externes, comme la température, la pression
ou le champ magnétique, sont modifiées. La théorie de Landau
des transitions de phase, introduite en 1937, constitue un cadre conceptuel
utile en première approche pour décrire et comprendre ces changements
d'état de la matière. L'idée centrale repose sur l'introduction d'un
paramètre
d'ordre, une grandeur macroscopique qui distingue clirement une phase
d'une autre. On peut ainsi classifier les différents états du matériau
en fonction de leur degré d'ordre ou des symétries qu'on y observe.
Le
paramètre d'ordre.
Le paramètre d'ordre
décrit l'amplitude de la brisure de symétrie lors d'une transition de
phase. Avant la transition, le système présente une certaine symétrie
macroscopique qui se brise après la transition, conduisant à un état
ordonné. Le paramètre d'ordre est lié à cette asymétrie. Par exemple,
dans le ferromagnétisme, la symétrie rotationnelle du magnétisme est
brisée par l'apparition d'un moment magnétique global non nul, ce moment
correspont au paramètre d'ordre. Dans un supraconducteur, c'est l'apparition
d'une fonction d'onde de paires de
Cooper qui constitue le paramètre d'ordre.
La théorie de Landau
établit que le paramètre d'ordre doit être nul avant la transition de
phase (dans l'état désordonné), et non nul après (dans l'état ordonné).
La variation de ce paramètre autour de zéro permet de décrire la dynamique
de la transition. Les symétries du système influencent directement la
forme du potentiel libre de Ginzburg-Landau, qui dépend du paramètre
d'ordre et permet de prédire les propriétés thermodynamiques et les
comportements critiques du matériau.
Énergie
libre et potentiel de Ginzburg-Landau.
La théorie part
du principe que, près de la transition, l'énergie
libre du système peut être développée en série
de Taylor de puissances du paramètre d'ordre, en ne retenant que les
termes compatibles avec les symétries fondamentales du problème. Le développement
de l'énergie libre prend une forme polynomiale où chaque terme reflète
une contribution spécifique au comportement du système. L'énergie libre
est une fonction de la température T
et de le paramètre ordre ψ.
Pour un système proche d'une transition de phase critique, on écrit l'énergie
libre sous la forme d'un potentiel de Ginzburg-Landau qui est une approximation
permettant de simplifier l'analyse des transitions de phase proches du
point critique. Une valeur approchée de l'énergie libre totale F
peut être écrite sous la forme suivante :

où ψ
est le paramètre d'ordre, F0​
est une constante indépendante du paramètre d'ordre, a(T)
est une fonction de température qui change de signe au point critique,
b
est une constante positive. Le terme
représente une contribution quadratique en ψ,
tandis que le terme
est une contribution quartique, qui garantit que l'énergie libre admet
un minimum global stable.
Les coefficients
de ce développement dépendent en général de la température. Près
du point critique, a(T)
devient
négatif, ce qui permet à ψ
de prendre une valeur non nulle, signifiant que la symétrie du système
est brisée. Lorsque T
dépasse le point critique, a(T)
devient positif, et ψ
doit redevenir nul pour minimiser l'énergie libre, restaurant ainsi la
symétrie initiale. C'est ce mécanisme qui décrit de manière simple
l'apparition spontanée d'une structure ordonnée à la transition de phase.
Le potentiel de Ginzburg-Landau
est donc une approximation utile pour décrire l'énergie libre dans le
voisinage du point critique, où les fluctuations de ψ sont importantes.
Cette approximation permet de rendre compte des comportements critiques
et de prédire les propriétés thermodynamiques du système, telles que
la température de transition, la variation de la capacité calorifique
spécifique, et les exposants critiques.
Ordre
d'une transition de phase.
La théorie de Landau
conduit à distinguer deux grandes catégories de transitions, définies
par la forme de l'énergie libre en fonction du paramètre d'ordre (présence
ou non de termes cubiques ou du signe du coefficient associé au terme
quartique). Les transitions du premier ordre sont caractérisées par une
discontinuité du paramètre d'ordre et par l'existence d'une chaleur
latente. Les transitions du second ordre se signalent par une évolution
progressive du paramètre d'ordre. Il n'y a pas de chaleur latente, mais
certaines grandeurs thermodynamiques,
comme la capacité calorifique ou la susceptibilité magnétique, présentent
des singularités ou des divergences près du point critique.
• Les
transitions du second ordre. - Dans une transition du second ordre,
dite continue, le paramètre d'ordre croît progressivement à partir de
zéro lorsque la température descend en dessous de la valeur critique.
L'énergie libre admet alors un minimum qui se déplace continûment, sans
discontinuité dans les quantités thermodynamiques elles-mêmes, mais
avec des singularités dans leurs dérivées.
Deux exemples :
+ La
transition ferromagnétique se décrit en introduisant l'aimantation
moyenne (moment magnétique moyen) comme paramètre d'ordre. L'énergie
libre est développée en fonction de ce paramètre, en tenant compte de
la symétrie de renversement de l'aimantation (l'invariance par inversion
du spin). Le développement contient donc des termes quadratiques et quartiques,
mais pas cubiques. Le coefficient du terme quadratique dépend de la température
et change de signe au point critique. Au-dessus de la température de Curie
Tc, ce coefficient est positif et l'énergie libre
est minimale pour une aimantation nulle, correspondant à la phase paramagnétique.
En dessous de cette température, il devient négatif et l'énergie libre
est minimisée pour une aimantation non nulle, marquant l'apparition de
l'ordre magnétique global. L'aimantation croît alors continûment Ã
partir de zéro, ce qui illustre le caractère continu de cette transition
de phase.
+ La transition
supraconductrice (= passage d'une phase normale (conducteur classique)
à une phase superconductrice) s'analyse de manière analogue, avec comme
paramètre d'ordre la fonction d'onde macroscopique associée aux paires
de Cooper. Par symétrie, l'énergie libre doit dépendre seulement
du module de cette fonction d'onde, de sorte que le développement se fait
en puissances de son amplitude. LÃ encore, le signe du terme quadratique
détermine l'état stable : au-dessus de la température critique, l'amplitude
optimale est nulle et le système se trouve dans l'état normal. En dessous,
l'énergie libre est minimisée pour une amplitude non nulle de la fonction
d'onde, signifiant que les électrons se condensent dans un état collectif
cohérent. La transition est de type continu, et la théorie de Landau-Ginzburg
permet en plus d'incorporer les effets spatiaux et les champs électromagnétiques,
ce qui explique des phénomènes comme la rigidité de phase ou l'expulsion
du champ magnétique (effet Meissner).
• Les transitions
du premier ordre, en revanche, sont caractérisées par une discontinuité
du paramètre d'ordre à la température de transition. Le système passe
brutalement d'un état désordonné à un état ordonné, avec coexistence
possible des deux phases au point de transition. L'énergie libre possède
alors deux minima distincts, et le système bascule de l'un à l'autre
quand les conditions thermodynamiques sont modifiées. Un exemple classique
:
+ La
transition liquide-glace ne présente pas de paramètre d'ordre n'est
pas aussi simple à identifier qu'une aimantation ou une fonction d'onde,
mais on peut le relier à l'ordre cristallin qui apparaît lorsque les
molécules se figent dans une structure périodique (dans une transition
liquide-gaz, qui est aussi une transition du premier ordre, le paramètre
d'ordre pourrait être la densité). Le développement de l'énergie libre
doit alors inclure des termes cubiques autorisés par la symétrie brisée,
ce qui permet l'existence de deux minima stables correspondant aux phases
liquide et solide. À la température de fusion, ces deux minima coexistent
et le système passe de l'un à l'autre de façon abrupte. Le paramètre
d'ordre, qui mesure l'amplitude de l'ordre cristallin, est nul dans le
liquide et non nul dans le solide, avec une discontinuité nette à la
transition. Cette discontinuité se traduit par la présence d'une chaleur
latente et par un changement brutal des propriétés macroscopiques, caractéristiques
d'une transition du premier ordre.
Ces deux types de transitions
présentent ainsi des signatures thermodynamiques distinctes. Dans une
transition du premier ordre, il existe une chaleur latente, correspondant
à une discontinuité dans l'entropie,
ainsi qu'une discontinuité dans le volume ou dans d'autres variables extensives.
Dans une transition du second ordre, au contraire, il n'y a pas de chaleur
latente, mais les grandeurs comme la capacité calorifique, la susceptibilité
magnétique ou la compressibilité deviennent divergentes ou présentent
de fortes anomalies en raison des corrélations de grande portée qui apparaissent.
Au-delÃ
de l'approximation de Landau : le groupe de renormalisation.
La théorie de Landau
fournit un cadre élégant pour comprendre la structure des transitions
de phase. Elle a même trouvé des applications dans des domaines variés,
allant des transitions de phase dans les systèmes de particules
élémentaires aux phénomènes collectifs en biologie
ou en chimie. En mettant en avant la notion de
paramètre d'ordre et de brisure de symétrie, la théorie de Landau offre
une perspective unifiée sur les transformations profondes que subissent
les systèmes complexes lorsqu'ils passent d'un état à un autre. Mais
elle repose sur une approximation essentielle : l'hypothèse
que le comportement du système est bien décrit par la valeur moyenne
du paramètre d'ordre, sans prise en compte des fluctuations microscopiques
(quantiques et thermiques). Or, à proximité d'un point critique, ces
fluctuations deviennent de plus en plus importantes et s'étendent sur
de grandes distances dans le système. La longueur de corrélation, qui
mesure la taille des régions au sein desquelles les variables microscopiques
sont corrélées, diverge. Dans ce régime, l'approximation de Landau,
qui suppose un développement régulier de l'énergie libre autour d'une
valeur moyenne homogène, échoue à décrire correctement la physique
observée.
C'est précisément
pour pallier ces limites qu'a été introduite la théorie du groupe
de renormalisation, développée dans les années 1970 notamment par
Kenneth Wilson. L'idée centrale est d'analyser la manière dont les interactions
et les fluctuations à petite échelle se répercutent sur les comportements
à grande échelle. On procède conceptuellement par un “grossissement
de maille†: les degrés de liberté microscopiques sont intégrés progressivement,
et l'on observe comment les paramètres effectifs du système évoluent
à chaque étape. Cette démarche permet de mettre en évidence l'existence
de points fixes, qui contrôlent les propriétés universelles des transitions
de phase.
La notion d'universalité,
en particulier, est ici une avancée majeure par rapport à la vision de
Landau. Elle signifie que des systèmes physiques très différents –
par exemple un aimant ferromagnétique, un fluide proche du point critique
liquide-gaz ou encore certains modèles de réseaux de spins – présentent
les mêmes lois de puissance et les mêmes exposants critiques. Ce caractère
universel ne dépend pas des détails microscopiques, mais seulement de
quelques ingrédients clés : la dimension de l'espace et la symétrie
du paramètre d'ordre. La théorie du groupe de renormalisation explique
ainsi pourquoi les exposants critiques expérimentaux diffèrent de ceux
prédits par la théorie de Landau, sauf dans des échelles suffisamment
élevées où les fluctuations deviennent négligeables et où la théorie
de Landau redevient utilisable.
Les quasiparticules
Une fois les phases
identifiées, il faut comprendre les phénomènes qui les caractérisent,
en particulier comment elles vibrent, fluctuent et transmettent l'énergie.
Dans un système complexe à N corps, il est utile de décrire les excitations
collectives du système comme s'il s'agissait particules indépendantes
d'un type nouveau, toutes porteuses des mêmes propriétés effectives
(différentes de celles des particules libres). On parle alors de quasiparticules.
Il s'agit d'une approximation mathématique puissante qui transforme un
problème compliqué à N corps en un problème beaucoup plus simple. Une
quasiparticule n'est pas une particule fondamentale au sens du Modèle
Standard des particules (comme un électron ou un quark). C'est une
entité émergente, une perturbation qui se propage dans le matériau en
se comportant comme si c'était une particule.
Ainsi, dans un cristal, les atomes vibrent, mais la description la plus
efficace consiste à introduire les phonons, quasiparticules quantiques
de vibration. Dans un aimant, les ondes de spin se traduisent par des magnons.
Dans les électrons d'un métal, les oscillations de densité donnent des
plasmons, etc. Ces quasiparticules forment un langage universel qui simplifie
la physique des systèmes complexes en termes d'entités élémentaires
nouvelles.
La
ola,
comme exemple.
- On illustre communément la notion de quasi-particule à partir de analogie
offerte par la ola (= vague, en espagnol), que produit une une foule
dans un stade. L'excitation (la vague) se déplace à travers la foule.
Chaque personne se lève et se rassoit à sa place, mais la vague elle-même
voyage. On peut décrire cette vague par sa vitesse, sa direction, son
énergie. Elle se comporte comme un objet unique, une quasi-vague,
bien qu'elle émerge du comportement collectif de milliers de personnes.
Elle n'existe pas en dehors de la foule. Le principe est le même en physique
de la matière condensée.
Le pouvoir du concept
de quasiparticule réside dans sa simplicité. Il permet aux physiciens
d'utiliser tout l'appareil mathématique développé pour les particules
libres (comme la conservation de l'impulsion et de l'énergie dans les
collisions) pour décrire des phénomènes collectifs complexes dans la
matière. Une collision entre une particule et une quasi-particule, ou
entre deux quasi-particules, peut être calculée presque comme une collision
entre deux balles de billard. C'est ce qui fait des quasiparticules l'outil
linguistique et conceptuel indispensable pour décrire et comprendre le
monde riche des matériaux. Voici quelques-unes des quasiparticules les
plus importantes :
Phonons.
Le phonon est le
quantum de vibration dans un réseau cristallin. Dans un solide, les atomes
ne sont pas fixes; ils oscillent autour de leurs positions d'équilibre.
Ces vibrations se propagent sous forme d'ondes sonores. Le phonon est la
particule associée à ces ondes, tout comme le photon
est la particule associée à une onde lumineuse. Les phonons peremettent
d'expliquer expliquer des propriétés comme la chaleur spécifique des
solides à basse température et la conduction thermique dans les isolants.
Solitons.
Les solitons sont
des ondes particulières capables de se maintenir sous forme localisée
dans des systèmes non linéaires, sans se disperser ou disparaître. Ils
apparaissent dans divers contextes physiques, tels que les fibres optiques,
les fluides ou les solides, où ils peuvent transporter de l'énergie sur
de longues distances sans perte significative. Les tsunamis
sont des solitons hydrodynamiques de très grande longueur d'onde (de l'ordre
de la centaine de kilomètres). D'autres solitons, de longueur d'onde beaucoup
plus petite, peuvent également se former à la surface des océans ou
être créés en laboratoire.
Trous.
Le trou est l'une
des quasiparticules les plus simples et les plus utiles. Si un électron
est manquant dans une bande d'énergie autrement pleine, cette absence
se comporte exactement comme une particule avec une charge électrique
positive (opposée à celle de l'électron) et une masse effective positive.
La conduction dans les semi-conducteurs de type P est entièrement décrite
par le mouvement de ces trous.
Excitons.
État lié d'un
électron et d'un trou (l'absence d'électron). L'exciton est un état
lié, semblable à un atome d'hydrogène, formé
par un électron (chargé négativement) et un trou (chargé positivement)
qui s'attirent via la force de Coulomb.
Il s'agit d'une quasiparticule neutre mais excitée, qui est impliquée
dans l'absorption de la lumière et les processus photoluminescents dans
les semi-conducteurs et les isolants, et est au cœur du fonctionnement
des diodes OLED et des cellules solaires photovoltaïques. Selon la distance
qui sépare le trou et l'electron, on parle d'exciton de Mott-Wannier (séparation
de quelques centaines d'Å), ou d'exciton de Frenkel (distance inférieure
à 5 Å), dans les cas extrêmes.
Polaritons.
Les polaritons sont
des quasiparticules qui apparaissent dans les matériaux optiques. Ils
résultent de l'interaction entre des photons et d'autres excitations du
matériau, comme les phonons ou les excitons. Ils combinent ainsi des propriétés
photoniques et électroniques, et occasionnent des phénomènes observés
en optique quantique.
Plasmons.
Le plasmon est le
quantum d'oscillation collective du "gaz d'électrons" (plasma)
dans un métamatériau ou un métal, induites par une onde électromagnétique.
Si on perturbe la densité électronique, les électrons vont osciller
ensemble autour de leur position d'équilibre, comme un liquide incompressible.
Ces oscillations créent une onde de surface appelée onde de surface plasmon-polariton
(SPP), qui peut se propager le long de la frontière métal/matière isolante
avec une faible dissipation d'énergie. Les plasmons de surface sont notamment
utilisés en nanotechnologie et en bio-détection.
Polarons.
Le polaron se forme
lorsqu'un électron se déplace dans un cristal et déforme le réseau
atomique autour de lui à cause des interactions électrostatiques. L'électron
se déplace en traînant avec lui cette déformation de réseau. L'objet
composite "électron + déformation" est le polaron. Il a une masse effective
plus grande que celle d'un électron libre parce qu'il doit déplacer non
seulement lui-même, mais aussi le champ de déformation qui l'entoure.
Le nom de la quasiparticule vient de ce que la déformation du réseau
produit une polarisation locale.
Magnons.
Le magnon est la
quasiparticule associée à cette onde de spin collective. Dans un matériau
magnétique (comme un ferromagnétique), l'excitation la plus simple n'est
pas de retourner un seul spin (ce qui coûterait très cher en énergie),
mais de créer une onde où l'orientation des spins varie de façon progressive
d'un atome à l'autre.
Les magnons sont
impliqués dans l'étude des phénomènes des transitions de phase magnétiques
et des phénomènes de transport électronique dans les matériaux magnétiques.
Anyons.
Enfin, dans le domaine
très actuel de la physique mésoscopique
( = étude des phénomènes aux échelles entre le domaine quantique et
le domaine macroscopique) et de l'information quantique, on trouve des
quasiparticules aux propriétés encore plus exotiques, comme les anyons.
Contrairement aux fermions et aux bosons
standards, les anyons obéissent à des statistiques fractionnaires. Ces
entités émergent dans certains systèmes bidimensionnels, tels que le
gaz d'électrons dans l'effet Hall quantique fractionnaire.
L'anyon
de Majorana est une une quasi-particule qui est sa propre antiparticule
et qui obéit à une statistique non abélienne. Ce type d'entité esrt
prédit émerger aux extrémités de certains nanofils supraconducteurs
ou dans les défauts de matériaux topologiques (V. plus bas) en proximité
avec un supraconducteur. La manipulation des anyons de Majorana pourrait
former la base d'un calcul quantique topologique intrinsèquement robuste
contre les décohérences locales.
La théorie des bandes
Dans de nombreux matériaux,
les électrons interagissent si fortement que les images simples des solides
échouent. La théorie des bandes, proposée en 1928 par Félix Bloch,
permet d'expliquer les propriétés électroniques des solides à partir
de leur structure microscopique. Son idée de base est que les électrons
d'un cristal ne se comportent pas comme des particules libres, mais comme
des particules soumises à un potentiel périodique créé par les ions
du réseau. Cette périodicité fondamentale modifie radicalement le spectre
d'énergie des électrons par rapport à celui d'un gaz
libre.
Bandes
permises et bandes interdites.
Les solides cristallins
sont envisagés comme des ensembles d'atomes disposés de manière périodique
dans l'espace. Lorsque des atomes isolés, chacun avec ses niveaux d'énergie
électroniques discrets et bien définis (comme les orbitales
1s, 2s, 2p, etc.), se rapprochent pour former un cristal, leurs fonctions
d'onde électroniques commencent à se recouvrir. Ce recouvrement signifie
que les électrons ne sont plus strictement localisés sur un seul atome
mais peuvent être échangés entre atomes voisins, un phénomène régi
par le principe d'exclusion
de Pauli.
Chaque niveau d'énergie
atomique discret se transforme alors en une bande d'énergie permise. Le
nombre d'états électroniques (orbitales) dans cette bande est extrêmement
grand, mais fini. Par exemple, un niveau s (dégénérescence 1) provenant
de N atomes donnera naissance à une bande contenant N états très proches
les uns des autres. De même, un niveau p (dégénérescence 3) donnera
naissance à trois bandes contenant au total 3N états.
Les bandes permises
peuvent accueillir ou non des électrons. On distingue ainsi en particulier
la bande de valence et la bande de conduction. La première
correspond à la plage d'énergie la plus élevée encore remplie par des
électrons à température nulle. Elle est issue des orbitales de valence
des atomes et contient les électrons responsables
des liaisons chimiques. Au-dessus de
cette bande se trouve la bande de conduction, qui regroupe des états d'énergie
disponibles mais vides ou partiellement occupés. Les électrons qui parviennent
dans cette bande sont délocalisés dans le solide et peuvent se déplacer
librement, ce qui permet la conduction électrique. Entre ces deux bandes
peut exister une région appelée gap (= fossé) énergétique ou
bande
interdite.
Les bandes interdites
émergent naturellement comme des intervalles d'énergie où aucune orbitale
électronique n'est autorisée. Elles apparaissent aux limites de la zone
de Brillouin, qui est une construction de l'espace
des moments qui définit la périodicité du réseau cristallin. Mathématiquement,
c'est une conséquence de la solution de l'équation
de Schrödinger pour un potentiel périodique (théorème de Bloch).
Les ondes électroniques dont le vecteur d'onde
atteint ces limites subissent une diffraction de Bragg, créant des interférences
destructives qui ouvrent une gap énergétique. L'ampleur de cette bande
interdite dépend de la force du potentiel périodique du réseau cristallin.
La
zone de Brillouin est une cellule primitive dans l'espace des vecteurs
d'onde (espace réciproque) qui représente tous les états de mouvement
possibles pour une onde électronique dans un réseau cristallin périodique.
Elle est construite en traçant les plans médiateurs entre le point d'origine
et tous les points du réseau réciproque. La première zone de Brillouin
est la région la plus proche de l'origine délimitée par ces plans. Elle
contient toutes les informations nécessaires sur la symétrie et les propriétés
électroniques du cristal, ce qui permet de décrire complètement le comportement
des électrons sans avoir à considérer des vecteurs d'onde en dehors
de cette zone.
Le
théorème de Bloch est un résultat fondamental qui décrit la forme
des fonctions d'onde électroniques dans un potentiel périodique, comme
celui créé par les ions d'un cristal. Il stipule que les solutions de
l'équation de Schrödinger pour un tel potentiel peuvent s'écrire comme
le produit d'une onde plane et d'une fonction périodique : ψk(r)
= uk(r) e(i k·r),
où uk(r) a la même périodicité que le réseau
cristallin. Cela signifie que l'électron n'est pas localisé sur un atome
particulier mais se propage à travers tout le cristal, et que son comportement
est caractérisé par un vecteur d'onde k. Ce théorème justifie
pourquoi l'énergie électronique est décrite par des bandes En(k),
qui sont des fonctions continues de k au sein de la zone de Brillouin.
La
diffraction de Bragg est un phénomène qui se produit lorsqu'une onde,
comme une onde électronique, rencontre un réseau périodique. La condition
pour qu'une diffraction constructive se produise est donnée par la loi
de Bragg : nλ = 2d sinθ, où λ est la longueur d'onde, d est l'espacement
entre les plans cristallins et θ est l'angle d'incidence. Dans le contexte
de la théorie des bandes, cette condition est équivalente à ce que le
vecteur d'onde k de l'électron atteigne la frontière de la zone
de Brillouin. À ce point, l'onde est réfléchie par le réseau, ce qui
conduit à la formation d'ondes stationnaires. Cette interférence ouvre
une bande interdite dans le spectre d'énergie, car deux états d'énergie
différents (les ondes stationnaires se propageant dans des directions
opposées) apparaissent pour le même vecteur d'onde à la frontière de
la zone. C'est le mécanisme physique à l'origine de la création des
bandes interdites.
Distinction
métaux/isolants.semi-conducteurs.
La classification
des solides en métaux, isolants et semi-conducteurs découle directement
de cette description.
• Un
métal possède une bande de valence partiellement remplie ou une bande
de valence remplie qui chevauche une bande de conduction vide. Dans les
deux cas, il n'y a pas de gap d'énergie entre les états occupés et les
états vacants. Les électrons peuvent donc facilement se déplacer et
participer à la conduction électrique, même avec une très faible énergie
fournie (comme un faible champ électrique).
• Un isolant
(ou un semi-conducteur à 0 K) possède une bande de valence parfaitement
remplie et une bande de conduction parfaitement vide, séparées par un
large gap d'énergie interdit (généralement > 4 eV). À basse température,
l'énergie thermique disponible est insuffisante pour exciter un nombre
significatif d'électrons à travers ce gap vers la bande de conduction.
La bande de valence étant pleine, les électrons ne peuvent pas se déplacer
facilement, ce qui entraîne une très faible conductivité.
• Un semi-conducteur
suit le même principe de base qu'un isolant : une bande de valence pleine
et une bande de conduction vide séparées par un gap d'énergie interdit.
La distinction cruciale est que ce gap est étroit (généralement <
4 eV). À température ambiante, l'énergie thermique est suffisante pour
exciter un nombre non négligeable d'électrons de la bande de valence
vers la bande de conduction. Ceci laisse derrière eux des trous (états
vacants traités comme des quasiparticules) dans la bande de valence. La
conduction électrique devient alors possible grâce au mouvement de ces
électrons dans la bande de conduction et des trous dans la bande de valence.
La conductivité d'un semi-conducteur intrinsèque augmente de façon exponentielle
avec la température.
L'intérêt de la théorie
des bandes ne se limite pas à la justification de cette classification.
Toute l'industrie des puces électroniques, des transistors, des diodes
et des processeurs découle directement de cette théorie. Celle-ci permet
également d'expliquer des phénomènes plus subtils comme l'anisotropie
de la conductivité, l'existence de porteurs effectifs (électrons et trous)
dont la masse apparente peut être très différente de celle de l'électron
libre, ou encore des propriétés optiques telles que l'absorption et l'émission
de photons dans des semi-conducteurs. En affinant le calcul des bandes
par des méthodes plus précises, comme la théorie de la fonctionnelle
de la densité, on peut prédire les propriétés électroniques et structurales
d'une grande variété de matériaux avec une grande précision. Au-delÃ
de ses applications classiques, la théorie des bandes s'est révélée
être aussi une base pour comprendre une nouvelle catégorie de matériaux,
les matériaux topologiques.
Les matériaux topologiques
L'idée que la topologie
de la structure de bande peut engendrer de nouvelles phases de la matière,
protégées par des invariants topologiques, a ouvert un champ de recherche
extrêmement actif de nos jours (leurs travaux fondateurs dans ce domaine
a valu le prix Nobel de physique à David Thouless, Duncan Haldane et Michael
Kosterlitz en 2016). Un matériau topologique est un solide dont les propriétés
électroniques ou vibratoires ne se comprennent pas seulement par la symétrie
locale des atomes ou la structure cristalline, mais par une caractérisation
topologique des états quantiques qu'il héberge. Contrairement aux isolants
classiques, où la conduction est entièrement déterminée par la présence
ou non d'un gap électronique, un matériau topologique peut être
isolant dans son volume mais conducteur à sa surface ou sur ses arêtes.
Cette conduction de bord est protégée par des invariants topologiques
et par des symétries fondamentales, ce qui la rend robuste face aux perturbations
locales ou aux défauts.
Le recours à la
topologie dans la physique des solides se traduit par la mise au jour d'invariants
entiers permettant de classifier les bandes électroniques. Ces invariants
servent à distinguer des phases de la matière qui, tout en ayant le même
type de symétrie, possèdent des comportements physiques radicalement
différents. La transition entre une phase topologique et une phase triviale
requiert la fermeture et la réouverture du gap d'énergie, analogue
à un changement de genre topologique en mathématiques.
Contrairement aux
phases de matière traditionnelles (comme un ferromagnétique ou un cristal)
qui sont décrites par un paramètre d'ordre local (comme l'aimantation
ou la densité atomique), une phase topologique est caractérisée par
un invariant topologique global. Cet invariant est un nombre entier qui
ne change pas sous l'effet de déformations continues du système, tant
que la bande interdite reste ouverte. C'est analogue à la façon dont
un tore (une bouée) et une sphère sont topologiquement distincts : on
ne peut pas transformer l'un en l'autre sans créer une déchirure. Les
états
de bord ne peuvent être détruits que si l'on brise la symétrie qui
garantit leur existence, par exemple l'invariance de temps pour les isolants
Z2, ou la symétrie cristalline pour certains isolants
topologiques protégés par la symétrie spatiale. Cela explique leur robustesse
contre les impuretés, contrairement aux canaux de conduction ordinaires.
Les isolants topologiques
en deux dimensions constituent une première réalisation : ils présentent
un effet Hall quantique sans champ magnétique externe, où les électrons
circulent sur les bords en canaux unidirectionnels, protégés de la diffusion
par le désordre. En trois dimensions, on trouve des isolants topologiques
avec états de surface dont la dispersion particulière rappelle celle
des électrons relativistes. À côté de ces systèmes, sont apparus les
semi-métaux
topologiques, tels que les semi-métaux de Dirac ou de Weyl, où les
bandes se croisent en points ou en lignes protégés par la symétrie.
Ces croisements donnent lieu à des quasi-particules effectives qui imitent
des particules fondamentales prédite par la théorie des champs.
Classification
des phases topologiques.
La classification
des phases topologiques repose sur l'idée qu'un état quantique de la
matière peut présenter des propriétés invariantes vis-à -vis de déformations
continues, tant que certaines symétries et l'existence d'un gap
énergétique sont préservées. Contrairement aux phases classiques de
la matière, qui se distinguent par des paramètres d'ordre locaux associés
à la rupture de symétries (comme dans la théorie de Landau), les phases
topologiques, on l'a dit, se caractérisent par des invariants globaux
insensibles aux perturbations microscopiques. Selon que les phases dépendent
ou non des interactions des particules dans le matériaux considéré,
on destingue deux grands types de phases topologiques :
• Les
phases topologiques non-interactives sont des états de la matière
caractérisés par des propriétés topologiques qui ne dépendent pas
des interactions entre les particules, mais uniquement de leur symétrie.
Ces phases peuvent être décrites par des théories de champ quantique
topologiques, comme les théories des champs topologiques ou les modèles
de Chern-Simons en dimension impaire. Elles comprennent des exemples tels
que les isolants topologiques bidimensionnels (ITB) et tridimensionnels
(ITT), où les états électroniques à la surface ou aux bords du matériau
sont protégés par une topologie spécifique plutôt que par une bande
de conductivité classique. Ces phases sont ordinairement stables contre
des perturbations faibles et présentent des propriétés spéciales telles
que la conductivité quantique des bords.
• Les phases
topologiques interactives, en revanche, dépendent directement des
interactions entre les particules. Ces interactions peuvent modifier la
structure topologique du système, introduisant des phénomènes plus complexes
que ceux observés dans les phases non interactives. Par exemple, dans
certaines phases topologiques interactives, les excitations quasiparticules
peuvent exister sous forme de quasi-particules fractionnaires, comme dans
les fluides de Hall fractionnaires, où les charges apparentes transportées
par ces quasi-particules ne sont pas entières mais fractionnaires. Ces
systèmes peuvent également présenter des phénomènes tels que l'enchevêtrement
topologique ou des phases de confinement topologique, où les excitations
sont liées de manière complexe par des relations topologiques. Les phases
interactives comprennent des systèmes comme les états liquides de spin
topologiques ou les supraconducteurs topologiques, où les interactions
jouent un rôle crucial dans la stabilité et la nature des phases.
Ajoutons que la classification
topologique de la matière ne se limite pas aux électrons. Des systèmes
photoniques, phononiques ou mécaniques peuvent être conçus pour présenter
des modes de bord protégés par la topologie. La topologie est ainsi devenue
un langage transversal permettant d'unifier et de prédire des comportements
inattendus dans des domaines variés au-delà même de celui de la physique
de la matière condensée.
La
table périodique des matériaux topologiques.
La classification
générale des phases topologiques non interactives repose sur ce que l'on
appelle la « table périodique des isolants et supraconducteurs topologiques
». Celle-ci organise les phases possibles en fonction de la dimension
spatiale et des symétries fondamentales du système : symétrie de renversement
du temps, symétrie de conjugaison de charge et symétrie chirale. On obtient
ainsi une grille qui permet de prédire, pour chaque dimension et chaque
classe de symétrie, l'existence d'invariants topologiques de divers types.
Selon la dimension spatiale et la nature des symétries (invariance par
renversement du temps, symétrie de conjugaison de charge, symétrie chirale),
un matériau peut ou non héberger un invariant topologique caractéristique.
Ces symétries définissent
dix classes universelles (A, AIII, AI,
BDI, D, DIII, AII,
CII, C, CI), connues sous le
nom de classes d'Altland–Zirnbauer (AZ). Pour chacune de ces classes,
il existe une structure périodique qui indique, en fonction de la dimension
spatiale, si la phase topologique possible est caractérisée par un invariant
entier ( ), un invariant
binaire ( 2)
ou bien si elle est triviale. Par exemple, dans deux dimensions, la classe
sans symétrie particulière (classe A) peut porter un invariant de type
nombre de Chern, responsable de l'effet
Hall quantique. En trois dimensions, la classe avec symétrie de renversement
du temps mais sans symétrie de conjugaison de charge (classe AII) admet
un invariant 2,
ce qui correspond aux isolants topologiques tridimensionnels.
La périodicité
de cette classification se répète tous les huit intervalles de dimension
spatiale, reflétant une structure mathématique profonde. C'est cette
régularité qui a conduit à l'appellation de « table périodique »,
par analogie avec celle des éléments
chimiques, car elle permet d'anticiper systématiquement quelles phases
topologiques sont possibles sans avoir à analyser chaque cas particulier
séparément. Dans la pratique, cette table sert de carte conceptuelle
pour guider la recherche de nouveaux matériaux topologiques. Elle indique
aux physiciens quelles combinaisons de symétries et de dimensions peuvent
héberger des phases protégées et quels types d'états de bord devraient
émerger. De cette manière, elle fournit un langage commun reliant les
prédictions théoriques aux découvertes expérimentales, et structure
le domaine de la topologie de la matière de façon universelle.
Un extrait simplifié
de la table périodique des matériaux topologiques :
-
|
Classe
AZ
|
Dimension
|
Invariant
|
Exemples
|
A
Aucune
symétrie particulière. |
2D |
Z (nombre de Chern) |
Isolants de Chern
(ex. effet Hall quantique sans champ magnétique, modèle de Haldane). |
| 3D |
Trivial |
Pas de phase topologique
stable. |
AII
Symétrie
de renversement du temps avec T² = −1 typique des électrons avec couplage
spin-orbite. |
2D |
Z2 |
Isolants topologiques
2D (effet Hall quantique de spin, ex. puits quantiques HgTe/CdTe). |
| 3D |
Z2 |
Isolants topologiques
3D (ex. Bi2Se3, Bi2Te3,
Sb2Te3). |
D
Symétrie
de conjugaison de charge, supraconducteurs sans symétrie temporelle. |
1D |
Z2 |
Supraconducteurs
topologiques 1D (chaîne de Kitaev, états de Majorana aux extrémités). |
| 2D |
Z |
Supraconducteurs
topologiques 2D (paires de type p+ip, vortex hébergeant des modes de Majorana). |
DIII
Temps
inversé et charge-conjuguée, supraconducteurs avec symétrie de renversement
du temps. |
1D |
Z2 |
Chaînes de Majorana
protégées par symétrie temporelle. |
| 3D |
Z |
Supraconducteurs
topologiques tridimensionnels (ex. certains états proposés dans le cuivre
dopé Bi2Se3). |
Cette organisation
s'étend à toutes les classes et dimensions, avec une structure périodique
qui se répète tous les huit degrés de dimension. C'est cette périodicité
mathématique qui rend la classification complète et prédictive.
Au-delà du cadre
des fermions non interactifs, la classification s'élargit avec les phases
symétriquement protégées (SPT phases), qui impliquent les interactions.
Ces phases restent distinctes de la phase triviale tant que certaines symétries
globales (par exemple l'invariance sous inversion du temps ou la conservation
de la parité de particule) sont respectées. Les systèmes de bosons topologiques,
ou encore les phases fractonnaires, illustrent cette extension et nécessitent
des outils plus généraux comme la cohomologie
des groupes ou la théorie des catégories. Dans les cas encore plus complexes
des phases avec ordre topologique intrinsèque, les excitations émergentes
sont des quasiparticules fractionnaires (anyons) avec des statistiques
exotiques, et la classification fait appel à des structures mathématiques
sophistiquées telles que les catégories tensorielles modulaires.
La matière molle
et les milieux désordonnés
La physique classique
s'est traditionnellement construite autour de l'étude de deux états de
la matière bien définis : le solide, caractérisé par une forme et un
volume propres, et le liquide, défini par sa capacité à s'écouler et
à épouser la forme de son contenant. Pourtant, une grande partie des
matériaux que nous côtoyons dans notre vie quotidienne – depuis la
mayonnaise jusqu'au shampoing, en passant par les gels, les mousses, les
polymères ou le verre – échappent à cette classification binaire.
Ces matériaux possèdent des propriétés mécaniques et structurales
à mi-chemin entre le solide et le liquide. Ils forment le vaste domaine
de la matière molle et des milieux désordonnés, qui nécessite une approche
pluridisciplinaire, à la frontière entre la physique, la chimie, la science
des matériaux et la biologie. L'enjeu est considérable. Il est fondamental
pour comprendre la physique du vivant (la cellule
est un concentré de matière molle complexe : cytosquelette, membranes,
acides nucléiques) et pour concevoir les matériaux de demain, intelligents,
fonctionnels et durables. Comprendre comment un désordre apparent peut
engendrer des comportements collectifs organisés et des propriétés mécaniques
finement modulables reste l'un des défis majeurs de la physique contemporaine.
La matière molle.
La matière molle
(soft matter), dont l'étude a aussi donné lieu à un Prix Nobel
(en 1991) avec Pierre-Gilles de Gennes pour ses travaux sur les cristaux
liquides et les polymère, se définit par sa grande sensibilité aux faibles
sollicitations. Une énergie faible, de l'ordre de l'énergie thermique
kBT (où kB est la constante
de Boltzmann et T la température absolue), est suffisante pour provoquer
des déformations importantes, des changements de structure ou de phase.
Cette extrême sensibilité provient de la faiblesse des énergies d'interaction
qui maintiennent cohérents ces matériaux. Ces énergies sont bien plus
faibles que les liaisons covalentes ou ioniques des solides durs, et sont
fréquemment de nature entropique. Les constituants de la matière molle
sont divers mais partagent une échelle mésoscopique : ils sont beaucoup
plus grands qu'un atome, mais assez petits pour que l'agitation thermique
joue un rôle décisif. On peut citer :
• Les
polymères sont des macromolécules formées par la répétition d'unités
(monomères) reliées de manière covalente. La longueur considérable
de ces chaînes, associée à leur flexibilité, confère à ces systèmes
des propriétés mécaniques et dynamiques singulières, comme l'élasticité
du caoutchouc, la viscosité élevée des solutions concentrées ou la
capacité de former des réseaux interconnectés. L'étude de leurs conformations
repose sur une approche statistique permettant de décrire les fluctuations
entropiques, la dynamique de reptation et les effets d'entrelacement. En
fonction de leur architecture (linéaire, ramifiée, réticulée) et de
leurs conditions d'assemblage, les polymères peuvent conduire à des phases
amorphes, cristallines ou vitreuses, mais également à des gels présentant
des propriétés viscoélastiques.
• Les colloïdes
sont des systèmes dispersés constitués de particules de taille comprise
entre quelques nanomètres et quelques micromètres en suspension dans
un milieu fluide. Leur comportement est gouverné par la compétition entre
forces attractives de type van der Waals ou interactions de déplétion
et forces répulsives électrostatiques ou stériques. Cette balance d'interactions
conditionne la stabilité de la suspension ainsi que son évolution structurale,
qui peut aboutir à la formation de phases liquides, cristallines, vitreuses
ou encore gélifiées. Selon les conditions expérimentales, les colloïdes
peuvent s'assembler en structures désordonnées, cristallines ou vitreuses.
Les systèmes colloïdaux, en raison de leur accessibilité expérimentale
et de l'échelle intermédiaire des particules, constituent des modèles
privilégiés pour l'étude de phénomènes fondamentaux tels que la cristallisation,
le vieillissement des verres ou les transitions de phase hors équilibre.
• Les tensioactifs
sont des molécules amphiphiles possédant simultanément
un segment hydrophile et un segment hydrophobe.
Lorsqu'ils sont
dissous dans un solvant, ils s'auto-assemblent
en structures variées telles que micelles sphériques, cylindrique, vésicules
ou bicouches, afin de minimiser l'énergie libre associée aux interfaces.
Ces morphologies résultent d'un compromis entre interactions hydrophobes
et contraintes géométriques, et leur organisation dépend fortement de
paramètres expérimentaux tels que la concentration, la température ou
la nature du solvant. Les agrégats de tensioactifs donnent naissance Ã
des phases mésomorphes d'une grande richesse, notamment des phases cubiques,
hexagonales ou lamellaires, dont l'étude éclaire les mécanismes d'auto-organisation
dans les systèmes biologiques et industriels, en particulier essentiels
dans des applications allant de la formulation de détergents à la conception
de systèmes biomimétiques.
• Les cristaux
liquides, comme on l'a dit plus haut, se situent à l'interface entre
les états solides et liquides, en présentant simultanément une mobilité
moléculaire caractéristique d'un fluide et un ordre orienté propre aux
phases cristallines. Selon la nature des molécules et les conditions thermodynamiques,
plusieurs mésophases sont observées : nématique, smectique ou cholestérique,
chacune se distinguant par un degré d'ordre positionnel et/ou directionnel
particulier. Ces systèmes présentent une sensibilité aux champs externes,
notamment électriques et magnétiques, ce qui en fait des matériaux de
choix dans le domaine des dispositifs optoélectroniques. Les affichages
à cristaux liquides (LCD), par exemple, sont basés sur la possibilité
qu'ils offrent de moduler de leur biréfringence. Leur étude constitue
par ailleurs un terrain privilégié pour l'analyse des transitions d'ordre
et de la physique de l'orientation moléculaire.
Au fil des exemples
que l'on vient de donner, deux concepts unificateurs sont apparus. Celui
d'auto-assemblage et celui-d'auto-organisation. Le premier
correspond à une organisation spontanée vers l'équilibre sous l'effet
d'interactions réversibles, tandis que l'auto-organisation désigne l'émergence
de structures dynamiques et persistantes loin de l'équilibre, grâce Ã
un apport continu d'énergie. Les deux notions sont complémentaires pour
comprendre la richesse des comportements dans les systèmes mous.
L'auto
assemblage.
L'auto-assemblage
désigne le processus par lequel des entités moléculaires ou supramoléculaires
s'organisent spontanément en structures ordonnées ou hiérarchisées,
sous l'effet d'interactions locales faibles et réversibles, sans intervention
extérieure directe pour imposer l'agencement. Ce concept explique la formation
de nombreuses structures complexes à partir de constituants simples, en
s'appuyant sur un compromis subtil entre enthalpie
et entropie. Les interactions mises en
jeu peuvent être de nature variée, telles que les liaisons hydrogène,
les forces électrostatiques, les interactions hydrophobes ou les forces
de van der Waals.
L'auto-assemblage
est au coeur du comportement des tensioactifs, qui s'organisent en micelles,
bicouches ou vésicules afin de minimiser l'énergie interfaciale, mais
également des cristaux liquides, dont les molécules anisotropes s'orientent
collectivement pour donner naissance à des mésophases ordonnées. Les
polymères peuvent également s'auto-assembler en micro-domaines, par ségrégation
de blocs incompatibles dans les copolymères, générant des morphologies
lamellaires, cylindriques ou cubiques. Dans le cas des colloïdes, l'auto-organisation
induite par des interactions spécifiques peut conduire à la formation
de réseaux périodiques ou amorphes, ce qui permet de modéliser des transitions
de phase analogues à celles observées dans les systèmes atomiques.
L'intérêt fondamental
du concept d'auto-assemblage réside dans le fait qu'il permet de comprendre
comment des structures complexes, dotées de propriétés fonctionnelles,
émergent de manière spontanée à partir de constituants élémentaires
relativement simples. Ce mécanisme se distingue de l'assemblage dirigé
par les humains en ce qu'il repose sur des principes thermodynamiques d'équilibre
ou de quasi-équilibre, où la configuration finale correspond à un état
de basse énergie libre. Il ouvre également une voie vers la conception
de matériaux « intelligents » capables de s'organiser, de se réorganiser
et de s'adapter à leur environnement en réponse à des stimuli externes
comme la température, le pH, la lumière ou
un champ électrique.
L'auto-organisation.
L'auto-organisation,
en revanche, s'inscrit dans un cadre dynamique hors équilibre. Ici, les
structures émergent de l'évolution temporelle du système, sous l'effet
de flux de matière ou d'énergie qui l'empêchent d'atteindre l'équilibre
thermodynamique. Les motifs observés résultent de processus collectifs,
souvent non linéaires, et sont maintenus tant que le système reste alimenté
en énergie. Ce phénomène est ordinairement observé dans les systèmes
où les interactions locales entre les éléments, tels que des molécules
ou des particules, mènent à une organisation globale spontanée et adaptative.
Des exemples classiques
sont la convection de Bénard,
les ondes de Belousov–Zhabotinsky ou encore certains motifs spatio-temporels
dans les gels réactionnels. Dans le contexte de la matière molle, on
retrouve l'auto-organisation dans des systèmes actifs, comme des suspensions
de particules motiles ou des assemblages biologiques. Les propriétés
macroscopiques émergent naturellement à partir de dynamiques microscopiques.
Par exemple, dans un gel, les molécules de polymère peuvent se déplacer
librement dans certaines conditions, mais en présence de contraintes ou
de changements environnementaux, elles s'organisent en réseaux complexes.
Ces réseaux sont auto-organisés : ils émergent sans qu'une structure
préexistante soit imposée, mais plutôt grâce aux interactions chimiques
et physiques entre les molécules.
Un autre exemple
est donné par les systèmes de phase séparée, où deux fluides ou matériaux
se mélangent pour former une solution homogène. À mesure que des paramètres
tels que la température ou la concentration changent, ces solutions peuvent
subir une séparation en phases distinctes. Cela reflète également une
auto-organisation, car les molécules organisent leurs positions pour minimiser
leur énergie potentielle, conduisant à des structures plus stables.
Les milieux désordonés.
La notion de milieux
désordonnés recoupe partiellement celle de matière molle mais s'en distingue
par son accent sur l'absence d'ordre à longue portée et l'hétérogénéité
spatiale. Les milieux désordonnés constituent une classe de systèmes
où l'organisation spatiale et les propriétés macroscopiques ne peuvent
être décrites par un ordre périodique simple, mais résultent au contraire
de la complexité des interactions locales et de la dynamique collective
des constituants. Un verre de silicate est un exemple canonique : il possède
la rigidité mécanique d'un solide, mais l'arrangement atomique désordonné
d'un liquide figé. Ce désordre structural a des conséquences profondes
sur les propriétés dynamiques (relaxation lente, non exponentielle),
vibratoires (existence de modes localisés) et de transport. Outre les
verres, on pourra mentionner ici, comme exemples de milieux désordonnés
:
• Les
mousses sont formées par la dispersion de bulles de gaz dans un liquide
ou un solide, stabilisées par des agents tensioactifs qui réduisent l'énergie
interfaciale. Leur structure est caractérisée par un réseau polyédrique
de films minces, dont l'évolution est gouvernée par des processus tels
que le drainage gravitaire, la coalescence et le mûrissement
d'Ostwald. Elles se distinguent par un comportement mécanique atypique,
présentant une élasticité apparente à faible contrainte et un écoulement
plastique au-delà d'un seuil, ce qui les rapproche des matériaux dits
« à seuil d'écoulement ». Leur désordre structural confère une forte
hétérogénéité locale, faisant de leur description théorique un défi
pour la physique statistique.
• Les émulsions
consistent en une dispersion de gouttelettes d'un liquide dans un autre
liquide non miscible, généralement stabilisée par des tensioactifs ou
des particules colloïdales. Comme pour les mousses, leur stabilité repose
sur la minimisation de l'énergie interfaciale, mais leur dynamique est
dominée par des phénomènes tels que la coalescence, la floculation et
le mûrissement d'Ostwald. Elles présentent également un comportement
mécanique de type viscoélastique ou plastique selon la fraction volumique
de gouttelettes, et peuvent, dans des régimes concentrés, former des
structures désordonnées proches des verres mous. Les émulsions constituent
ainsi un système modèle pour l'étude de la transition vitreuse, des
propriétés rhéologiques non linéaires et de la dynamique lente des
milieux désordonnés.
• Les matériaux
granulaires se composent d'assemblages de particules solides de taille
mésoscopique, dont les interactions sont essentiellement de nature mécanique,
dominées par les contacts, la friction et la pesanteur. Leur particularité
réside dans l'absence d'agitation thermique significative, ce qui distingue
leur comportement de celui des systèmes colloïdaux ou moléculaires.
Ils présentent une dualité remarquable, pouvant se comporter comme un
fluide lorsqu'ils s'écoulent sous agitation ou comme un solide lorsqu'ils
sont confinés. Leur organisation est intrinsèquement désordonnée, mais
des structures émergentes comme les arches, les chaînes de force ou les
états métastables gouvernent leurs propriétés macroscopiques. L'étude
des matériaux granulaires a permis de mettre en évidence des phénomènes
génériques tels que le blocage (jamming), l'auto-organisation
sous cisaillement et la dynamique intermittente.
• Les gels,
enfin, sont des systèmes hétérogènes caractérisés par la présence
d'un réseau solide formé par l'association de particules, de polymères
ou de macromolécules, emprisonnant un fluide dans ses mailles. Leur nature
désordonnée provient de la distribution aléatoire des liaisons et de
la géométrie complexe du réseau. Les gels présentent un comportement
mécanique hybride, combinant rigidité élastique et réponse visqueuse,
et se distinguent par des phénomènes de vieillissement et de relaxation
lente. Ces systèmes offrent un cadre conceptuel pour l'étude des transitions
dynamiques et de la physique hors équilibre, tout en trouvant des applications
dans les biomatériaux, l'alimentation ou la cosmétique.
Ces différents systèmes
illustrent la richesse et la diversité des milieux désordonnés, où
l'absence d'ordre cristallin n'exclut pas l'émergence de propriétés
collectives robustes et universelles. Leur étude met en évidence l'importance
des concepts de frustration, de blocage et de dynamique
lente, qui constituent aujourd'hui des notions centrales dans la compréhension
de la matière complexe, mais qui, ensemble, soulignent aussi la
difficulté de prédire et de modéliser les comportements de systèmes
désordonnés, en raison de l'interdépendance complexe de leurs constituants
et de la présence de nombreux états métastables..
La
frustration.
La frustration désigne
une situation où les interactions entre les constituants du système (comme
des spins dans un réseau magnétique) ne peuvent pas être simultanément
satisfaites. Par exemple, dans un réseau triangulaire avec des interactions
antiferromagnétiques, il est impossible pour chaque spin d'aligner son
voisin de manière cohérente. Cela conduit à une situation où l'énergie
locale ne peut pas être minimisée complètement, ce qui engendre un désordre
structurel persistant et une instabilité énergétique locale.
Le
blocage.
Le blocage est lié
à cette frustration : dans certains cas, le système se bloque dans des
configurations locales où il est difficile de basculer vers une autre
configuration optimale sans franchir une barrière d'énergie élevée.
Cette immobilité relative empêche le système de réorganiser entièrement
ses composantes, même lorsque des fluctuations thermiques ou autres perturbations
pourraient théoriquement provoquer des changements.
La
dynamique lente.
Enfin, la dynamique
lente décrit la manière dont le système évolue temporellement dans
ces conditions. À cause de la frustration et du blocage, les transitions
entre différentes configurations d'équilibre deviennent extrêmement
rares et nécessitent généralement des temps très longs. Ce phénomène
est particulièrement visible dans les verres, où la relaxation vers l'équilibre
thermodynamique peut prendre des durées astronomiques, rendant pratiquement
impossible l'observation de l'équilibre dans des expériences de laboratoire.
La dynamique lente reflète donc non seulement la complexité des interactions
dans les milieux désordonnés, mais aussi et leur tendance à s'attarder
dans des états métastables. |
|