.
-

La constante de Hubble
La constante de Hubble, notée H0, est un paramètre fondamental en cosmologie qui quantifie le taux d'expansion actuel de l'univers. Elle relie la vitesse d'éloignement des galaxies distantes (vitesse de récession) à leur distance, conformément à la loi de Hubble-Lemaître : 
v = H0 . d, où v est la vitesse radiale d'une galaxie (mesurée via son décalage spectral), d sa distance.
Cette loi traduit le fait que plus une galaxie est éloignée, plus elle semble s'éloigner rapidement, ce qui constitue une signature directe de l'expansion de l'espace lui-même, et non d'un mouvement classique dans un espace fixe.

Dans le Système international, H0 s'exprime en s−1, mais en pratique on utilise des unités astrophysiques : kilomètres par seconde et par mégaparsec (km·s−1.Mpc−1 ou km/s/Mpc). Un mégaparsec correspond à environ 3,26 millions d'années-lumière. Les  valeurs données actuellement pour H0 se situent autour de 70 km·s−1.Mpc−1, ce qui signifie qu'une galaxie située à 1 Mpc s'éloigne en moyenne à une vitesse de cet ordre. Une galaxie deux fois plus loin s'éloigne deux fois plus vite.

L'interprétation physique de H0 est profondément liée à la dynamique globale de l'Univers décrite par les équations de la relativité générale formulées par Einstein. Dans les modèles cosmologiques homogènes et isotropes (modèles de Friedmann-Lemaître), H0 correspond à la valeur actuelle du taux d'expansion 
H(t), qui évolue dans le temps en fonction du contenu énergétique de l'Univers (matière, rayonnement, énergie sombre). Ainsi, H0 n'est pas une constante universelle au sens strict, mais une valeur à un instant cosmique donné.

Une conséquence importante est que l'inverse de la constante de Hubble donne une estimation de l'âge caractéristique de l'univers, appelé temps de Hubble. En première approximation, tH ≈ 1/H0, ce qui conduit à un âge de l'ordre de 13 à 15 milliards d'années, en accord avec les estimations plus précises issues d'observations détaillées.

La mesure de H0 est un enjeu central de la cosmologie moderne. Deux grandes méthodes indépendantes dominent. La première est dite locale ou de l'univers tardif : elle consiste à mesurer directement, dans l'univers proche, les distances de galaxies et leurs vitesses de récession, puis à en déduire le taux d'expansion actuel. La seconde est dite  cosmologique ou de l'univers primordial : elle consiste à analyser le fond diffus cosmologique et à en extraire H0  par l'intermédiaire du modèle cosmologique standard, en propageant vers aujourd'hui les conditions physiques de l'univers jeune :

• La voie locale repose sur ce qu'on appelle l'échelle des distances cosmiques, une construction en échelons successifs ressemblant à une échelle dont chaque barreau s'appuie sur le précédent. Le premier barreau est la parallaxe trigonométrique : en mesurant le léger déplacement apparent d'étoiles proches lorsque la Terre se déplace sur son orbite, on obtient des distances absolues sans hypothèse aucune. Le satellite Hipparcos, puis Gaia de l'Agence spatiale européenne avec une précision supérieure de deux ordres de grandeur, ont mesuré les parallaxes de millions d'étoiles dans notre galaxie. Ces distances étalonnent les céphéides galactiques (ces étoiles variables dont la période de pulsation est liée à la luminosité intrinsèque), qui servent à leur tour de chandelles standard pour atteindre les galaxies voisines jusqu'à quelques dizaines de mégaparsecs. Dans ces galaxies, on identifie les supernovae de type Ia, des explosions thermonucléaires d'étoiles naines blanches atteignant des luminosités si colossales qu'elles sont visibles à des milliards d'années-lumière. La luminosité maximale d'une supernova Ia varie de façon prévisible avec la forme de sa courbe de lumière (relation découverte par Mark Phillips en 1993), ce qui en fait des chandelles standard d'une portée extraordinaire. Cette approche a été largement développée avec le télescope spatial Hubble (HST). La valeur obtenue par cette méthode est environ 73 km/s/Mpc. 

• La voie cosmologique emprunte un chemin radicalement différent. Le fond diffus cosmologique (détecté pour la première fois par Penzias et Wilson en 1965, cartographié avec une précision croissante par les satellites COBE, WMAP, puis Planck) est une photographie de l'univers à l'époque de la recombinaison, lorsque les électrons et les protons se combinèrent pour former des atomes neutres et que l'univers devint transparent à la lumière. Ce rayonnement présente de légères fluctuations de température de l'ordre du cent-millième de degré, dont le spectre de puissance (c'est-à-dire la distribution de ces fluctuations selon leur échelle angulaire) contient une mine d'informations cosmologiques. Les pics acoustiques de ce spectre reflètent les oscillations du plasma primordial, des ondes de compression et de raréfaction qui se propageaient dans le mélange de matière et de lumière avant la recombinaison. L'échelle caractéristique de ces oscillations (l'horizon acoustique au moment de la recombinaison) est connue avec une grande précision grâce à la physique des particules, et elle sert de règle standard pour mesurer les distances cosmologiques. Cette méthode conduit à fixer la valeur de H0 autour de 67 km/s/Mpc.

On le voit, les mesures fondées sur l'échelle des distances donnent une valeur de H0, différente de celle des mesures issues de l'analyse du fond diffus cosmologique. Cette divergence, trop grande pour être expliquée par des erreurs statistiques, est connue sous le nom de tension de Hubble. Elle pourrait signaler des biais systématiques dans les mesures ou, plus intriguant, la nécessité de modifier le modèle cosmologique standard (ΛCDM), par exemple en introduisant de nouvelles composantes ou interactions.

La découverte et la détermination de la constante de Hubble.
L'histoire de la constante de Hubble commence bien avant que son nom ne lui soit attribué, dans un contexte de profonde confusion sur la nature même de l'univers. Au début du XXe siècle, la question de savoir si les nébuleuses spirales observées dans le ciel nocturne étaient des objets situés à l'intérieur de la Voie lactée ou des  univers-îles extérieurs à celle-ci constituait l'un des grands débats non résolus de l'astronomie. Cette problématique a atteint son a atteint son apogée en 1920 lors du célèbre Grand Débat qui a opposé Harlow Shapley, qui défendait l'idée d'un univers unique centré sur la Voie lactée, à Heber Curtis, partisan de l'existence de galaxies distinctes.

C'est dans ce climat intellectuel bouillonnant que Vesto Slipher, astronome à l'observatoire Lowell en Arizona, commence dès 1912 à mesurer les spectres des nébuleuses spirales. En appliquant l'effet Doppler aux raies spectrales de ces objets, il constate que la grande majorité d'entre eux présentent un décalage vers le rouge (un redshift), ce qui implique qu'ils s'éloignent de la Terre à des vitesses considérables, parfois plusieurs centaines de kilomètres par seconde. Ces mesures sont extraordinaires, mais leur interprétation reste opaque tant que la nature même des nébuleuses demeure incertaine.

La loi de Hubble.
La clé de voûte est posée par Edwin Hubble à l'observatoire du mont Wilson, en Californie, armé du télescope Hooker de 2,5 mètres de diamètre, alors le plus puissant du monde. En 1923 et 1924, il parvient à résoudre les étoiles individuelles en bordure de la nébuleuse d'Andromède (M31) et à y identifier des céphéides, des étoiles variables dont la période de pulsation est directement liée à leur luminosité intrinsèque. Cette relation periode-luminosité avait été découverte en 1908 par Henrietta Leavitt, qui avait patiemment catalogué des centaines de céphéides dans les Nuages de Magellan. Grâce à cet outil (une véritable règle cosmique), Hubble peut calculer la distance d'Andromède et établit qu'elle se trouve à environ 900 000 années-lumière, bien au-delà des limites de la Voie lactée. L'univers vient de s'étendre de façon vertigineuse.

Fort de cette méthode, Hubble étend ses mesures à d'autres galaxies au cours des années suivantes, en collaboration avec son assistant Milton Humason. Hubble détermine les distances par les céphéides ou d'autres indicateurs, tandis qu'Humason obtient, souvent en de longues nuits d'exposition photographique, les spectres nécessaires au calcul des vitesses de récession. En combinant ses propres mesures de distances avec les vitesses radiales compilées par Slipher et ses collaborateurs, Hubble remarque une tendance frappante : plus une galaxie est lointaine, plus elle s'éloigne vite.

En janvier 1929, il publie dans les Proceedings of the National Academy of Sciences un article fondateur intitulé A Relation between Distance and Radial Velocity among Extra-Galactic Nebulae. Sur la base d'un échantillon de 24 galaxies, il proposa une relation linéaire entre vitesse de récession et distance, de la forme donnée plus haut (soit v = H0.d). La valeur qu'il estime pour cette constante de proportionnalité étestait d'environ 500 km/s/Mpc, soit (on le sait aujourd'hui), environ sept fois trop grande, en raison d'erreurs systématiques dans la calibration des céphéides et dans l'échelle des distances. Mais la structure de la loi est correcte, et son importance va s'avérer immense.

Ce que Hubble a mis en évidence empiriquement n'est pas sans précédent théorique. Dès 1922, le mathématicien Alexandre Friedmann avait montré, sur la base des équations de la relativité générale d'Einstein, que l'univers ne pouvait pas être statique et devait être en expansion ou en contraction. En 1927, Georges Lemaître avait, de façon indépendante, dérivé la même relation vitesse-distance et proposé une valeur numérique de la constante, estimée à environ 625 km/s/Mpc, en s'appuyant sur des données déjà publiées - une antériorité souvent éclipsée par la notoriété de Hubble. 
-

Edwin Hubble au mont Palomar.
Edwin Hubble devant le télescope de 48" 
du mont Palomar. Crédit : Mt. Wilson Archive, 
Carnegie Institution of Washington

La valeur de la constante de Hubble.
La valeur excessive de la constante de Hubble pose rapidement un problème embarrassant : en remontant le temps à partir de cette constante, on peut estimer l'âge de l'univers, qui ressort à environ 2 milliards d'années seulement (inférieur à l'âge estimé de la Terre par la géologie et la radiochronologie). Cette contradiction alimentera des décennies de débats et de travaux de révision. Dans les années 1950, l'astronome allemand Walter Baade, profitant des nuits obscures imposées par le black-out de Los Angeles pendant la Seconde Guerre mondiale pour observer avec le Hooker, découvre finalement qu'il existe deux populations stellaires distinctes et que les céphéides utilisées par Hubble n'étaient  pas du même type que celles de Leavitt. La calibration était faussée. En corrigeant cette erreur, Baade montre que les galaxies sont deux fois plus lointaines qu'estimé, et réduit la constante de Hubble à environ 250 km/s/Mpc, ce qui double donc l'âge de l'univers.

Les décennies suivantes vont être marquées par une bataille de chiffres entre deux camps principaux. Allan Sandage, le disciple de Hubble qui perpétue son programme observationnel depuis le mont Palomar, converge systématiquement vers des valeurs basses, autour de 50 km/s/Mpc, impliquant un univers âgé d'environ 20 milliards d'années. Gérard de Vaucouleurs, de son côté, défend au contraire des valeurs autour de 100 km/s/Mpc. L'incertitude facteur deux entre ces deux estimations (toutes deux reposant sur des observations sérieuses et des méthodes sophistiquées) témoigne surtout de l'état précaire de la cosmologie observationnelle de cette époque. Les sources d'erreur sont légion : la détermination des distances extragalactiques repose sur une succession d'échelons (l'échelle des distances), chaque maillon amplifiant les incertitudes du précédent.

C'est pour trancher ce débat qu'une des missions prioritaires du télescope spatial Hubble, lancé en 1990, est dédiée à la mesure de la constante. Le Projet-clé (Key Project) est mené sous la direction de Wendy Freedman, avec une équipe internationale. Pendant tout un programme d'observations s'étalant sur plusieurs années, les astronomes utilisent le télescope spatial pour identifier des céphéides dans des galaxies suffisamment lointaines pour servir de jalons fiables. En 2001, Freedman et ses collaborateurs publient leur résultat final : H0 = 72 ± 8 km/s/Mpc. C'est la première valeur assortie d'une incertitude aussi bien contrôlée, et elle réconcilie grossièrement les deux camps en se situant entre leurs estimations extrêmes.

La tension de Hubble.
Parallèlement, une révolution conceptuelle est venue de bouleverser le cadre dans lequel on interprétait la constante. En 1998, deux équipes indépendantes étudiant les supernovae de type Ia dans des galaxies lointaines (l'une menée par Saul Perlmutter, l'autre par Brian Schmidt et Adam Riess) découvrent que l'expansion de l'univers n'est pas en train de ralentir sous l'effet de la gravitation, mais qu'elle accélère. Cette découverte, qui vaudra à ses auteurs le prix Nobel de physique en 2011, implique l'existence d'une mystérieuse énergie sombre représentant environ 68 % du contenu énergétique de l'univers. La constante de Hubble devient dès lors un paramètre fondamental non seulement de la cinématique cosmique, mais du modèle cosmologique standard dans son ensemble, le modèle ΛCDM.

Avec la précision accrue des instruments, la constante de Hubble cesse d'être un simple chiffre flottant pour devenir le centre d'une tension statistique de plus en plus préoccupante. D'un côté, les mesures de l'échelle des distances dans l'univers local (supernovae de type Ia calibrées par les céphéides) convergent vers une valeur d'environ 73 km/s/Mpc, confirmée et affinée par Adam Riess et son équipe au fil des années 2010, avec une incertitude réduite à moins de 2 %. De l'autre côté, les analyses du fond diffus cosmologique, notamment par le satellite Planck de l'Agence spatiale européenne dont les résultats définitifs sont publiés en 2018, donnent une valeur de 67,4 ± 0,5 km/s/Mpc, en accord avec les prédictions du modèle ΛCDM. 

L'écart entre les deux approches, d'environ 9 %, dépasse les 5 sigma (le seuil conventionnel de la signification statistique en physique) et résiste obstinément à toutes les corrections systématiques identifiables.

Cinq sigma est le seuil au-delà duquel, en physique des particules, on proclame une découverte. Autrement dit, si les erreurs étaient purement statistiques et gaussiennes, la probabilité que l'écart soit dû au hasard serait inférieure à un sur un million. (Le critère sigma))
En cosmologie observationnelle, les erreurs systématiques sont la hantise permanente, et la première réaction des astronomes fut naturellement de chercher où les biais pouvaient se cacher. Du côté de la mesure locale, on a scruté chaque barreau de l'échelle des distances avec une intensité croissante. Les céphéides sont-elles correctement identifiées? Leur relation période-luminosité varie-t-elle avec la métallicité des étoiles, c'est-à-dire l'abondance en éléments lourds? La contamination par des étoiles d'arrière-plan dans des régions denses des galaxies hôtes fausse-t-elle les mesures de luminosité? Les supernovae Ia sont-elles véritablement des chandelles standard uniformes, ou existe-t-il une dispersion intrinsèque non corrigée? Le télescope spatial James Webb, dont les observations de céphéides dans des galaxies de l'échantillon de Riess sont publiées à partir de 2023, apporte une réponse claire : les mesures infrarouge de Webb, moins affectées par l'absorption par la poussière et mieux résolues que celles du Hubble, confirment les distances obtenues précédemment. La valeur locale résiste à cet examen approfondi.

Du côté cosmologique, on a également cherché des biais. Les données de Planck sont-elles affectées par des effets systématiques instrumentaux? La lentille gravitationnelle (la déviation des photons du fond diffus par les grandes structures) est-elle correctement modélisée? Une anomalie dans le spectre de puissance à grand angle, connue depuis WMAP et confirmée par Planck, suggère-t-elle une physique exotique ou simplement une fluctuation statistique? D'autres expériences indépendantes, comme l'interféromètre au sol ACT (Atacama Cosmology Telescope) ou SPT (South Pole Telescope), ont confirment les résultats de Planck. La valeur basse de H0  n'est pas un artefact d'un seul instrument.

La discordance constatée entre détermination locale et détermination cosmologique de H0, la "tension de Hubble", est, en ce début de XXIe siècle, l'une des énigmes les plus profondes que la cosmologie ait jamais rencontrées, précisément parce qu'elle ne surgit pas d'une absence de données ou d'un manque de précision, mais au contraire de la qualité même des données : deux familles de mesures, toutes deux conduites avec un soin méthodologique exemplaire, aboutissent à des valeurs incompatibles d'un paramètre qui devrait être unique. Cette situation (rare en sciences) est le signe que quelque chose, quelque part, résiste à notre compréhension. Pire (ou mieux!), la tension s'est durcie à mesure que les erreurs systématiques potentielles étaient identifiées et corrigées une à une. Ce durcissement a conduit les chercheurs à envisager sérieusement l'hypothèse que l'écart ne soit pas instrumental mais physique, autrement dit qu'il pointe l'existence d'une faille réelle dans le modèle cosmologique standard. 

Comment expliquer la tension de Hubble?
L'une des hypothèses plus discutées est celle de l'énergie sombre dynamique. Dans le modèle ΛCDM, l'énergie sombre est représentée par la constante cosmologique Λ, une énergie du vide constante dans le temps et l'espace, avec un paramètre d'équation d'état w = −1. Si w était légèrement différent de −1, ou si l'énergie sombre évoluait dans le temps, l'expansion de l'univers aurait une histoire différente, ce qui modifierait l'interprétation des données du fond diffus et pourrait réconcilier les deux valeurs de H0. Des modèles de quintessence (champs scalaires dynamiques mimant une énergie sombre variable) ont été invoqués sans qu'aucun ne s'impose clairement. En 2024, les premières données du relevé DESI (Dark Energy Spectroscopic Instrument), mesurant les oscillations acoustiques de baryons dans des centaines de millions de galaxies, ont montré des signes qui pourraient aller dans le sens d'une énergie sombre évoluant dans le temps, ce qui a relancé l'intérêt pour ces modèles, même si les résultats ne sont pas encore jugés concluants.

Une autre famille de solutions propose de modifier la physique de l'univers primordial, avant la recombinaison, de façon à réduire la taille de l'horizon acoustique et ainsi forcer l'interprétation des données de Planck vers une valeur plus élevée de H0. L'énergie sombre précoce est le modèle le plus étudié dans cette catégorie : il postule l'existence d'un champ scalaire actif uniquement dans l'univers primordial, injectant brièvement de l'énergie supplémentaire avant la recombinaison. Cela réduirait l'horizon acoustique d'environ 10 %, ce qui, pour reproduire les mêmes angles observés dans le spectre du fond diffus, nécessiterait des distances plus petites, donc un H0 plus grand. Mais ces modèles peinent à reproduire simultanément l'ensemble des observables cosmologiques (notamment les mesures de structure à grande échelle et l'amplitude des fluctuations de matière) sans introduire de nouvelles tensions.

La physique des neutrinos offre une autre voie. Les neutrinos, légèrement massifs, influencent la formation des structures et la cinématique de l'univers primordial. Une masse effective de neutrinos légèrement différente de ce que le modèle standard admet, ou l'existence de neutrinos stériles supplémentaires, pourrait modifier l'horizon acoustique. Des interactions non standard entre neutrinos et matière dans l'univers primordial ont également été proposées. Ces hypothèses sont contraintes par les mesures des oscillations de neutrinos et les limites cosmologiques sur leur masse, mais, selon les spécialistes, restent dans le domaine du possible.

Certains physiciens ont envisagé aussi de modifier la relativité générale à grande échelle, en introduisant des théories de gravitation alternatives où le tenseur d'Einstein est corrigé par des termes supplémentaires. D'autres ont proposé que la matière sombre ne soit pas froide et sans interaction comme dans le modèle standard, mais qu'elle interagisse faiblement avec la matière ordinaire ou avec les photons, modifiant ainsi la dynamique des oscillations acoustiques. La matière sombre auto-interagissante, la matière sombre avec désintégration partielle en composantes relativistes, ou encore la matière sombre primitive formée de trous noirs, sont autant de variantes qui modifient l'histoire de l'expansion à des époques différentes.

Il existe également une piste purement locale : la possibilité que notre voisinage cosmique soit légèrement sous-dense par rapport à la moyenne. Si nous étions situés dans une bulle de vide ou vide local, cela ferait paraître l'expansion locale plus rapide que l'expansion globale. Des études des structures à grande échelle dans notre environnement galactique ont effectivement détecté une certaine sous-densité, mais l'amplitude de l'effet semble insuffisante pour expliquer à elle seule tout l'écart observé.

D'autres approches sont venues s'ajouter au débat, cherchant à contourner entièrement les biais des deux méthodes traditionnelles. Celle des sirènes standard gravitationnelles constitue l'une des plus prometteuses : lors de la fusion de deux étoiles à neutrons, les ondes gravitationnelles émises permettent de mesurer la distance de la source de façon absolue, tandis que le décalage vers le rouge de la contrepartie électromagnétique donne la vitesse de récession. L'événement GW170817, détecté en 2017 par les interféromètres LIGO et Virgo simultanément à une émission gamma et optique, a ainsi dénné une première estimation de H0 = 70 ± 12 km/s/Mpc, compatible avec les deux camps, mais avec une incertitude encore trop grande pour trancher. Il faudra des dizaines à des centaines d'événements similaires pour atteindre la précision nécessaire, ce qui peut prendre du temps. Les lentilles gravitationnelles à délai temporel (où la lumière d'un quasar lointain passe par plusieurs chemins autour d'une galaxie lentille, et où les délais entre ces chemins codent la géométrie cosmologique) constituent une autre sonde, qui tend également vers des valeurs élevées de H0, autour de 73 km/s/Mpc, bien que des débats subsistent sur la modélisation de la distribution de masse des lentilles.

Ce qui rend la problématique de la tension de Hubble particulièrement stimulante et frustrante à la fois, c'est qu'elle se situe exactement à la frontière entre l'erreur systématique et la nouvelle physique. Chaque nouvelle mesure est scrutée avec une intensité qui témoigne de l'enjeu : si la tension est réelle, elle signifie que le modèle ΛCDM, le cadre standard de la cosmologie depuis trente ans, est incomplet. Elle rejoindrait alors la liste des grandes anomalies qui ont précédé des révolutions scientifiques (par exemple, le périhélie de Mercure avant la relativité générale ou le rayonnement du corps noir avant la mécanique quantique). Mais si elle résulte d'une erreur non encore identifiée, elle rappellera que la mesure cosmologique, aussi sophistiquée soit-elle, reste une entreprise humaine sujette à des biais insoupçonnés.

En l'état actuel, les chercheurs sont partagés entre un pragmatisme prudent (attendre de nouvelles données avant de conclure) et un enthousiasme théorique qui produit chaque année des dizaines de modèles alternatifs. Les prochaines années seront décisives. Les observations du télescope Euclid, lancé par l'ESA en 2023, couvriront un tiers du ciel en infrarouge et cartographieront des milliards de galaxies pour mesurer la structure à grande échelle avec une précision sans précédent. Le télescope Rubin en construction au Chili produira un relevé optique d'une profondeur inégalée. Les futurs détecteurs d'ondes gravitationnelles, plus sensibles, multiplieront les sirènes standard. Et peut-être qu'une nouvelle génération de missions dédiées au fond diffus cosmologique affinera encore la valeur basse jusqu'à rendre la tension statistiquement intenable, ou, au contraire, révélera dans les données une subtilité jusqu'alors ignorée.

.


Les mots de la matière
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
[Aide][Recherche sur Internet]

© Serge Jodra, 2026. - Reproduction interdite.