|
|
| . |
|
||||||
| La constante de Hubble |
La constante
de Hubble, notée H0, est un paramètre
fondamental en cosmologie qui quantifie le
taux d'expansion actuel de l'univers. Elle relie la vitesse d'éloignement
des galaxies distantes (vitesse de récession) Ã
leur distance, conformément à la loi de Hubble-Lemaître :
v = H0 . d, où v est la vitesse radiale d'une galaxie (mesurée via son décalage spectral), d sa distance.Cette loi traduit le fait que plus une galaxie est éloignée, plus elle semble s'éloigner rapidement, ce qui constitue une signature directe de l'expansion de l'espace lui-même, et non d'un mouvement classique dans un espace fixe. Dans le Système international, H0 s'exprime en s−1, mais en pratique on utilise des unités astrophysiques : kilomètres par seconde et par mégaparsec (km·s−1.Mpc−1 ou km/s/Mpc). Un mégaparsec correspond à environ 3,26 millions d'années-lumière. Les valeurs données actuellement pour H0 se situent autour de 70 km·s−1.Mpc−1, ce qui signifie qu'une galaxie située à 1 Mpc s'éloigne en moyenne à une vitesse de cet ordre. Une galaxie deux fois plus loin s'éloigne deux fois plus vite. L'interprétation
physique de H0 est profondément liée à la dynamique
globale de l'Univers décrite par les équations de la relativité
générale formulées par Einstein Une conséquence importante est que l'inverse de la constante de Hubble donne une estimation de l'âge caractéristique de l'univers, appelé temps de Hubble. En première approximation, tH ≈ 1/H0, ce qui conduit à un âge de l'ordre de 13 à 15 milliards d'années, en accord avec les estimations plus précises issues d'observations détaillées. La mesure de H0 est un enjeu central de la cosmologie moderne. Deux grandes méthodes indépendantes dominent. La première est dite locale ou de l'univers tardif : elle consiste à mesurer directement, dans l'univers proche, les distances de galaxies et leurs vitesses de récession, puis à en déduire le taux d'expansion actuel. La seconde est dite cosmologique ou de l'univers primordial : elle consiste à analyser le fond diffus cosmologique et à en extraire H0 par l'intermédiaire du modèle cosmologique standard, en propageant vers aujourd'hui les conditions physiques de l'univers jeune : • La voie locale repose sur ce qu'on appelle l'échelle des distances cosmiques, une construction en échelons successifs ressemblant à une échelle dont chaque barreau s'appuie sur le précédent. Le premier barreau est la parallaxe trigonométrique : en mesurant le léger déplacement apparent d'étoiles proches lorsque la Terre se déplace sur son orbite, on obtient des distances absolues sans hypothèse aucune. Le satellite Hipparcos, puis Gaia de l'Agence spatiale européenne avec une précision supérieure de deux ordres de grandeur, ont mesuré les parallaxes de millions d'étoiles dans notre galaxie. Ces distances étalonnent les céphéides galactiques (ces étoiles variables dont la période de pulsation est liée à la luminosité intrinsèque), qui servent à leur tour de chandelles standard pour atteindre les galaxies voisines jusqu'à quelques dizaines de mégaparsecs. Dans ces galaxies, on identifie les supernovae de type Ia, des explosions thermonucléaires d'étoiles naines blanches atteignant des luminosités si colossales qu'elles sont visibles à des milliards d'années-lumière. La luminosité maximale d'une supernova Ia varie de façon prévisible avec la forme de sa courbe de lumière (relation découverte par Mark Phillips en 1993), ce qui en fait des chandelles standard d'une portée extraordinaire. Cette approche a été largement développée avec le télescope spatial Hubble (HST). La valeur obtenue par cette méthode est environ 73 km/s/Mpc.On le voit, les mesures fondées sur l'échelle des distances donnent une valeur de H0, différente de celle des mesures issues de l'analyse du fond diffus cosmologique. Cette divergence, trop grande pour être expliquée par des erreurs statistiques, est connue sous le nom de tension de Hubble. Elle pourrait signaler des biais systématiques dans les mesures ou, plus intriguant, la nécessité de modifier le modèle cosmologique standard (ΛCDM), par exemple en introduisant de nouvelles composantes ou interactions. La découverte
et la détermination de la constante de Hubble.
C'est dans ce climat
intellectuel bouillonnant que Vesto Slipher La
loi de Hubble.
Fort de cette méthode,
Hubble étend ses mesures à d'autres galaxies au cours des années suivantes,
en collaboration avec son assistant Milton Humason En janvier 1929, il publie dans les Proceedings of the National Academy of Sciences un article fondateur intitulé A Relation between Distance and Radial Velocity among Extra-Galactic Nebulae. Sur la base d'un échantillon de 24 galaxies, il proposa une relation linéaire entre vitesse de récession et distance, de la forme donnée plus haut (soit v = H0.d). La valeur qu'il estime pour cette constante de proportionnalité étestait d'environ 500 km/s/Mpc, soit (on le sait aujourd'hui), environ sept fois trop grande, en raison d'erreurs systématiques dans la calibration des céphéides et dans l'échelle des distances. Mais la structure de la loi est correcte, et son importance va s'avérer immense. Ce que Hubble a mis
en évidence empiriquement n'est pas sans précédent théorique. Dès
1922, le mathématicien Alexandre Friedmann
Edwin Hubble devant le télescope de 48" du mont Palomar. Crédit : Mt. Wilson Archive, Carnegie Institution of Washington La
valeur de la constante de Hubble.
Les décennies suivantes
vont être marquées par une bataille de chiffres entre deux camps principaux.
Allan Sandage C'est pour trancher ce débat qu'une des missions prioritaires du télescope spatial Hubble, lancé en 1990, est dédiée à la mesure de la constante. Le Projet-clé (Key Project) est mené sous la direction de Wendy Freedman, avec une équipe internationale. Pendant tout un programme d'observations s'étalant sur plusieurs années, les astronomes utilisent le télescope spatial pour identifier des céphéides dans des galaxies suffisamment lointaines pour servir de jalons fiables. En 2001, Freedman et ses collaborateurs publient leur résultat final : H0 = 72 ± 8 km/s/Mpc. C'est la première valeur assortie d'une incertitude aussi bien contrôlée, et elle réconcilie grossièrement les deux camps en se situant entre leurs estimations extrêmes. La
tension de Hubble.
Avec la précision accrue des instruments, la constante de Hubble cesse d'être un simple chiffre flottant pour devenir le centre d'une tension statistique de plus en plus préoccupante. D'un côté, les mesures de l'échelle des distances dans l'univers local (supernovae de type Ia calibrées par les céphéides) convergent vers une valeur d'environ 73 km/s/Mpc, confirmée et affinée par Adam Riess et son équipe au fil des années 2010, avec une incertitude réduite à moins de 2 %. De l'autre côté, les analyses du fond diffus cosmologique, notamment par le satellite Planck de l'Agence spatiale européenne dont les résultats définitifs sont publiés en 2018, donnent une valeur de 67,4 ± 0,5 km/s/Mpc, en accord avec les prédictions du modèle ΛCDM. L'écart entre les deux approches, d'environ 9 %, dépasse les 5 sigma (le seuil conventionnel de la signification statistique en physique) et résiste obstinément à toutes les corrections systématiques identifiables. En cosmologie observationnelle, les erreurs systématiques sont la hantise permanente, et la première réaction des astronomes fut naturellement de chercher où les biais pouvaient se cacher. Du côté de la mesure locale, on a scruté chaque barreau de l'échelle des distances avec une intensité croissante. Les céphéides sont-elles correctement identifiées? Leur relation période-luminosité varie-t-elle avec la métallicité des étoiles, c'est-à -dire l'abondance en éléments lourds? La contamination par des étoiles d'arrière-plan dans des régions denses des galaxies hôtes fausse-t-elle les mesures de luminosité? Les supernovae Ia sont-elles véritablement des chandelles standard uniformes, ou existe-t-il une dispersion intrinsèque non corrigée? Le télescope spatial James Webb, dont les observations de céphéides dans des galaxies de l'échantillon de Riess sont publiées à partir de 2023, apporte une réponse claire : les mesures infrarouge de Webb, moins affectées par l'absorption par la poussière et mieux résolues que celles du Hubble, confirment les distances obtenues précédemment. La valeur locale résiste à cet examen approfondi. Du côté cosmologique, on a également cherché des biais. Les données de Planck sont-elles affectées par des effets systématiques instrumentaux? La lentille gravitationnelle (la déviation des photons du fond diffus par les grandes structures) est-elle correctement modélisée? Une anomalie dans le spectre de puissance à grand angle, connue depuis WMAP et confirmée par Planck, suggère-t-elle une physique exotique ou simplement une fluctuation statistique? D'autres expériences indépendantes, comme l'interféromètre au sol ACT (Atacama Cosmology Telescope) ou SPT (South Pole Telescope), ont confirment les résultats de Planck. La valeur basse de H0 n'est pas un artefact d'un seul instrument. La discordance constatée entre détermination locale et détermination cosmologique de H0, la "tension de Hubble", est, en ce début de XXIe siècle, l'une des énigmes les plus profondes que la cosmologie ait jamais rencontrées, précisément parce qu'elle ne surgit pas d'une absence de données ou d'un manque de précision, mais au contraire de la qualité même des données : deux familles de mesures, toutes deux conduites avec un soin méthodologique exemplaire, aboutissent à des valeurs incompatibles d'un paramètre qui devrait être unique. Cette situation (rare en sciences) est le signe que quelque chose, quelque part, résiste à notre compréhension. Pire (ou mieux!), la tension s'est durcie à mesure que les erreurs systématiques potentielles étaient identifiées et corrigées une à une. Ce durcissement a conduit les chercheurs à envisager sérieusement l'hypothèse que l'écart ne soit pas instrumental mais physique, autrement dit qu'il pointe l'existence d'une faille réelle dans le modèle cosmologique standard. Comment
expliquer la tension de Hubble?
Une autre famille de solutions propose de modifier la physique de l'univers primordial, avant la recombinaison, de façon à réduire la taille de l'horizon acoustique et ainsi forcer l'interprétation des données de Planck vers une valeur plus élevée de H0. L'énergie sombre précoce est le modèle le plus étudié dans cette catégorie : il postule l'existence d'un champ scalaire actif uniquement dans l'univers primordial, injectant brièvement de l'énergie supplémentaire avant la recombinaison. Cela réduirait l'horizon acoustique d'environ 10 %, ce qui, pour reproduire les mêmes angles observés dans le spectre du fond diffus, nécessiterait des distances plus petites, donc un H0 plus grand. Mais ces modèles peinent à reproduire simultanément l'ensemble des observables cosmologiques (notamment les mesures de structure à grande échelle et l'amplitude des fluctuations de matière) sans introduire de nouvelles tensions. La physique des neutrinos offre une autre voie. Les neutrinos, légèrement massifs, influencent la formation des structures et la cinématique de l'univers primordial. Une masse effective de neutrinos légèrement différente de ce que le modèle standard admet, ou l'existence de neutrinos stériles supplémentaires, pourrait modifier l'horizon acoustique. Des interactions non standard entre neutrinos et matière dans l'univers primordial ont également été proposées. Ces hypothèses sont contraintes par les mesures des oscillations de neutrinos et les limites cosmologiques sur leur masse, mais, selon les spécialistes, restent dans le domaine du possible. Certains physiciens ont envisagé aussi de modifier la relativité générale à grande échelle, en introduisant des théories de gravitation alternatives où le tenseur d'Einstein est corrigé par des termes supplémentaires. D'autres ont proposé que la matière sombre ne soit pas froide et sans interaction comme dans le modèle standard, mais qu'elle interagisse faiblement avec la matière ordinaire ou avec les photons, modifiant ainsi la dynamique des oscillations acoustiques. La matière sombre auto-interagissante, la matière sombre avec désintégration partielle en composantes relativistes, ou encore la matière sombre primitive formée de trous noirs, sont autant de variantes qui modifient l'histoire de l'expansion à des époques différentes. Il existe également une piste purement locale : la possibilité que notre voisinage cosmique soit légèrement sous-dense par rapport à la moyenne. Si nous étions situés dans une bulle de vide ou vide local, cela ferait paraître l'expansion locale plus rapide que l'expansion globale. Des études des structures à grande échelle dans notre environnement galactique ont effectivement détecté une certaine sous-densité, mais l'amplitude de l'effet semble insuffisante pour expliquer à elle seule tout l'écart observé. D'autres approches sont venues s'ajouter au débat, cherchant à contourner entièrement les biais des deux méthodes traditionnelles. Celle des sirènes standard gravitationnelles constitue l'une des plus prometteuses : lors de la fusion de deux étoiles à neutrons, les ondes gravitationnelles émises permettent de mesurer la distance de la source de façon absolue, tandis que le décalage vers le rouge de la contrepartie électromagnétique donne la vitesse de récession. L'événement GW170817, détecté en 2017 par les interféromètres LIGO et Virgo simultanément à une émission gamma et optique, a ainsi dénné une première estimation de H0 = 70 ± 12 km/s/Mpc, compatible avec les deux camps, mais avec une incertitude encore trop grande pour trancher. Il faudra des dizaines à des centaines d'événements similaires pour atteindre la précision nécessaire, ce qui peut prendre du temps. Les lentilles gravitationnelles à délai temporel (où la lumière d'un quasar lointain passe par plusieurs chemins autour d'une galaxie lentille, et où les délais entre ces chemins codent la géométrie cosmologique) constituent une autre sonde, qui tend également vers des valeurs élevées de H0, autour de 73 km/s/Mpc, bien que des débats subsistent sur la modélisation de la distribution de masse des lentilles. Ce qui rend la problématique
de la tension de Hubble particulièrement stimulante et frustrante à la
fois, c'est qu'elle se situe exactement à la frontière entre l'erreur
systématique et la nouvelle physique. Chaque nouvelle mesure est scrutée
avec une intensité qui témoigne de l'enjeu : si la tension est réelle,
elle signifie que le modèle ΛCDM, le cadre standard de la cosmologie
depuis trente ans, est incomplet. Elle rejoindrait alors la liste des grandes
anomalies qui ont précédé des révolutions scientifiques (par exemple,
le périhélie de Mercure En l'état actuel, les chercheurs sont partagés entre un pragmatisme prudent (attendre de nouvelles données avant de conclure) et un enthousiasme théorique qui produit chaque année des dizaines de modèles alternatifs. Les prochaines années seront décisives. Les observations du télescope Euclid, lancé par l'ESA en 2023, couvriront un tiers du ciel en infrarouge et cartographieront des milliards de galaxies pour mesurer la structure à grande échelle avec une précision sans précédent. Le télescope Rubin en construction au Chili produira un relevé optique d'une profondeur inégalée. Les futurs détecteurs d'ondes gravitationnelles, plus sensibles, multiplieront les sirènes standard. Et peut-être qu'une nouvelle génération de missions dédiées au fond diffus cosmologique affinera encore la valeur basse jusqu'à rendre la tension statistiquement intenable, ou, au contraire, révélera dans les données une subtilité jusqu'alors ignorée. |
| . |
|
|
|
|||||||||||||||||||||||||||||||
|