Aller au contenu

L’écart dans l’expansion de l’univers devient de plus en plus difficile à expliquer.

Jeune scientifique analysant des données astronomiques colorées dans un bureau avec un télescope et un ordinateur portable.

Une nouvelle analyse montre que l’Univers local se dilate plus vite que ne le prévoient les déductions issues de l’Univers primordial, confirmant un décalage connu de longue date entre ces deux approches de mesure.

Cet écart tenace s’accompagne désormais d’incertitudes réduites, ce qui renforce l’idée qu’un élément fondamental des modèles cosmologiques actuels pourrait manquer à l’appel.

Un résultat qui tient bon : la constante de Hubble dans l’Univers local

En s’appuyant sur un ensemble d’étoiles proches, de galaxies hôtes de supernovae et d’autres galaxies, le taux d’expansion reste remarquablement stable, même lorsque différentes voies de mesure aboutissent au même chiffre.

En reliant ces observations, Stefano Casertano, à l’Institut scientifique du télescope spatial (STScI), a connecté plusieurs jalons de distance indépendants à un taux mesuré avec précision : 45.7 miles par seconde pour chaque 3.26 millions d’années-lumière (soit environ 73.5 km/s par mégaparsec).

Le fait de supprimer des catégories entières de mesures ne fait bouger le résultat que marginalement, indiquant qu’aucune méthode isolée ne pilote à elle seule la valeur obtenue.

Cette robustesse resserre l’éventail des explications possibles et suggère des causes plus profondes derrière une divergence qui demeure non résolue.

Pourquoi ce chiffre compte

Au cœur du débat se trouve la constante de Hubble, le paramètre qui indique à quelle vitesse l’espace s’étire quand la distance augmente.

Les mesures locales placent l’expansion autour de 45.7 miles par seconde pour chaque 3.26 millions d’années-lumière, une valeur supérieure à celle attendue si l’on extrapole à partir de l’Univers jeune.

À l’inverse, les mesures fondées sur l’Univers primordial conduisent à un rythme plus lent, proche de 41.6 miles par seconde à la même échelle (environ 66.9 km/s par mégaparsec).

Comme ces deux estimations refusent de se rejoindre, les astronomes parlent de tension de Hubble : un conflit entre mesures « tardives » (locales) et « précoces » (issues de l’Univers ancien).

Multiplier les itinéraires de mesure

Plutôt que de s’en remettre à une seule chaîne d’étalonnage, l’équipe a combiné des chemins qui partent du voisinage cosmique et s’étendent progressivement vers des distances plus grandes.

Les Céphéides, les étoiles géantes rouges, les supernovae, ainsi que des méthodes fondées sur les galaxies, se sont vérifiées mutuellement : les informations partagées consolidaient la valeur finale au lieu de masquer d’éventuelles contradictions.

« “Ce n’est pas simplement une nouvelle valeur de la constante de Hubble : c’est un cadre construit par la communauté, qui rassemble des décennies de mesures de distances indépendantes, de manière transparente et accessible” », a écrit la collaboration internationale Réseau de distances H0, à l’origine de l’étude.

Cette architecture est cruciale : si l’une des voies était erronée, elle aurait dû tirer beaucoup plus fortement l’ensemble du réseau - ce qui n’a pas été observé.

Pourquoi les étoiles sont des repères utiles

Parmi les marqueurs les plus précieux figurent les étoiles pulsantes appelées Céphéides, dont le rythme permet d’inférer la luminosité réelle.

Une fois la luminosité intrinsèque connue, il suffit de la comparer à la luminosité apparente pour en déduire la distance.

Les étoiles géantes rouges ont fourni un échelon complémentaire : à une phase tardive de leur évolution, leur luminosité atteint un niveau très similaire d’un cas à l’autre.

En combinant ces deux indices stellaires, l’étude a réduit le risque qu’une seule population d’étoiles, un seul télescope ou une seule règle d’étalonnage déforme l’ensemble des distances.

Comment les supernovae portent l’échelle plus loin

Bien au-delà de ces étoiles, les chercheurs se sont appuyés sur les supernovae de type Ia : des explosions de naines blanches dont le pic de luminosité est réputé régulier.

Leur luminosité a été calibrée dans des galaxies proches, dont les distances étaient elles-mêmes obtenues à partir d’indicateurs stellaires, ce qui permettait ensuite aux supernovae d’exporter cette échelle vers des régions plus lointaines.

Parce qu’elles brillent intensément, elles sondent des domaines où l’expansion cosmique domine largement les mouvements plus modestes du voisinage local.

Des méthodes basées sur les galaxies ont atteint des distances comparables, et le fait de les substituer aux supernovae n’a pratiquement pas modifié le résultat.

Ce qu’ont révélé les vérifications

Des centaines de tests ont cherché à déterminer si l’absence d’une méthode, le choix d’une galaxie d’ancrage ou l’usage d’un seul instrument pouvait entraîner une dérive notable de la valeur finale.

Retirer les Céphéides augmentait l’incertitude, mais la plupart des variantes restaient regroupées autour du même chiffre central.

Exclure les observations du télescope Hubble élargissait davantage la marge d’erreur que retirer les données de Webb, sans que l’une ou l’autre version ne s’écarte franchement de la référence.

Ce schéma rend plus difficile l’idée que le désaccord ne soit qu’un artefact lié à un instrument particulier ou à une méthode privilégiée.

Pourquoi l’hypothèse d’une simple erreur tient moins bien

Même en empruntant des parcours distincts dans les données - avec des ancrages, des traceurs et des étapes de calibration différents - les résultats aboutissaient à des valeurs compatibles.

L’ensemble des résultats écarte l’explication selon laquelle la divergence proviendrait d’une unique erreur passée inaperçue dans la manière de mesurer les distances locales.

Pour effacer l’écart, il faudrait désormais que plusieurs outils indépendants se trompent simultanément dans la même direction.

C’est envisageable en théorie, mais cela constitue une possibilité bien plus étroite qu’auparavant.

Ce que la physique pourrait devoir réviser

Si les mesures sont correctes, la difficulté pourrait résider dans le modèle utilisé pour projeter la lumière ancienne jusqu’à l’Univers d’aujourd’hui.

Ce cadre intègre la matière ordinaire, la matière noire, la gravité et l’énergie noire, l’influence inconnue associée à l’accélération cosmique.

Une particule manquante, une évolution différente du comportement de l’énergie noire ou un ajustement des lois de la gravité pourraient tous modifier la prédiction issue de l’Univers primordial.

Aucune de ces pistes n’a encore emporté l’adhésion, mais l’argument en faveur d’une exploration au-delà d’hypothèses « propres » et minimales s’est renforcé.

Prochaines étapes : de nouveaux outils et davantage d’ancrages

Comme l’équipe a rendu publics les logiciels et les données, d’autres groupes - au STScI comme ailleurs - peuvent s’intégrer au même cadre sans devoir tout reconstruire.

Webb, les très grands télescopes au sol et les futures campagnes d’observation pourront pousser les marqueurs stellaires à des distances plus grandes et durcir les recoupements.

Des ancrages géométriques supplémentaires seraient particulièrement utiles, car ils fixent l’échelle absolue avant que toute « échelle des distances » ou tout réseau ne se prolonge vers l’extérieur.

Chaque nouvelle voie viendra remettre à l’épreuve la même divergence, et cette pression répétée est ce qui fera avancer le récit.

Ce qui se dessine, c’est un Univers proche plus rapide, mesuré par de multiples chemins qui se confirment les uns les autres.

Que la solution passe par une nouvelle physique ou par une réévaluation plus subtile d’hypothèses anciennes, l’écart devient de plus en plus difficile à écarter d’un revers de main.

Commentaires

Aucun commentaire pour le moment. Soyez le premier!

Laisser un commentaire