Une nouvelle mesure de la constante de Hubble met en évidence l’écart entre les estimations de notre destin cosmique –

Déterminer la rapidité de l’expansion de l’univers est essentiel pour comprendre notre destin cosmique, mais avec des données plus précises est venu une énigme: les estimations basées sur des mesures dans notre univers local ne sont pas d’accord avec les extrapolations de l’ère peu après le Big Bang 13,8 milliards d’années depuis.
Une nouvelle estimation du taux d’expansion locale – la constante de Hubble, ou H0 (H-rien) – renforce cet écart.
En utilisant une technique relativement nouvelle et potentiellement plus précise pour mesurer les distances cosmiques, qui utilise la luminosité stellaire moyenne dans les galaxies elliptiques géantes comme un échelon sur l’échelle de distance, les astronomes calculent un taux – 73,3 kilomètres par seconde par mégaparsec, soit 2,5 km. / sec / Mpc – qui se situe au milieu de trois autres bonnes estimations, y compris l’estimation de l’étalon-or des supernovae de type Ia. Cela signifie que pour chaque mégaparsec – 3,3 millions d’années-lumière, ou 3 milliards de milliards de kilomètres – de la Terre, l’univers s’étend de 73,3 ± 2,5 kilomètres supplémentaires par seconde. La moyenne des trois autres techniques est de 73,5 ± 1,4 km / s / Mpc.
Curieusement, les estimations du taux d’expansion locale basées sur les fluctuations mesurées du fond cosmique des micro-ondes et, indépendamment, les fluctuations de la densité de la matière normale dans l’univers primitif (oscillations acoustiques du baryon), donnent une réponse très différente: 67,4 ± 0,5 km / s / Mpc.
Les astronomes sont naturellement préoccupés par cette inadéquation, car le taux d’expansion est un paramètre critique pour comprendre la physique et l’évolution de l’univers et est essentiel pour comprendre l’énergie noire – ce qui accélère le taux d’expansion de l’univers et entraîne ainsi la constante de Hubble à changent plus rapidement que prévu avec l’augmentation de la distance par rapport à la Terre. L’énergie sombre comprend environ les deux tiers de la masse et de l’énergie de l’univers, mais reste un mystère.
Pour la nouvelle estimation, les astronomes ont mesuré les fluctuations de la luminosité de surface de 63 galaxies elliptiques géantes pour déterminer la distance et la distance en fonction de la vitesse pour chacune afin d’obtenir H0. La technique de fluctuation de la luminosité de surface (SBF) est indépendante des autres techniques et a le potentiel de fournir des estimations de distance plus précises que d’autres méthodes à environ 100 Mpc de la Terre, soit 330 millions d’années-lumière. Les 63 galaxies de l’échantillon sont à des distances allant de 15 à 99 Mpc, ne regardant en arrière dans le temps qu’une fraction de l’âge de l’univers.
“Pour mesurer les distances des galaxies jusqu’à 100 mégaparsecs, c’est une méthode fantastique”, a déclaré le cosmologiste Chung-Pei Ma, le professeur Judy Chandler Webb en sciences physiques à l’Université de Californie à Berkeley et professeur d’astronomie et de physique. “C’est le premier article qui rassemble un grand ensemble homogène de données, sur 63 galaxies, dans le but d’étudier H-rien en utilisant la méthode SBF.”
Ma dirige l’étude MASSIVE des galaxies locales, qui a fourni des données pour 43 des galaxies – les deux tiers de celles utilisées dans la nouvelle analyse.
Les données sur ces 63 galaxies ont été rassemblées et analysées par John Blakeslee, un astronome du NOIRLab de la National Science Foundation. Il est le premier auteur d’un article maintenant accepté pour publication dans Le journal astrophysique qu’il a co-écrit avec son collègue Joseph Jensen de l’Université Utah Valley à Orem. Blakeslee, qui dirige le personnel scientifique qui prend en charge les observatoires optiques et infrarouges de NSF, est un pionnier dans l’utilisation du SBF pour mesurer les distances aux galaxies, et Jensen a été l’un des premiers à appliquer la méthode aux longueurs d’onde infrarouges. Les deux ont travaillé en étroite collaboration avec Ma sur l’analyse.
“Toute l’histoire de l’astronomie est, en un sens, l’effort pour comprendre l’échelle absolue de l’univers, qui nous parle ensuite de la physique”, a déclaré Blakeslee, rappelant le voyage de James Cook à Tahiti en 1769 pour mesurer un transit de Vénus afin que les scientifiques puissent calculer la taille réelle du système solaire. «La méthode SBF est plus largement applicable à la population générale des galaxies évoluées dans l’univers local, et certainement si nous obtenons suffisamment de galaxies avec le télescope spatial James Webb, cette méthode a le potentiel de donner la meilleure mesure locale de la constante de Hubble. “
Le télescope spatial James Webb, 100 fois plus puissant que le télescope spatial Hubble, devrait être lancé en octobre.
Galaxies elliptiques géantes
La constante de Hubble est une pomme de discorde depuis des décennies, depuis qu’Edwin Hubble a mesuré pour la première fois le taux d’expansion locale et a proposé une réponse sept fois trop grande, ce qui implique que l’univers était en fait plus jeune que ses étoiles les plus anciennes. Le problème, hier et aujourd’hui, consiste à déterminer l’emplacement des objets dans l’espace, ce qui donne peu d’indices sur leur distance.
Au fil des ans, les astronomes se sont échelonnés sur de plus grandes distances, en commençant par calculer la distance à des objets suffisamment proches pour qu’ils semblent bouger légèrement, à cause de la parallaxe, lorsque la Terre tourne autour du soleil. Les étoiles variables appelées céphéides vous emmènent plus loin, car leur luminosité est liée à leur période de variabilité, et les supernovae de type Ia vous emmènent encore plus loin, car ce sont des explosions extrêmement puissantes qui, à leur apogée, brillent aussi brillamment que toute une galaxie. Pour les supernovae des céphéides et de type Ia, il est possible de déterminer la luminosité absolue à partir de la façon dont elles changent au fil du temps, puis la distance peut être calculée à partir de leur luminosité apparente vue de la Terre.
La meilleure estimation actuelle de H0 provient des distances déterminées par les explosions de supernova de type Ia dans les galaxies lointaines, bien que des méthodes plus récentes – retards de temps causés par la lentille gravitationnelle de quasars distants et la luminosité des masers d’eau en orbite autour des trous noirs – donnent toutes à peu près le même nombre .
La technique utilisant les fluctuations de luminosité de surface est l’une des plus récentes et repose sur le fait que les galaxies elliptiques géantes sont anciennes et ont une population cohérente d’étoiles anciennes – principalement des étoiles géantes rouges – qui peuvent être modélisées pour donner une luminosité infrarouge moyenne à travers leur surface. Les chercheurs ont obtenu des images infrarouges haute résolution de chaque galaxie avec la caméra grand champ 3 du télescope spatial Hubble et ont déterminé à quel point chaque pixel de l’image différait de la «moyenne» – plus les fluctuations sur toute l’image sont lisses, plus la galaxie, une fois que des corrections sont apportées pour les imperfections telles que les régions de formation d’étoiles brillantes, que les auteurs excluent de l’analyse.
Ni Blakeslee ni Ma n’ont été surpris que le taux d’expansion se rapproche de celui des autres mesures locales. Mais ils sont également confondus par le conflit flagrant avec les estimations de l’univers primitif – un conflit qui, selon de nombreux astronomes, signifie que nos théories cosmologiques actuelles sont fausses, ou du moins incomplètes.
Les extrapolations de l’univers primitif sont basées sur la théorie cosmologique la plus simple – appelée matière noire froide lambda, ou? CDM – qui n’utilise que quelques paramètres pour décrire l’évolution de l’univers. La nouvelle estimation enfonce-t-elle un enjeu au cœur du?
“Je pense que cela pousse un peu plus cet enjeu”, a déclaré Blakeslee. “Mais il (? MDP) est toujours vivant. Certaines personnes pensent, concernant toutes ces mesures locales, (que) les observateurs se trompent. Mais il devient de plus en plus difficile de faire cette affirmation – il faudrait qu’il y ait des erreurs systématiques dans le même sens pour plusieurs méthodes différentes: supernovae, SBF, lentille gravitationnelle, masers d’eau. Donc, à mesure que nous obtenons des mesures plus indépendantes, cet enjeu va un peu plus loin. “
Ma se demande si les incertitudes que les astronomes attribuent à leurs mesures, qui reflètent à la fois des erreurs systématiques et des erreurs statistiques, sont trop optimistes, et que peut-être les deux gammes d’estimations peuvent encore être conciliées.
«Le jury est sorti», a-t-elle déclaré. “Je pense que c’est vraiment dans les barres d’erreur. Mais en supposant que les barres d’erreur de tout le monde ne sont pas sous-estimées, la tension devient inconfortable.”
En fait, l’un des géants du domaine, l’astronome Wendy Freedman, a récemment publié une étude fixant la constante de Hubble à 69,8 ± 1,9 km / s / Mpc, faisant encore plus tourbillonner les eaux. Le dernier résultat d’Adam Riess, un astronome qui a partagé le prix Nobel de physique 2011 pour la découverte de l’énergie noire, rapporte 73,2 ± 1,3 km / s / Mpc. Riess était un chercheur postdoctoral Miller à l’UC Berkeley lorsqu’il a effectué cette recherche, et il a partagé le prix avec l’UC Berkeley et le physicien du laboratoire de Berkeley Saul Perlmutter.
Galaxies MASSIVES
La nouvelle valeur de H0 est un sous-produit de deux autres études de galaxies proches – en particulier, l’enquête MASSIVE de Ma, qui utilise des télescopes spatiaux et terrestres pour étudier de manière exhaustive les 100 galaxies les plus massives à environ 100 Mpc de la Terre. Un objectif majeur est de peser les trous noirs supermassifs au centre de chacun.
Pour ce faire, des distances précises sont nécessaires et la méthode SBF est la meilleure à ce jour, a-t-elle déclaré. L’équipe d’enquête MASSIVE a utilisé cette méthode l’année dernière pour déterminer la distance à une galaxie elliptique géante, NGC 1453, dans la constellation du ciel méridional d’Eridanus. Combinant cette distance, 166 millions d’années-lumière, avec des données spectroscopiques étendues des télescopes Gemini et McDonald – qui ont permis aux étudiants diplômés de Ma Chris Liepold et Matthew Quenneville de mesurer les vitesses des étoiles près du centre de la galaxie – ils ont conclu que NGC 1453 a un trou noir central avec une masse près de 3 milliards de fois celle du soleil.
Pour déterminer H0, Blakeslee a calculé les distances SBF à 43 des galaxies dans l’étude MASSIVE, sur la base de 45 à 90 minutes d’observation HST pour chaque galaxie. Les 20 autres provenaient d’une autre étude qui utilisait HST pour imager de grandes galaxies, en particulier celles dans lesquelles des supernovae de type Ia ont été détectées.
La plupart des 63 galaxies ont entre 8 et 12 milliards d’années, ce qui signifie qu’elles contiennent une grande population d’anciennes étoiles rouges, qui sont essentielles à la méthode SBF et peuvent également être utilisées pour améliorer la précision des calculs de distance. Dans l’article, Blakeslee a utilisé à la fois des étoiles variables Cepheid et une technique qui utilise les étoiles géantes rouges les plus brillantes d’une galaxie – appelée la pointe de la branche géante rouge, ou technique TRGB – pour atteindre les galaxies à de grandes distances. Ils ont produit des résultats cohérents. La technique TRGB tient compte du fait que les géantes rouges les plus brillantes des galaxies ont à peu près la même luminosité absolue.
«L’objectif est de rendre cette méthode SBF complètement indépendante de la méthode de supernova de type Ia calibrée par Cepheid en utilisant le télescope spatial James Webb pour obtenir un étalonnage de branche géante rouge pour les SBF», a-t-il déclaré.
“Le télescope James Webb a le potentiel de vraiment réduire les barres d’erreur pour SBF”, a ajouté Ma. Mais pour l’instant, les deux mesures discordantes de la constante de Hubble devront apprendre à vivre ensemble.
«Je n’avais pas l’intention de mesurer H0; c’était un excellent produit de notre enquête», a-t-elle déclaré. “Mais je suis cosmologiste et je regarde cela avec beaucoup d’intérêt.”
Les co-auteurs de l’article avec Blakeslee, Ma et Jensen sont Jenny Greene de l’Université de Princeton, qui est un chef de file de l’équipe MASSIVE, et Peter Milne de l’Université de l’Arizona à Tucson, qui dirige l’équipe qui étudie les supernovae de type Ia. Les travaux ont été soutenus par la National Aeronautics and Space Administration (HST-GO-14219, HST-GO-14654, HST GO-15265) et la National Science Foundation (AST-1815417, AST-1817100).