Explorer l’univers sombre –

  • FrançaisFrançais



  • Une équipe de physiciens et d’informaticiens du Laboratoire national d’Argonne du Département américain de l’énergie (DOE) a réalisé l’une des cinq plus grandes simulations cosmologiques jamais réalisées. Les données de la simulation informeront les cartes du ciel pour aider à mener des expériences cosmologiques à grande échelle.

    La simulation, appelée le dernier voyage, suit la distribution de la masse à travers l’univers au fil du temps – en d’autres termes, comment la gravité amène une mystérieuse substance invisible appelée «matière noire» à s’agglutiner pour former des structures à plus grande échelle appelées halos, dans lesquelles les galaxies se forment et évoluent.

    Les scientifiques ont effectué la simulation sur le supercalculateur d’Argonne Mira. La même équipe de scientifiques a réalisé une précédente simulation cosmologique appelée Outer Rim en 2013, quelques jours seulement après la mise sous tension de Mira. Après avoir exécuté des simulations sur la machine tout au long de sa durée de vie de sept ans, l’équipe a marqué la retraite de Mira avec la simulation Last Journey.

    Le dernier voyage montre à quel point la technologie d’observation et de calcul a progressé en seulement sept ans, et il apportera des données et des informations à des expériences telles que l’expérience de fond de micro-ondes cosmique au sol Stage-4 (CMB-S4), le Legacy Survey of Space et le temps (réalisé par l’observatoire Rubin au Chili), l’instrument spectroscopique à énergie noire et deux missions de la NASA, le télescope spatial romain et SPHEREx.

    «Nous avons travaillé avec un volume énorme de l’univers et nous nous sommes intéressés aux structures à grande échelle, comme des régions de milliers ou de millions de galaxies, mais nous avons également envisagé la dynamique à des échelles plus petites», a déclaré Katrin Heitmann, directrice adjointe de la division d’Argonne’s High Division de la physique de l’énergie (HEP).

    Le code qui a construit le cosmos

    L’intervalle de six mois pour la simulation du dernier voyage et les principales tâches d’analyse a présenté des défis uniques pour le développement logiciel et le flux de travail. L’équipe a adapté une partie du code utilisé pour la simulation de la jante extérieure 2013 avec quelques mises à jour importantes pour utiliser efficacement Mira, un système IBM Blue Gene / Q qui était hébergé à l’Argonne Leadership Computing Facility (ALCF), un bureau du DOE de Installation utilisateur scientifique.

    Plus précisément, les scientifiques ont utilisé le Hardware / Hybrid Accelerated Cosmology Code (HACC) et son cadre d’analyse, CosmoTools, pour permettre l’extraction incrémentale d’informations pertinentes en même temps que la simulation était en cours.

    “Faire fonctionner la machine complète est un défi car la lecture de la quantité massive de données produites par la simulation est coûteuse en calcul, vous devez donc faire beaucoup d’analyses à la volée”, a déclaré Heitmann. “C’est intimidant, car si vous faites une erreur avec les paramètres d’analyse, vous n’avez pas le temps de la refaire.”

    L’équipe a adopté une approche intégrée pour exécuter le flux de travail pendant la simulation. HACC ferait avancer la simulation dans le temps, déterminant l’effet de la gravité sur la matière pendant de grandes parties de l’histoire de l’univers. Une fois que HACC a déterminé les positions de milliards de particules de calcul représentant la distribution globale de la matière, CosmoTools intervient pour enregistrer les informations pertinentes – telles que la recherche des milliards de halos qui hébergent les galaxies – à utiliser pour l’analyse pendant le post-traitement.

    «Lorsque nous savons où se trouvent les particules à un moment donné, nous caractérisons les structures qui se sont formées à l’aide de CosmoTools et stockons un sous-ensemble de données pour les utiliser ultérieurement», a déclaré Adrian Pope, physicien et responsable de HACC et de CosmoTools. développeur au sein de la division Computational Science (CPS) d’Argonne. “Si nous trouvons un amas dense de particules, cela indique l’emplacement d’un halo de matière noire, et des galaxies peuvent se former à l’intérieur de ces halos de matière noire.”

    Les scientifiques ont répété ce processus entrelacé – où le HACC déplace les particules et CosmoTools analyse et enregistre des données spécifiques – jusqu’à la fin de la simulation. L’équipe a ensuite utilisé les fonctionnalités de CosmoTools pour déterminer les amas de particules susceptibles d’héberger des galaxies. Pour référence, environ 100 à 1000 particules représentent des galaxies uniques dans la simulation.

    «Nous déplacions des particules, effectuions des analyses, déplaçions des particules, effectuions des analyses», a déclaré Pope. «À la fin, nous reviendrions sur les sous-ensembles de données que nous avions soigneusement choisis pour stocker et exécuter des analyses supplémentaires pour mieux comprendre la dynamique de la formation de la structure, comme les halos qui fusionnaient et ceux qui finissaient par se mettre en orbite. “

    En utilisant le flux de travail optimisé avec HACC et CosmoTools, l’équipe a exécuté la simulation en deux fois moins longtemps.

    Contribution communautaire

    La simulation du dernier voyage fournira les données nécessaires pour d’autres expériences cosmologiques majeures à utiliser pour comparer des observations ou tirer des conclusions sur une foule de sujets. Ces informations pourraient éclairer des sujets allant des mystères cosmologiques, tels que le rôle de la matière noire et de l’énergie noire dans l’évolution de l’univers, à l’astrophysique de la formation des galaxies à travers l’univers.

    «Cet énorme ensemble de données qu’ils construisent alimentera de nombreux efforts différents», a déclaré Katherine Riley, directrice des sciences à l’ALCF. “En fin de compte, c’est notre mission principale – aider à faire avancer la science à fort impact. Lorsque vous êtes capable non seulement de faire quelque chose de cool, mais aussi de nourrir une communauté entière, c’est une énorme contribution qui aura un impact pour beaucoup années.”

    La simulation de l’équipe abordera de nombreuses questions fondamentales en cosmologie et est essentielle pour permettre le raffinement des modèles existants et le développement de nouveaux, ayant un impact à la fois sur les enquêtes cosmologiques en cours et à venir.

    “Nous n’essayons pas de faire correspondre des structures spécifiques dans l’univers réel”, a déclaré Pope. «Au contraire, nous créons des structures statistiquement équivalentes, ce qui signifie que si nous examinions nos données, nous pourrions trouver des emplacements où des galaxies de la taille de la Voie lactée vivraient. Mais nous pouvons également utiliser un univers simulé comme outil de comparaison pour trouver des tensions entre notre compréhension théorique actuelle de la cosmologie et ce que nous avons observé. “

    Vous cherchez à exascale

    «En repensant à l’époque où nous avons exécuté la simulation Outer Rim, vous pouvez vraiment voir jusqu’où ces applications scientifiques ont évolué», a déclaré Heitmann, qui a joué Outer Rim en 2013 avec l’équipe HACC et Salman Habib, directeur de la division CPS et Argonne Distinguished Fellow. “C’était génial de gérer quelque chose de beaucoup plus grand et plus complexe qui apportera tant à la communauté.”

    Alors qu’Argonne travaille à l’arrivée d’Aurora, le prochain supercalculateur exascale de l’ALCF, les scientifiques se préparent à des simulations cosmologiques encore plus poussées. Les systèmes informatiques Exascale seront capables d’effectuer un milliard de milliards de calculs par seconde – 50 fois plus vite que la plupart des supercalculateurs les plus puissants actuellement en service.

    “Nous avons beaucoup appris et adapté au cours de la vie de Mira, et c’est une opportunité intéressante de regarder en arrière et de regarder en avant en même temps”, a déclaré Pope. «Lors de la préparation des simulations sur des machines exascale et d’une nouvelle décennie de progrès, nous peaufinons notre code et nos outils d’analyse, et nous nous demandons ce que nous ne faisions pas à cause des limitations que nous avions jusqu’à présent.

    Le dernier voyage était une simulation gravitationnelle, ce qui signifie qu’il ne prenait pas en compte les interactions telles que la dynamique des gaz et la physique de la formation des étoiles. La gravité est le principal acteur de la cosmologie à grande échelle, mais les scientifiques espèrent intégrer d’autres physiques dans les simulations futures pour observer les différences qu’elles font dans la façon dont la matière se déplace et se distribue à travers l’univers au fil du temps.

    «De plus en plus, nous trouvons des relations étroitement liées dans le monde physique, et pour simuler ces interactions, les scientifiques doivent développer des flux de travail créatifs pour le traitement et l’analyse», a déclaré Riley. “Avec ces itérations, vous êtes en mesure d’arriver à vos réponses – et vos percées – encore plus rapidement.”

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.