Rendre les serveurs informatiques du monde entier plus respectueux du climat —

  • FrançaisFrançais



  • Un nouvel algorithme élégant développé par des chercheurs danois peut réduire considérablement la consommation de ressources des serveurs informatiques du monde. Les serveurs informatiques sont aussi éprouvants pour le climat que le trafic aérien mondial combiné, rendant ainsi la transition verte de l’informatique urgente. Les chercheurs de l’Université de Copenhague s’attendent à ce que les grandes entreprises informatiques déploient immédiatement l’algorithme.

    L’un des inconvénients de notre utilisation galopante d’Internet est son impact sur le climat en raison de la quantité massive d’électricité consommée par les serveurs informatiques. Les émissions actuelles de CO2 des centres de données sont aussi élevées que celles du trafic aérien mondial combiné – avec des émissions qui devraient doubler en quelques années seulement.

    Quelques années seulement se sont écoulées depuis que le professeur Mikkel Thorup faisait partie d’un groupe de chercheurs à l’origine d’un algorithme qui a résolu une partie de ce problème en produisant une recette révolutionnaire pour rationaliser les flux de travail des serveurs informatiques. Leur travail a permis d’économiser de l’énergie et des ressources. Les géants de la technologie, dont Vimeo et Google, ont mis en œuvre avec enthousiasme l’algorithme dans leurs systèmes, la plate-forme vidéo en ligne Vimeo signalant que l’algorithme avait réduit leur utilisation de la bande passante par un facteur de huit.

    Maintenant, Thorup et deux collègues chercheurs de l’UCPH ont perfectionné l’algorithme déjà intelligent, permettant de résoudre un problème fondamental dans les systèmes informatiques – le fait que certains serveurs deviennent surchargés alors que d’autres serveurs ont de la capacité – beaucoup plus rapidement qu’aujourd’hui.

    « Nous avons trouvé un algorithme qui supprime une fois pour toutes l’une des principales causes de surcharge des serveurs. Notre algorithme initial était une énorme amélioration par rapport à la façon dont l’industrie faisait les choses, mais cette version est bien meilleure et réduit l’utilisation des ressources au maximum. De plus, son utilisation est gratuite pour tous », explique le professeur Thorup du département d’informatique de l’Université de Copenhague, qui a développé l’algorithme aux côtés de ses collègues du département Anders Aamand et Jakob Bæk Tejs Knudsen.

    Le trafic internet en plein essor

    L’algorithme résout le problème de la surcharge des serveurs car ils reçoivent plus de demandes des clients qu’ils n’ont la capacité de gérer. Cela se produit lorsque les utilisateurs s’entassent pour regarder une certaine vidéo Vimeo ou un film Netflix. Par conséquent, les systèmes doivent souvent déplacer les clients plusieurs fois pour obtenir une répartition équilibrée entre les serveurs.

    Le calcul mathématique requis pour atteindre cet équilibre est extraordinairement difficile car jusqu’à un milliard de serveurs peuvent être impliqués dans le système. Et, il est toujours volatile à mesure que de nouveaux clients et serveurs se joignent et partent. Cela entraîne des encombrements et des pannes de serveurs, ainsi qu’une consommation de ressources qui influence l’impact global sur le climat.

    « Alors que le trafic Internet augmente de manière explosive, le problème continuera de croître. Par conséquent, nous avons besoin d’une solution évolutive qui ne dépende pas du nombre de serveurs impliqués. Notre algorithme fournit exactement une telle solution », explique Thorup.

    Selon la société informatique américaine Cisco, le trafic Internet devrait tripler entre 2017 et 2022. L’année prochaine, les vidéos en ligne représenteront 82 % de tout le trafic Internet.

    De 100 pas à 10

    Le nouvel algorithme garantit que les clients sont répartis aussi uniformément que possible entre les serveurs, en les déplaçant le moins possible et en récupérant le contenu le plus localement possible.

    Par exemple, pour s’assurer que la répartition des clients entre les serveurs s’équilibre de sorte qu’aucun serveur ne soit plus de 10 % plus chargé que les autres, l’ancien algorithme pouvait gérer une mise à jour en déplaçant un client cent fois. Le nouvel algorithme réduit ce nombre à 10 déplacements, même lorsqu’il y a des milliards de clients et de serveurs dans le système. Mathématiquement dit : si l’équilibre doit être maintenu dans un facteur 1+1/X, l’amélioration du nombre de passages de X2 à X est généralement impossible à améliorer.

    Comme de nombreuses grandes entreprises informatiques ont déjà mis en œuvre l’algorithme original du professeur Thorup, il pense que l’industrie adoptera immédiatement le nouveau – et qu’il est peut-être déjà utilisé.

    Plus d’informations

    * Des études ont démontré que les centres de données mondiaux consomment plus de 400 térawattheures d’électricité par an. Cela représente environ deux pour cent des émissions mondiales totales de gaz à effet de serre et équivaut actuellement à toutes les émissions du trafic aérien mondial. La consommation électrique des datacenters devrait doubler d’ici 2025.

    * Lisez Vimeo Engineering Blog sur l’implémentation de l’algorithme de Mikkel Thorup : https://medium.com/vimeo-engineering-blog/improving-load-balancing-with-a-new-consistent-hashing-algorithm-9f1bd75709ed

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.