Supermicro lance de nouveaux serveurs conçus pour les applications d’IA exigeantes

  • FrançaisFrançais



  • Le fournisseur mondial de solutions informatiques, de stockage, de mise en réseau et de systèmes de serveurs, Supermicro, a lancé de nouveaux serveurs basés sur les GPU de l’architecture NVIDIA Ampere et 3rd Processeurs Gen Intel Xeon Scalable avec accélérateurs d’IA intégrés (série Supermicro X12). Ces serveurs sont conçus pour des applications d’IA hautes performances qui nécessitent une latence minimale et d’excellentes performances applicatives.

    Avec une interconnexion CPU-GPU et GPU-GPU haute vitesse, le système 2U NVIDIA HGX A100 4-GPU est idéal pour mettre en œuvre des clusters de formation d’IA contemporains à grande échelle. En mutualisant l’alimentation électrique et les ventilateurs de refroidissement, le Supermicro 2U 2 nœuds système permettrait d’économiser de l’énergie et de l’argent tout en réduisant les émissions de carbone.

    Il prend également en charge une variété de discrets Accélérateurs GPU qui peut être adapté à la charge de travail. Les dernières extensions Intel Software Guard offrent des mesures de sécurité matérielle améliorées sur chacune de ces plates-formes (Intel SGX).

    « Les ingénieurs de Supermicro ont créé un autre portefeuille complet de systèmes de serveurs GPU hautes performances qui réduisent les coûts, l’espace et la consommation d’énergie par rapport aux autres conceptions du marché », a déclaré Charles Liang, président et chef de la direction de Supermicro. « Grâce à notre conception innovante, nous pouvons offrir à nos clients des accélérateurs 4 GPU NVIDIA HGX A100 (nom de code Redstone) pour les charges de travail AI et HPC dans des facteurs de forme 2U denses. De plus, notre système 2U à 2 nœuds est spécialement conçu pour partager les composants d’alimentation et de refroidissement qui réduisent les OPEX et l’impact sur l’environnement.

    Architecture de serveur économe en énergie

    Le serveur 2U NVIDIA HGX A100 est conçu pour les applications d’analyse, de formation et d’inférence et est construit sur des processeurs Intel Xeon Scalable de 3e génération avec la technologie Intel Deep Learning Boost. Avec quatre GPU A100 entièrement en réseau avec NVIDIA NVLink et jusqu’à 320 Go de RAM GPU pour accélérer les percées dans la science des données d’entreprise et l’IA, le système peut fournir jusqu’à 2,5 pétaflops de performances d’IA. Pour les modèles d’IA conversationnels sophistiqués tels que l’inférence BERT large, le système de serveur serait jusqu’à 4 fois plus rapide que les GPU de génération précédente, tandis que la formation BERT large IA obtient une augmentation des performances 3 fois, selon Supermicro.

    « Les ingénieurs de Supermicro ont créé un autre portefeuille complet de systèmes de serveurs GPU hautes performances qui réduisent les coûts, l’espace et la consommation d’énergie par rapport aux autres conceptions du marché », a déclaré Charles Liang, président et chef de la direction de Supermicro.

    De plus, les conceptions thermiques et de refroidissement améliorées rendraient ces systèmes de serveurs excellents pour les clusters hautes performances en mettant l’accent sur la densité des nœuds et l’efficacité énergétique. Ces serveurs peuvent également utiliser un refroidissement liquide, ce qui peut économiser beaucoup plus d’argent sur les OPEX. Cette plate-forme prend également en charge Mémoire persistante Intel Optane (PMem), qui permet de stocker en mémoire des modèles beaucoup plus gros à proximité du CPU avant d’être traités par les GPU. Le système peut en outre être équipé de quatre cartes NVIDIA ConnectX-6 200 Gb/s InfiniBand pour fournir GPUDirect RDMA avec un rapport GPU/DPU de 1:1 pour les applications nécessitant une interaction multi-systèmes.

    Le nouveau 2U 2-Node est une architecture économe en ressources et économe en énergie qui peut gérer jusqu’à trois GPU double largeur par nœud. Un seul processeur évolutif Intel Xeon de 3e génération avec jusqu’à 40 cœurs et une accélération AI et HPC intégrée est également inclus dans chaque nœud. Cet équilibre de processeurs et de processeurs graphiques assistera un large éventail d’applications d’IA, de rendu et de VDI.

    Les système de serveur peut traiter d’énormes flux de données pour les applications AI/ML exigeantes, la formation en apprentissage en profondeur et l’inférence tout en protégeant la charge de travail et les modèles d’apprentissage grâce à SupermicroLes logements d’extension du module d’E/S avancé (AIOM) pour des capacités de mise en réseau rapides et flexibles. Ce serait aussi parfait pour Cloud gaming haut de gamme multi-instances et une variété d’autres applications VDI à forte intensité de calcul. Les réseaux de diffusion de contenu virtuel (vCDN) seront également en mesure de répondre à la demande croissante de services de streaming. La redondance de l’alimentation est intégrée, avec n’importe quel nœud capable d’utiliser l’alimentation du nœud suivant en cas de panne.

    Inxy Hosting CDN Marketplace

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Houssen Moshinaly

    Rédacteur web depuis 2009 et webmestre depuis 2011.

    Je m'intéresse à tous les sujets comme la politique, la culture, la géopolitique, l'économie ou la technologie. Toute information permettant d'éclairer mon esprit et donc, le vôtre, dans un monde obscur et à la dérive.

    Je suis l'auteur de plusieurs livre

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.