NVIDIAがホッパーGH100搭載DGXH100、DGXポッドH100、H100PCIeアクセラレーターを発表

NVIDIAがホッパーGH100搭載DGXH100、DGXポッドH100、H100PCIeアクセラレーターを発表

wccftech


GTC 2022では、NVIDIAは 発表 DGX H100、DGX SuperPod、いくつかのH100 PCIeアクセラレータなど、最新のHopperGH100GPUを搭載したさまざまな製品。

NVIDIAがホッパーGH100GPUラインナップを発表:DGX H100、DGX SuperPod H100、H100PCIeアクセラレーターを搭載

NVIDIA DGX H100と、PODやEOSなどのさまざまなイテレーションは、AI市場を対象としており、企業のオフィス、研究施設、ラボ、またはホームオフィスのあらゆる場所で機械学習とデータサイエンスのパフォーマンスを加速します。

NVIDIA Grace144コアARMCPUは、仕様整数ベンチマークでデュアル128コアAMD EPYC 7763 CPUよりも14%低速です

NVIDIADGXH100システム仕様

ホッパーGPUを使用して、NVIDIAは最新のDGXH100システムをリリースします。 このシステムには、SXM構成で合計8つのH100アクセラレータが装備されており、最大640GBのHBM3メモリと最大32PFLOPのピークコンピューティングパフォーマンスを提供します。 比較のために、既存のDGXA100システムには640GBのHBM2eメモリを備えた8つのA100GPUが搭載されており、最大5PFLOPのAIと10PFLOPのINT8計算能力しか生成しません。

NVIDIAがDGXH100システムを搭載したと発表した2つのスーパーコンピューティングプラットフォーム、DGXPODH100とEOSもあります。 DGX PODは、1 ExaflopsのAIパフォーマンス、20 TBのHBM3メモリ、192TFLOPのSHARPIn-Network Compute、および70 TB/sの双方向帯域幅を提供します。 DGX POD NVLINKスイッチの機能は、20.5TBの合計HBM3メモリと786TB/sの合計システムメモリ帯域幅をサポートします。

EOSは、18 EFLOP FP8、FP16の9 EFLOP、FP64の275 PFLOP、ネットワーク内コンピューティングの3.7 PFLOP、および230 TB/sの帯域幅を備えた18DGXH100PODSで物事を次のレベルに引き上げます。 AIシステムは、570億個のトランジスタとA100システム上の32倍のAIアクセラレータを備えた新しいQuantum-2Infinibandスイッチを使用して設計されています。

NVIDIADGXH100システム仕様

仕様に合わせて、NVIDIA DGX H100は、合計8つのH100 TensorCoreGPUを搭載しています。

NVIDIAがGraceHopperとGraceCPUスーパーチップを解き放つ:最大600 GBのメモリを搭載した144コアCPU、2倍のパフォーマンス/ワットと従来のサーバー

システム自体には、PCIeGen5を完全にサポートする第5世代IntelCPUが搭載されています。 ディスプレイ出力は、最大4Kの解像度をサポートする4つのDisplayPort出力を提供するディスクリートDGXディスプレイアダプタカードを介して提供されます。 AICは、独自のアクティブ冷却ソリューションを備えています。 このシステムは、4つのNVSwitch、2 TBのシステムメモリ、オペレーティングシステム用の2つの1.9 TB NVMe M.2ストレージ、および内部ストレージ用の8つの3.84 TB NVMeU.2SSDを備えています。

冷却ソリューションについて言えば、DGXH100はシャーシの背面にH100GPUを収容しています。 4つのGPUとCPUはすべて、静かでメンテナンスフリーの冷媒冷却システムによって補完されています。 クーラーのコンプレッサーは、DGXシャーシ内にあります。 消費電力は10.2kW(ピーク)と評価されています。

NVIDIAH100PCIe仕様

最後に、NVIDIAHopperGH100を搭載しています H100PCIeアクセラレータ。 H100 SXM5構成とは異なり、H100 PCIeはカットダウン仕様を提供し、GH100GPUの144個のSMとH100SXMの132個のSMのうち114個のSMが有効になっています。 このようなチップは、3200 FP8、1600 TF16、800 FP32、および48TFLOPのFP64計算馬力を提供します。 また、456のテンソルとテクスチャユニットを備えています。 ピーク計算馬力が低いため、H100 PCIeはより低いクロックで動作する必要があり、SXM5バリアントのダブル700WTDPに対して350WのTDPを備えています。 ただし、PCIeカードは、5120ビットバスインターフェイスで機能する80 GBのメモリを保持しますが、HBM2eのバリエーション(> 2 TB / sの帯域幅)で使用できます。

プレスリリース: NVIDIAは本日、第4世代のNVIDIA DGXシステムを発表しました。これは、新しいAIプラットフォームで構築された世界初のAIプラットフォームです。 NVIDIA H100 テンソルコアGPU。

DGX H100 システムは、大規模な言語モデル、レコメンダーシステム、ヘルスケア研究、および気候科学の大規模なコンピューティング要件を満たすために必要な規模を提供します。 システムごとに8つのNVIDIAH100GPUを搭載し、NVIDIA NVLinkによって1つに接続されているため、各DGX H100は、前世代の6倍の新しいFP8精度で32ペタフロップスのAIパフォーマンスを提供します。

DGX H100システムは、次世代のビルディングブロックです NVIDIA DGX PODNVIDIA DGX SuperPOD AIインフラストラクチャプラットフォーム。 最新のDGXSuperPODアーキテクチャは、新しい機能を備えています NVIDIANVLinkスイッチシステム 合計256個のH100GPUで最大32個のノードを接続できます。

NVIDIA Eosの発表—世界最速のAIスーパーコンピューター
NVIDIAは、気候科学、デジタル生物学、およびAIの未来を前進させるNVIDIA研究者の作業を強化するために、画期的な新しいAIアーキテクチャを備えたDGXSuperPODを最初に構築します。

その「Eos」スーパーコンピューターは、今年後半に運用を開始した後、世界最速のAIシステムになると予想されており、4,608個のDGXH100GPUを備えた合計576個のDGXH100システムを備えています。

NVIDIA Eosは、18.4エクサフロップのAIコンピューティングパフォーマンスを提供することが期待されています。これは、現在世界最速のシステムである日本の富岳スーパーコンピューターよりも4倍高速なAI処理です。 従来の科学計算では、Eosは275ペタフロップスのパフォーマンスを提供することが期待されています。

Eosは、NVIDIAの高度なAIインフラストラクチャ、およびそのOEMとクラウドパートナーの青写真として機能します。

エンタープライズAIは、DGX H100システム、DGX POD、およびDGXSuperPODで簡単に拡張できます
DGX H100システムは、企業が初期プロジェクトから広範な展開に成長するにつれて、AIの需要に合わせて簡単に拡張できます。

集約された6400億個のトランジスタを備えた8つのH100GPUに加えて、各DGXH100システムには2つのH100GPUが含まれています NVIDIA BlueField-3 DPU 高度なネットワーキング、ストレージ、およびセキュリティサービスの負荷を軽減し、加速し、分離します。

8 NVIDIA ConnectX-7 Quantum-2InfiniBandネットワーキング アダプターは、コンピューティングおよびストレージに接続するために毎秒400ギガビットのスループットを提供します。これは、前世代のシステムの2倍の速度です。 また、第4世代のNVLinkをNVSwitchと組み合わせると、各DGX H100システムのすべてのGPU間に900ギガバイト/秒の接続が提供され、前世代の1.5倍になります。

DGXH100システムはデュアルx86CPUを使用し、NVIDIAネットワークおよびNVIDIAパートナーのストレージと組み合わせて、あらゆるサイズのAIコンピューティング用の柔軟なDGXPODを作成できます。

DGX SuperPODは、DGXH100システムを備えたスケーラブルなエンタープライズAIセンターオブエクセレンスを提供します。 DGXSuperPODのDGXH100ノードとH100GPUは、NVLinkスイッチシステムとNVIDIA Quantum-2 InfiniBandによって接続され、前世代の11倍の合計70テラバイト/秒の帯域幅を提供します。 NVIDIAパートナーのストレージは、DGXSuperPODAIコンピューティングの要求を満たすためにテストおよび認定されます。

複数のDGXSuperPODユニットを組み合わせて、自動車、ヘルスケア、製造、通信、小売などの業界で大規模なモデルを開発するために必要なAIパフォーマンスを提供できます。

可用性
NVIDIA DGX H100システム、DGX POD、およびDGX SuperPODは、第3四半期からNVIDIAのグローバルパートナーから入手できるようになります。



Sharing is caring!

Leave a Reply