商品説明
アクセラレーテッド コンピューティングの大きな飛躍
NVIDIA H100 Tensor コア GPU で、あらゆるワークロードのためのかつてない性能、拡張性、セキュリティを手に入れましょう。
NVIDIA NVLink Switch System により、最大 256 個のH100を接続し、エクサスケールのワークロードを高速化できます。
さらに、専用の Transformer Engine を利用することで、パラメーターが兆単位の言語モデルを実装できます。H100の複合的な技術革新により、
大規模な言語モデルが前世代と比較して30倍も高速化され、業界の一歩先を行く対話型AIが可能となります。
大規模言語モデル推論を加速
最大1750億 パラメーターの大規模言語モデル (LLM) の場合、PCIe ベースの H100 NVL with NVLink ブリッジは、Transformer Engine、NVLink、
および 188GB HBM3 メモリを利用して、あらゆるデータ センターで最適な性能と容易な拡張性を提供し、LLM を主流にしています。
H100 NVL GPU を搭載したサーバーは、電力制約のあるデータ センター環境において低遅延を維持しながら、GPT-175B モデルの性能を NVIDIA DGX A100 システムの最大 12 倍まで向上します。
NVIDIA AI Enterprise
標準サーバー向けの H100 には、NVIDIA AI Enterprise ソフトウェア スイートのサブスクリプション5年分 (エンタープライズ サポートなど) が付属しており、その非常に優れた性能によって AI を簡単に導入できます。
それにより、企業や組織は、AI チャットボット、レコメンデーション エンジン、ビジョン AI など、H100 で高速化する AI ワークフローを構築するために必要な AI フレームワークおよびツールが活用できるようになります。
スペック
* アーキテクチャ:Hopper
* GPUメモリー:80GB HBM2e
* メモリー帯域:2TB/s
* エラー修正コード(ECC):Yes
* FP64:26TFLOPS
* FP64 Tensor Core:51TFLOPS
* FP32:51TFLOPS
* TF32 Tensor Core:756TFOLPS
* BFLOAT16 Tensor core:1513 TFLOPS
* FP16 Tensor Core:1513 TFLOPS
* FP8 Tensor Core:3026 TFLOPS
* INT8 Tensor Core:3026 TFLOPS
* デコーダー…
・7 x NVDEC
・7 x JPEG
* インターコネクト…
・PCIe5.0 128GB/s
・NVLink: 600GB/s
* 消費電力(TDP):300-350W
* 冷却機構:パッシブ
* フォームファクタ…
・267.7 x 111
・ Dual Slot
* マルチインスタンスGPU(MIG):10GBのMIGが最大7つ
【中古】Intel CPU Xeon E5-2687W 3.10GHz 20MBキャッシュ LGA2011-0 BX80621E52687W
CONTEC CPSA-SEC100 静電気チェックシステム
【中古】【未使用・未開封品】Intel ボックス入り XEON Gold 6240 PROC 24.75M 2.6GHZ FC-LGA14B MM 999FP1
【中古】(非常に良い)ASUS NVIDIA GeForce GTX1080搭載ビデオカード メモリ8GB TURBO-GTX1080-8G
【中古】TieanカラフルiGame gtx1080ti Vulcan X OCビデオグラフィックスカードGPU 1620???1733?MHz 11?g 352bit SLI VR Ready LCDモニタ ブラック
アスク NVIDIA RTX 6000 Ada Retail 900-5G133-2550-000
FUJITSU RX1330 M5 セレ(XeE-2324G/8G/240G*2/W19std) PYR1335Z0V