製品詳細

NVIDIA DGXプラットフォーム

AIワークロードに最適化された世界最高性能のコンピューティングプラットフォーム。 研究開発から本格運用まで、あらゆるAIプロジェクトを加速します。

対応可能なAIワークロード

🖥️

大規模言語モデル(LLM)開発

GPT、BERT、T5などの大規模言語モデルの学習・ファインチューニング

学習時間を90%短縮
より大きなモデルサイズに対応
マルチモーダル学習
👁️

コンピュータビジョン

画像認識、物体検出、セグメンテーションなどの視覚AI開発

リアルタイム推論
高精度な画像解析
動画処理の高速化
🎯

推薦システム

大規模なユーザーデータを活用したパーソナライゼーション

リアルタイム推薦
大規模データ処理
A/Bテスト高速化
🔬

科学計算・シミュレーション

気象予測、創薬、材料科学などの高性能計算

計算時間大幅短縮
複雑なシミュレーション
並列処理最適化

製品性能比較

NVIDIA DGX シリーズ 詳細比較

用途に応じて最適なモデルをお選びください

仕様DGX H100DGX H200推奨DGX B200
GPU8x NVIDIA H1008x NVIDIA H2008x NVIDIA B200
GPU メモリ640GB HBM31.12TB HBM3e1.44TB HBM3e
AI性能32 PFLOPS32 PFLOPS72 PFLOPS
システムメモリ2TB DDR52TB DDR54TB DDR5
ストレージ30TB NVMe SSD30TB NVMe SSD60TB NVMe SSD
ネットワーク8x 400Gb/s InfiniBand8x 400Gb/s InfiniBand8x 800Gb/s InfiniBand
消費電力10.2kW10.2kW14.5kW
価格帯お問い合わせくださいお問い合わせくださいお問い合わせください

詳細仕様

NVIDIA DGX H100

汎用AIワークロードに最適化されたエントリーモデル

GPU仕様

  • • 8x NVIDIA H100 Tensor Core GPU
  • • 640GB HBM3 GPU メモリ
  • • 3.35TB/s メモリ帯域幅
  • • NVLink 4.0 GPU間接続

システム仕様

  • • 2x Intel Xeon Platinum 8480C+
  • • 2TB DDR5-4800 システムメモリ
  • • 30TB NVMe SSD ストレージ
  • • 8x 400Gb/s InfiniBand NDR

推奨用途

中規模言語モデル、コンピュータビジョン、推薦システム、研究開発用途

推奨

NVIDIA DGX H200

大規模言語モデル開発に最適化されたハイエンドモデル

GPU仕様

  • • 8x NVIDIA H200 Tensor Core GPU
  • • 1.12TB HBM3e GPU メモリ
  • • 4.8TB/s メモリ帯域幅
  • • NVLink 4.0 GPU間接続

システム仕様

  • • 2x Intel Xeon Platinum 8480C+
  • • 2TB DDR5-4800 システムメモリ
  • • 30TB NVMe SSD ストレージ
  • • 8x 400Gb/s InfiniBand NDR

推奨用途

大規模言語モデル(100B+パラメータ)、マルチモーダルAI、本格運用環境

NVIDIA DGX B200

次世代Blackwellアーキテクチャ搭載の最新モデル

GPU仕様

  • • 8x NVIDIA B200 Tensor Core GPU
  • • 1.44TB HBM3e GPU メモリ
  • • 8TB/s メモリ帯域幅
  • • NVLink 5.0 GPU間接続

システム仕様

  • • 2x Intel Xeon Platinum 8592+
  • • 4TB DDR5-5600 システムメモリ
  • • 60TB NVMe SSD ストレージ
  • • 8x 800Gb/s InfiniBand NDR

推奨用途

超大規模言語モデル(1T+パラメータ)、AGI研究、次世代AIアプリケーション

最適なソリューションをご提案

お客様の要件に応じて最適なDGXモデルをご提案いたします

Built with v0