
Add to Cart
プロフェッショナル コンピューティング Nvidia Ampere A30 GPU データセンター ソリューション
GPUデータセンターソリューション科学計算用
NVIDIA A30データセンターソリューション
最新の IT 向けのデータセンター ソリューション
NVIDIA Ampere アーキテクチャは、統合 NVIDIA EGX™ プラットフォームの一部であり、ハードウェア、ネットワーキング、ソフトウェア、ライブラリ、NVIDIA NGC™ カタログからの最適化された AI モデルとアプリケーションにわたる構成要素を組み込んでいます。データセンター向けの最も強力なエンドツーエンドの AI および HPC プラットフォームを表すこのプラットフォームにより、研究者は現実世界の結果を迅速に提供し、ソリューションを大規模な実稼働環境に導入することができます。
NVIDIA Tesla A30 は、革新的な機能を活用して推論ワークロードを最適化します。FP64 から TF32 および INT4 までの全範囲の精度を高速化します。A30 は GPU ごとに最大 4 つの MIG をサポートし、サービス品質 (QoS) が保証された安全なハードウェア パーティションで複数のネットワークを同時に動作させることができます。また、構造的スパーシティのサポートにより、A30 の他の推論パフォーマンスの向上に加えて、最大 2 倍のパフォーマンスが実現します。
NVIDIA の市場をリードする AI パフォーマンスは、MLPerf Inference で実証されました。AI を大規模に簡単に導入できる NVIDIA Triton™ Inference Server と組み合わせることで、NVIDIA Tesla A30 はこの画期的なパフォーマンスをあらゆる企業にもたらします。
NVIDIA A30データセンターソリューション
NVIDIA Ampere GPU アーキテクチャ
24GB HBM2 メモリ
最大。消費電力: 165W
相互接続バス:
PCIe Gen. 4: 64GB/秒
3番目のNVLink: 200GB/秒
サーマルソリューション: パッシブ
マルチインスタンス GPU (MIG):
4 つの GPU インスタンス @ それぞれ 6GB
2 つの GPU インスタンス @ それぞれ 12GB
1 GPU インスタンス @ 24GB
仮想 GPU (vGPU) ソフトウェアのサポート
NVIDIA A30 データセンター ソリューションの技術仕様
GPU アーキテクチャ | NVIDIA アンペア |
FP64 | 5.2テラFLOPS |
FP64 テンソルコア | 10.3テラFLOPS |
FP32 | 10.3テラFLOPS |
TF32 テンソルコア | 82テラFLOPS |165テラFLOPS* |
BFLOAT16 テンソル コア | 165 テラFLOPS |330テラFLOPS* |
FP16 テンソルコア | 165 テラFLOPS |330テラFLOPS* |
INT8 テンソルコア | 330 トップス |661 トップス* |
INT4 テンソル コア | 661 トップス |1321 トップス* |
メディアエンジン | 1 オプティカル フロー アクセラレータ (OFA) |
GPUメモリ | 24GB HBM2 |
GPU メモリ帯域幅 | 933GB/秒 |
相互接続 | PCIe Gen4: 64GB/秒 |
最大熱設計電力 (TDP) | 165W |
フォームファクタ | デュアルスロット、フルハイト、フルレングス (FHFL) |
マルチインスタンス GPU (MIG) | 4 つの GPU インスタンス @ それぞれ 6GB |
仮想 GPU (vGPU) ソフトウェアのサポート | VMware 向け NVIDIA AI エンタープライズ |