
Add to Cart
HBM2 メモリ A30 24GB Nvidia アンペア データ センター GPU 科学コンピューティング用
NVIDIA アンペア A30データセンターのGPU
あらゆる企業向けの AI 推論とメインストリーム コンピューティング
NVIDIA A30 Tensor コア GPU により、あらゆるエンタープライズ ワークロードに高速なパフォーマンスをもたらします。NVIDIA Ampere アーキテクチャ Tensor コアとマルチインスタンス GPU (MIG) により、大規模な AI 推論やハイ パフォーマンス コンピューティング (HPC) アプリケーションなど、さまざまなワークロードにわたって安全に高速化を実現します。A30 は、メインストリーム サーバーに最適な PCIe フォーム ファクタで高速メモリ帯域幅と低消費電力を組み合わせることで、弾力性のあるデータ センターを実現し、企業に最大の価値を提供します。
NVIDIA A30 データセンター GPU の技術仕様
GPU アーキテクチャ |
NVIDIA アンペア |
FP64 |
5.2テラFLOPS |
FP64 テンソルコア |
10.3テラFLOPS |
FP32 |
10.3テラFLOPS |
TF32 テンソルコア |
82テラFLOPS |165テラFLOPS* |
BFLOAT16 テンソル コア |
165 テラFLOPS |330テラFLOPS* |
FP16 テンソルコア |
165 テラFLOPS |330テラFLOPS* |
INT8 テンソルコア |
330 トップス |661 トップス* |
INT4 テンソル コア |
661 トップス |1321 トップス* |
メディアエンジン |
1 オプティカル フロー アクセラレータ (OFA) |
GPUメモリ |
24GB HBM2 |
GPU メモリ帯域幅 |
933GB/秒 |
相互接続 |
PCIe Gen4: 64GB/秒 |
最大熱設計電力 (TDP) |
165W |
フォームファクタ |
デュアルスロット、フルハイト、フルレングス (FHFL) |
マルチインスタンス GPU (MIG) |
4 つの GPU インスタンス @ それぞれ 6GB |
仮想 GPU (vGPU) ソフトウェアのサポート |
VMware 向け NVIDIA AI エンタープライズ |
データ サイエンティストは、膨大なデータセットを分析、視覚化し、洞察を得ることができる必要があります。しかし、スケールアウト ソリューションは、複数のサーバーに分散したデータセットによって行き詰まることがよくあります。
A30 を搭載した高速化されたサーバーは、大容量の HBM2 メモリ、933 GB/秒のメモリ帯域幅、NVLink による拡張性とともに、これらのワークロードに対処するために必要な計算能力を提供します。NVIDIA InfiniBand、NVIDIA Magnum IO、および Apache Spark 用 RAPIDS アクセラレータを含むオープンソース ライブラリの RAPIDS™ スイートと組み合わせることで、NVIDIA データセンター プラットフォームは、前例のないレベルのパフォーマンスと効率でこれらの巨大なワークロードを加速します。