HBM2 メモリ A30 24GB Nvidia Ampere データ センター GPU 科学計算用

モデル番号:NVIDIA A30
原産地:中国
最小注文数量:1個
支払い条件:L/C、D/A、D/P、T/T
供給能力:20個
納期:15-30ワード日
企業との接触

Add to Cart

確認済みサプライヤー
Beijing Beijing China
住所: D1205のJinyu Jiahuaの建物、Shangdiの第3通り、海淀区、北京100085、P.R.China
サプライヤーの最後のログイン時間: 内 25 時間
製品詳細 会社概要
製品詳細

HBM2 メモリ A30 24GB Nvidia アンペア データ センター GPU 科学コンピューティング用

NVIDIA A30データセンターのGPU

NVIDIA アンペア A30データセンターのGPU

主流のエンタープライズ サーバー向けの多用途なコンピューティング アクセラレーション。

あらゆる企業向けの AI 推論とメインストリーム コンピューティング


NVIDIA A30 Tensor コア GPU により、あらゆるエンタープライズ ワークロードに高速なパフォーマンスをもたらします。NVIDIA Ampere アーキテクチャ Tensor コアとマルチインスタンス GPU (MIG) により、大規模な AI 推論やハイ パフォーマンス コンピューティング (HPC) アプリケーションなど、さまざまなワークロードにわたって安全に高速化を実現します。A30 は、メインストリーム サーバーに最適な PCIe フォーム ファクタで高速メモリ帯域幅と低消費電力を組み合わせることで、弾力性のあるデータ センターを実現し、企業に最大の価値を提供します。



NVIDIA A30 データセンター GPU の技術仕様


GPU アーキテクチャ

NVIDIA アンペア

FP64

5.2テラFLOPS

FP64 テンソルコア

10.3テラFLOPS

FP32

10.3テラFLOPS

TF32 テンソルコア

82テラFLOPS |165テラFLOPS*

BFLOAT16 テンソル コア

165 テラFLOPS |330テラFLOPS*

FP16 テンソルコア

165 テラFLOPS |330テラFLOPS*

INT8 テンソルコア

330 トップス |661 トップス*

INT4 テンソル コア

661 トップス |1321 トップス*

メディアエンジン

1 オプティカル フロー アクセラレータ (OFA)
1 JPEG デコーダ (NVJPEG)
4 つのビデオ デコーダー (NVDEC)

GPUメモリ

24GB HBM2

GPU メモリ帯域幅

933GB/秒

相互接続

PCIe Gen4: 64GB/秒

最大熱設計電力 (TDP)

165W

フォームファクタ

デュアルスロット、フルハイト、フルレングス (FHFL)

マルチインスタンス GPU (MIG)

4 つの GPU インスタンス @ それぞれ 6GB
2 つの GPU インスタンス @ それぞれ 12GB
1 GPU インスタンス @ 24GB

仮想 GPU (vGPU) ソフトウェアのサポート

VMware 向け NVIDIA AI エンタープライズ
NVIDIA 仮想コンピューティング サーバー



ハイパフォーマンスコンピューティング

データ サイエンティストは、膨大なデータセットを分析、視覚化し、洞察を得ることができる必要があります。しかし、スケールアウト ソリューションは、複数のサーバーに分散したデータセットによって行き詰まることがよくあります。


A30 を搭載した高速化されたサーバーは、大容量の HBM2 メモリ、933 GB/秒のメモリ帯域幅、NVLink による拡張性とともに、これらのワークロードに対処するために必要な計算能力を提供します。NVIDIA InfiniBand、NVIDIA Magnum IO、および Apache Spark 用 RAPIDS アクセラレータを含むオープンソース ライブラリの RAPIDS™ スイートと組み合わせることで、NVIDIA データセンター プラットフォームは、前例のないレベルのパフォーマンスと効率でこれらの巨大なワークロードを加速します。



China HBM2 メモリ A30 24GB Nvidia Ampere データ センター GPU 科学計算用 supplier

HBM2 メモリ A30 24GB Nvidia Ampere データ センター GPU 科学計算用

お問い合わせカート 0