北京Plink AIの技術Co.、株式会社

Beijing Plink AI is an expert of cloud-to-end one-stop solution.

Manufacturer from China
正会員
3 年
ホーム / 製品 / Nvidia GPU Server /

HBM2 メモリ A30 24GB Nvidia Ampere データ センター GPU 科学計算用

企業との接触
北京Plink AIの技術Co.、株式会社
シティ:beijing
省/州:beijing
国/地域:china
連絡窓口:MsCindy
企業との接触

HBM2 メモリ A30 24GB Nvidia Ampere データ センター GPU 科学計算用

最新の価格を尋ねる
モデル番号 :NVIDIA A30
原産地 :中国
最小注文数量 :1個
支払い条件 :L/C、D/A、D/P、T/T
供給能力 :20個
納期 :15-30ワード日
パッケージの詳細 :高さ 4.4 インチ x 長さ 7.9 インチのシングル スロット
名前 :科学的な計算のためのHBM2記憶A30 24GB Nvidiaアンペア データ センタGPU
キーワード :科学的な計算のためのHBM2記憶A30 24GB Nvidiaアンペア データ センタGPU
モデル :NVIDIA A30
FP64 :5.2 teraFLOPS
FP64テンソル中心 :10.3のteraFLOPS
FP32 :0.3のteraFLOPS
TF32テンソル中心 :82 teraFLOPS|165 teraFLOPS*
BFLOAT16テンソル中心 :165 teraFLOPS|330 teraFLOPS*
FP16テンソル中心 :165 teraFLOPS|330 teraFLOPS*
INT8テンソル中心 :330の上|661 TOPS*
INT4テンソル中心 :661の上|1321 TOPS*
GPUの記憶 :24GB HBM2
GPUの記憶帯域幅 :933GB/s
more
企業との接触

Add to Cart

類似の動画を探す
製品の説明を表示

HBM2 メモリ A30 24GB Nvidia アンペア データ センター GPU 科学コンピューティング用

NVIDIA A30データセンターのGPU

NVIDIA アンペア A30データセンターのGPU

主流のエンタープライズ サーバー向けの多用途なコンピューティング アクセラレーション。

あらゆる企業向けの AI 推論とメインストリーム コンピューティング

NVIDIA A30 Tensor コア GPU により、あらゆるエンタープライズ ワークロードに高速なパフォーマンスをもたらします。NVIDIA Ampere アーキテクチャ Tensor コアとマルチインスタンス GPU (MIG) により、大規模な AI 推論やハイ パフォーマンス コンピューティング (HPC) アプリケーションなど、さまざまなワークロードにわたって安全に高速化を実現します。A30 は、メインストリーム サーバーに最適な PCIe フォーム ファクタで高速メモリ帯域幅と低消費電力を組み合わせることで、弾力性のあるデータ センターを実現し、企業に最大の価値を提供します。

HBM2 メモリ A30 24GB Nvidia Ampere データ センター GPU 科学計算用

NVIDIA A30 データセンター GPU の技術仕様

GPU アーキテクチャ

NVIDIA アンペア

FP64

5.2テラFLOPS

FP64 テンソルコア

10.3テラFLOPS

FP32

10.3テラFLOPS

TF32 テンソルコア

82テラFLOPS |165テラFLOPS*

BFLOAT16 テンソル コア

165 テラFLOPS |330テラFLOPS*

FP16 テンソルコア

165 テラFLOPS |330テラFLOPS*

INT8 テンソルコア

330 トップス |661 トップス*

INT4 テンソル コア

661 トップス |1321 トップス*

メディアエンジン

1 オプティカル フロー アクセラレータ (OFA)
1 JPEG デコーダ (NVJPEG)
4 つのビデオ デコーダー (NVDEC)

GPUメモリ

24GB HBM2

GPU メモリ帯域幅

933GB/秒

相互接続

PCIe Gen4: 64GB/秒

最大熱設計電力 (TDP)

165W

フォームファクタ

デュアルスロット、フルハイト、フルレングス (FHFL)

マルチインスタンス GPU (MIG)

4 つの GPU インスタンス @ それぞれ 6GB
2 つの GPU インスタンス @ それぞれ 12GB
1 GPU インスタンス @ 24GB

仮想 GPU (vGPU) ソフトウェアのサポート

VMware 向け NVIDIA AI エンタープライズ
NVIDIA 仮想コンピューティング サーバー

ハイパフォーマンスコンピューティング

データ サイエンティストは、膨大なデータセットを分析、視覚化し、洞察を得ることができる必要があります。しかし、スケールアウト ソリューションは、複数のサーバーに分散したデータセットによって行き詰まることがよくあります。

A30 を搭載した高速化されたサーバーは、大容量の HBM2 メモリ、933 GB/秒のメモリ帯域幅、NVLink による拡張性とともに、これらのワークロードに対処するために必要な計算能力を提供します。NVIDIA InfiniBand、NVIDIA Magnum IO、および Apache Spark 用 RAPIDS アクセラレータを含むオープンソース ライブラリの RAPIDS™ スイートと組み合わせることで、NVIDIA データセンター プラットフォームは、前例のないレベルのパフォーマンスと効率でこれらの巨大なワークロードを加速します。

HBM2 メモリ A30 24GB Nvidia Ampere データ センター GPU 科学計算用

お問い合わせカート 0