北京Plink AIの技術Co.、株式会社

Beijing Plink AI is an expert of cloud-to-end one-stop solution.

Manufacturer from China
正会員
3 年
ホーム / 製品 / Nvidia GPU Server /

NVIDIA サイエンティフィック GPU テスラ A100 40GB ワークステーション グラフィック カード

企業との接触
北京Plink AIの技術Co.、株式会社
シティ:beijing
省/州:beijing
国/地域:china
連絡窓口:MsCindy
企業との接触

NVIDIA サイエンティフィック GPU テスラ A100 40GB ワークステーション グラフィック カード

最新の価格を尋ねる
モデル番号 :NVIDIA A100
原産地 :中国
最小注文数量 :1個
支払い条件 :L/C、D/A、D/P、T/T
供給能力 :20個
納期 :15-30ワード日
パッケージの詳細 :高さ 4.4 インチ x 長さ 7.9 インチのシングル スロット
名前 :NVIDIA サイエンティフィック GPU テスラ A100 40GB ワークステーション グラフィック カード
キーワード :NVIDIA サイエンティフィック GPU テスラ A100 40GB ワークステーション グラフィック カード
モデル :NVIDIA A100
GPU アーキテクチャ :NVIDIAアンペア
ピーク BFLOAT16 Tensor コア :312 TF | 624TF*
Peak FP16 Tensor コア :312 TF | 624TF*
Peak INT8 Tensor コア :624 トップス | 1,248トップス*
ピーク INT4 Tensor コア :1,248 トップス | 2,496トップス*
GPU メモリ :40 GB
GPU メモリ帯域幅 :1,555GB/秒
フォームファクタ :PCIe
more
企業との接触

Add to Cart

類似の動画を探す
製品の説明を表示

NVIDIA サイエンティフィック GPU テスラ A100 40GB ワークステーション グラフィック カード

科学計算用の NVIDIA GPU

GPU テスラ A100

高性能コンピューティング

次世代の発見を解き明かすために、科学者はシミュレーションに注目して、私たちの周りの世界をよりよく理解しています。

NVIDIA Tesla A100 は、倍精度の Tensor コアを導入し、GPU の導入以来、HPC パフォーマンスで最大の飛躍を実現します。最速の 80 GB の GPU メモリと組み合わせることで、研究者は NVIDIA Tesla A100 で 10 時間の倍精度シミュレーションを 4 時間未満に短縮できます。HPC アプリケーションは、TF32 を活用して、単精度の高密度行列乗算演算で最大 11 倍のスループットを達成することもできます。

最大のデータセットを持つ HPC アプリケーションの場合、A100 80GB の追加メモリは、材料シミュレーションである Quantum Espresso で最大 2 倍のスループット増加を実現します。この大容量メモリと前例のないメモリ帯域幅により、A100 80GB は次世代のワークロードにとって理想的なプラットフォームになります。

NVIDIA サイエンティフィック GPU テスラ A100 40GB ワークステーション グラフィック カード

ディープラーニング推論

A100 には、推論ワークロードを最適化する画期的な機能が導入されています。FP32 から INT4 まで、あらゆる範囲の精度を加速します。マルチインスタンス GPU (MIG) テクノロジにより、1 台の A100 で複数のネットワークを同時に動作させ、コンピューティング リソースを最適に利用できます。また、構造的スパース性のサポートにより、A100 のその他の推論パフォーマンスの向上に加えて、最大 2 倍のパフォーマンスが得られます。

BERT などの最先端の会話型 AI モデルでは、A100 は CPU の最大 249 倍の推論スループットを加速します。

自動音声認識用の RNN-T のようにバッチサイズに制約がある最も複雑なモデルでは、A100 80GB の増加したメモリ容量は各 MIG のサイズを 2 倍にし、A100 40GB よりも最大 1.25 倍高いスループットを実現します。

NVIDIA の市場をリードするパフォーマンスは、MLPerf Inference で実証されました。A100 は 20 倍のパフォーマンスをもたらし、そのリーダーシップをさらに拡大します。

NVIDIA サイエンティフィック GPU テスラ A100 40GB ワークステーション グラフィック カード

NVIDIA Tesla A100 技術仕様

PCIe用のNVIDIA A100
GPU アーキテクチャ

NVIDIAアンペア

ピーク FP64 9.7TF
Peak FP64 Tensor コア 19.5TF
ピーク FP32 19.5TF
Peak TF32 Tensor コア 156TF |312TF*
ピーク BFLOAT16 Tensor コア 312TF |624TF*
Peak FP16 Tensor コア 312TF |624TF*
Peak INT8 Tensor コア 624 トップス |1,248トップス*
ピーク INT4 Tensor コア 1,248 トップス |2,496トップス*
GPU メモリ 40GB
GPU メモリ帯域幅 1,555GB/秒
インターコネクト PCIe Gen4 64 GB/秒
マルチインスタンス GPU 最大 7MIG @5GB のさまざまなインスタンス サイズ
フォームファクタ PCIe

最大 TDP 電力

250W

トップアプリの配信パフォーマンス

90%

エンタープライズ対応の利用

MIG を備えた A100 は、GPU アクセラレーション インフラストラクチャの使用率を最大化します。MIG を使用すると、A100 GPU を最大 7 つの独立したインスタンスに分割して、複数のユーザーが GPU アクセラレーションにアクセスできるようになります。A100 40GB では、各 MIG インスタンスに最大 5GB を割り当てることができ、A100 80GB のメモリ容量が増加すると、そのサイズは 2 倍の 10GB になります。

MIG は、Kubernetes、コンテナー、およびハイパーバイザー ベースのサーバー仮想化と連携します。MIG を使用すると、インフラストラクチャ マネージャーは、すべてのジョブに対してサービス品質 (QoS) が保証された適切なサイズの GPU を提供し、高速化されたコンピューティング リソースの範囲をすべてのユーザーに拡大できます。

NVIDIA サイエンティフィック GPU テスラ A100 40GB ワークステーション グラフィック カード

お問い合わせカート 0