
Add to Cart
NVIDIA サイエンティフィック GPU テスラ A100 40GB ワークステーション グラフィック カード
次世代の発見を解き明かすために、科学者はシミュレーションに注目して、私たちの周りの世界をよりよく理解しています。
NVIDIA Tesla A100 は、倍精度の Tensor コアを導入し、GPU の導入以来、HPC パフォーマンスで最大の飛躍を実現します。最速の 80 GB の GPU メモリと組み合わせることで、研究者は NVIDIA Tesla A100 で 10 時間の倍精度シミュレーションを 4 時間未満に短縮できます。HPC アプリケーションは、TF32 を活用して、単精度の高密度行列乗算演算で最大 11 倍のスループットを達成することもできます。
最大のデータセットを持つ HPC アプリケーションの場合、A100 80GB の追加メモリは、材料シミュレーションである Quantum Espresso で最大 2 倍のスループット増加を実現します。この大容量メモリと前例のないメモリ帯域幅により、A100 80GB は次世代のワークロードにとって理想的なプラットフォームになります。
A100 には、推論ワークロードを最適化する画期的な機能が導入されています。FP32 から INT4 まで、あらゆる範囲の精度を加速します。マルチインスタンス GPU (MIG) テクノロジにより、1 台の A100 で複数のネットワークを同時に動作させ、コンピューティング リソースを最適に利用できます。また、構造的スパース性のサポートにより、A100 のその他の推論パフォーマンスの向上に加えて、最大 2 倍のパフォーマンスが得られます。
BERT などの最先端の会話型 AI モデルでは、A100 は CPU の最大 249 倍の推論スループットを加速します。
自動音声認識用の RNN-T のようにバッチサイズに制約がある最も複雑なモデルでは、A100 80GB の増加したメモリ容量は各 MIG のサイズを 2 倍にし、A100 40GB よりも最大 1.25 倍高いスループットを実現します。
NVIDIA の市場をリードするパフォーマンスは、MLPerf Inference で実証されました。A100 は 20 倍のパフォーマンスをもたらし、そのリーダーシップをさらに拡大します。
PCIe用のNVIDIA A100 | |
GPU アーキテクチャ |
NVIDIAアンペア |
ピーク FP64 | 9.7TF |
Peak FP64 Tensor コア | 19.5TF |
ピーク FP32 | 19.5TF |
Peak TF32 Tensor コア | 156TF |312TF* |
ピーク BFLOAT16 Tensor コア | 312TF |624TF* |
Peak FP16 Tensor コア | 312TF |624TF* |
Peak INT8 Tensor コア | 624 トップス |1,248トップス* |
ピーク INT4 Tensor コア | 1,248 トップス |2,496トップス* |
GPU メモリ | 40GB |
GPU メモリ帯域幅 | 1,555GB/秒 |
インターコネクト | PCIe Gen4 64 GB/秒 |
マルチインスタンス GPU | 最大 7MIG @5GB のさまざまなインスタンス サイズ |
フォームファクタ | PCIe |
最大 TDP 電力 |
250W |
トップアプリの配信パフォーマンス |
90% |
MIG を備えた A100 は、GPU アクセラレーション インフラストラクチャの使用率を最大化します。MIG を使用すると、A100 GPU を最大 7 つの独立したインスタンスに分割して、複数のユーザーが GPU アクセラレーションにアクセスできるようになります。A100 40GB では、各 MIG インスタンスに最大 5GB を割り当てることができ、A100 80GB のメモリ容量が増加すると、そのサイズは 2 倍の 10GB になります。
MIG は、Kubernetes、コンテナー、およびハイパーバイザー ベースのサーバー仮想化と連携します。MIG を使用すると、インフラストラクチャ マネージャーは、すべてのジョブに対してサービス品質 (QoS) が保証された適切なサイズの GPU を提供し、高速化されたコンピューティング リソースの範囲をすべてのユーザーに拡大できます。