
Add to Cart
NVIDIA A100 Tensor コア GPU は、AI、データ分析、ハイ パフォーマンス コンピューティング (HPC) のあらゆる規模で前例のない高速化を実現し、世界で最も困難なコンピューティングの課題に取り組みます。
NVIDIA A100 Tensor コア GPU は、AI、データ分析、ハイ パフォーマンス コンピューティング (HPC) のあらゆる規模で前例のない高速化を実現し、世界で最も困難なコンピューティングの課題に取り組みます。NVIDIA データ センター プラットフォームのエンジンとして、A100 は数千の GPU に効率的に拡張できます。また、NVIDIA マルチインスタンス GPU (MIG) テクノロジを使用して 7 つの GPU インスタンスに分割して、あらゆるサイズのワークロードを高速化できます。また、第 3 世代の Tensor コアは、多様なワークロードのすべての精度を加速し、洞察を得るまでの時間と市場投入までの時間を短縮します。
A100 は、NGC™ のハードウェア、ネットワーク、ソフトウェア、ライブラリ、最適化された AI モデルとアプリケーションにわたるビルディング ブロックを組み込んだ、完全な NVIDIA データ センター ソリューションの一部です。データセンター向けの最も強力なエンド ツー エンドの AI および HPC プラットフォームを表すことで、研究者は現実世界の結果を提供し、ソリューションを大規模に本番環境に展開できます。
データ サイエンティストは、膨大なデータセットを分析、視覚化し、洞察に変えることができる必要があります。しかし、スケールアウト ソリューションは、複数のサーバーに分散されたデータセットによって行き詰まることがよくあります。
A100 を搭載した高速サーバーは、大容量メモリ、2 TB/秒を超えるメモリ帯域幅、NVIDIA によるスケーラビリティとともに、必要なコンピューティング パワーを提供します。®NVLink®および NVSwitch™ — これらのワークロードに取り組みます。InfiniBand、NVIDIA Magnum IO™、およびオープンソース ライブラリの RAPIDS™ スイート (GPU で高速化されたデータ分析用の RAPIDS Accelerator for Apache Spark を含む) と組み合わせることで、NVIDIA データ センター プラットフォームは、前例のないレベルのパフォーマンスと効率でこれらの巨大なワークロードを加速します。
ビッグ データ分析のベンチマークでは、A100 80GB は CPU の 83 倍のスループットと A100 40GB の 2 倍のスループットで洞察を提供し、データセット サイズが爆発的に増加する新しいワークロードに最適です。
PCIe用のNVIDIA A100 | |
GPU アーキテクチャ |
NVIDIAアンペア |
ピーク FP64 | 9.7TF |
Peak FP64 Tensor コア | 19.5TF |
ピーク FP32 | 19.5TF |
Peak TF32 Tensor コア | 156TF |312TF* |
ピーク BFLOAT16 Tensor コア | 312TF |624TF* |
Peak FP16 Tensor コア | 312TF |624TF* |
Peak INT8 Tensor コア | 624 トップス |1,248トップス* |
ピーク INT4 Tensor コア | 1,248 トップス |2,496トップス* |
GPU メモリ | 40GB |
GPU メモリ帯域幅 | 1,555GB/秒 |
インターコネクト | PCIe Gen4 64 GB/秒 |
マルチインスタンス GPU | 最大 7MIG @5GB のさまざまなインスタンス サイズ |
フォームファクタ | PCIe |
最大 TDP 電力 |
250W |
トップアプリの配信パフォーマンス |
90% |
ディープラーニング、HPC、およびデータ分析のための NVIDIA データ センター プラットフォームの主力製品です。
このプラットフォームは、700 を超える HPC アプリケーションとすべての主要なディープ ラーニング フレームワークを高速化します。デスクトップからサーバー、クラウド サービスまで、あらゆる場所で利用でき、劇的なパフォーマンスの向上とコスト削減の両方の機会を提供します。