AI データセンター Tesla Tensor Core Nvidia GPU サーバー A100 80GB ビデオ グラフィック カード コンピューティング

モデル番号:NVIDIA A100
原産地:中国
最小注文数量:1個
支払い条件:L/C、D/A、D/P、T/T
供給能力:20個
納期:15-30ワード日
企業との接触

Add to Cart

確認済みサプライヤー
Beijing Beijing China
住所: D1205のJinyu Jiahuaの建物、Shangdiの第3通り、海淀区、北京100085、P.R.China
サプライヤーの最後のログイン時間: 内 25 時間
製品詳細 会社概要
製品詳細

AI データセンター Tesla Tensor Core Nvidia GPU サーバー A100 80GB ビデオ グラフィック カード コンピューティング

NVIDIA A100


NVIDIA A100 Tensor コア GPU は、AI、データ分析、ハイ パフォーマンス コンピューティング (HPC) のあらゆる規模で前例のない高速化を実現し、世界で最も困難なコンピューティングの課題に取り組みます。


現代の最も重要な仕事を加速する

NVIDIA A100 Tensor コア GPU は、AI、データ分析、ハイ パフォーマンス コンピューティング (HPC) のあらゆる規模で前例のない高速化を実現し、世界で最も困難なコンピューティングの課題に取り組みます。NVIDIA データ センター プラットフォームのエンジンとして、A100 は数千の GPU に効率的に拡張できます。また、NVIDIA マルチインスタンス GPU (MIG) テクノロジを使用して 7 つの GPU インスタンスに分割して、あらゆるサイズのワークロードを高速化できます。また、第 3 世代の Tensor コアは、多様なワークロードのすべての精度を加速し、洞察を得るまでの時間と市場投入までの時間を短縮します。

最も強力なエンドツーエンドの AI および HPC データセンター プラットフォーム

A100 は、NGC™ のハードウェア、ネットワーク、ソフトウェア、ライブラリ、最適化された AI モデルとアプリケーションにわたるビルディング ブロックを組み込んだ、完全な NVIDIA データ センター ソリューションの一部です。データセンター向けの最も強力なエンド ツー エンドの AI および HPC プラットフォームを表すことで、研究者は現実世界の結果を提供し、ソリューションを大規模に本番環境に展開できます。



高性能データ分析

データ サイエンティストは、膨大なデータセットを分析、視覚化し、洞察に変えることができる必要があります。しかし、スケールアウト ソリューションは、複数のサーバーに分散されたデータセットによって行き詰まることがよくあります。

A100 を搭載した高速サーバーは、大容量メモリ、2 TB/秒を超えるメモリ帯域幅、NVIDIA によるスケーラビリティとともに、必要なコンピューティング パワーを提供します。®NVLink®および NVSwitch™ — これらのワークロードに取り組みます。InfiniBand、NVIDIA Magnum IO™、およびオープンソース ライブラリの RAPIDS™ スイート (GPU で高速化されたデータ分析用の RAPIDS Accelerator for Apache Spark を含む) と組み合わせることで、NVIDIA データ センター プラットフォームは、前例のないレベルのパフォーマンスと効率でこれらの巨大なワークロードを加速します。

ビッグ データ分析のベンチマークでは、A100 80GB は CPU の 83 倍のスループットと A100 40GB の 2 倍のスループットで洞察を提供し、データセット サイズが爆発的に増加する新しいワークロードに最適です。


NVIDIA A100 技術仕様


PCIe用のNVIDIA A100
GPU アーキテクチャ

NVIDIAアンペア

ピーク FP649.7TF
Peak FP64 Tensor コア19.5TF
ピーク FP3219.5TF
Peak TF32 Tensor コア156TF |312TF*
ピーク BFLOAT16 Tensor コア312TF |624TF*
Peak FP16 Tensor コア312TF |624TF*
Peak INT8 Tensor コア624 トップス |1,248トップス*
ピーク INT4 Tensor コア1,248 トップス |2,496トップス*
GPU メモリ40GB
GPU メモリ帯域幅1,555GB/秒
インターコネクトPCIe Gen4 64 GB/秒
マルチインスタンス GPU最大 7MIG @5GB のさまざまなインスタンス サイズ
フォームファクタPCIe

最大 TDP 電力

250W

トップアプリの配信パフォーマンス

90%




NVIDIA A100


ディープラーニング、HPC、およびデータ分析のための NVIDIA データ センター プラットフォームの主力製品です。

このプラットフォームは、700 を超える HPC アプリケーションとすべての主要なディープ ラーニング フレームワークを高速化します。デスクトップからサーバー、クラウド サービスまで、あらゆる場所で利用でき、劇的なパフォーマンスの向上とコスト削減の両方の機会を提供します。

China AI データセンター Tesla Tensor Core Nvidia GPU サーバー A100 80GB ビデオ グラフィック カード コンピューティング supplier

AI データセンター Tesla Tensor Core Nvidia GPU サーバー A100 80GB ビデオ グラフィック カード コンピューティング

お問い合わせカート 0