北京Plink AIの技術Co.、株式会社

Beijing Plink AI is an expert of cloud-to-end one-stop solution.

Manufacturer from China
正会員
3 年
ホーム / 製品 / Nvidia GPU Server /

AI データセンター Tesla Tensor Core Nvidia GPU サーバー A100 80GB ビデオ グラフィック カード コンピューティング

企業との接触
北京Plink AIの技術Co.、株式会社
シティ:beijing
省/州:beijing
国/地域:china
連絡窓口:MsCindy
企業との接触

AI データセンター Tesla Tensor Core Nvidia GPU サーバー A100 80GB ビデオ グラフィック カード コンピューティング

最新の価格を尋ねる
モデル番号 :NVIDIA A100
原産地 :中国
最小注文数量 :1個
支払い条件 :L/C、D/A、D/P、T/T
供給能力 :20個
納期 :15-30ワード日
パッケージの詳細 :高さ 4.4 インチ x 長さ 7.9 インチのシングル スロット
名前 :AI データセンター Tesla Tensor Core Nvidia GPU サーバー A100 80GB ビデオ グラフィック カード コンピューティング
キーワード :AI データセンター Tesla Tensor Core Nvidia GPU サーバー A100 80GB ビデオ グラフィック カード コンピューティング
モデル :NVIDIA A100
GPU アーキテクチャ :NVIDIAアンペア
ピーク FP64 :9.7TF
Peak FP64 Tensor コア :19.5TF
ピーク FP32 :19.5TF
Peak TF32 Tensor コア :156TF | 312TF*
ピーク BFLOAT16 Tensor コア :312 TF | 624TF*
Peak FP16 Tensor コア :312 TF | 624TF*
Peak INT8 Tensor コア :624 トップス | 1,248トップス*
ピーク INT4 Tensor コア :1,248 トップス | 2,496トップス*
GPU メモリ :40 GB
GPU メモリ帯域幅 :1,555GB/秒
フォームファクタ :PCIe
more
企業との接触

Add to Cart

類似の動画を探す
製品の説明を表示

AI データセンター Tesla Tensor Core Nvidia GPU サーバー A100 80GB ビデオ グラフィック カード コンピューティング

NVIDIA A100

NVIDIA A100 Tensor コア GPU は、AI、データ分析、ハイ パフォーマンス コンピューティング (HPC) のあらゆる規模で前例のない高速化を実現し、世界で最も困難なコンピューティングの課題に取り組みます。

現代の最も重要な仕事を加速する

NVIDIA A100 Tensor コア GPU は、AI、データ分析、ハイ パフォーマンス コンピューティング (HPC) のあらゆる規模で前例のない高速化を実現し、世界で最も困難なコンピューティングの課題に取り組みます。NVIDIA データ センター プラットフォームのエンジンとして、A100 は数千の GPU に効率的に拡張できます。また、NVIDIA マルチインスタンス GPU (MIG) テクノロジを使用して 7 つの GPU インスタンスに分割して、あらゆるサイズのワークロードを高速化できます。また、第 3 世代の Tensor コアは、多様なワークロードのすべての精度を加速し、洞察を得るまでの時間と市場投入までの時間を短縮します。

最も強力なエンドツーエンドの AI および HPC データセンター プラットフォーム

A100 は、NGC™ のハードウェア、ネットワーク、ソフトウェア、ライブラリ、最適化された AI モデルとアプリケーションにわたるビルディング ブロックを組み込んだ、完全な NVIDIA データ センター ソリューションの一部です。データセンター向けの最も強力なエンド ツー エンドの AI および HPC プラットフォームを表すことで、研究者は現実世界の結果を提供し、ソリューションを大規模に本番環境に展開できます。

AI データセンター Tesla Tensor Core Nvidia GPU サーバー A100 80GB ビデオ グラフィック カード コンピューティング

高性能データ分析

データ サイエンティストは、膨大なデータセットを分析、視覚化し、洞察に変えることができる必要があります。しかし、スケールアウト ソリューションは、複数のサーバーに分散されたデータセットによって行き詰まることがよくあります。

A100 を搭載した高速サーバーは、大容量メモリ、2 TB/秒を超えるメモリ帯域幅、NVIDIA によるスケーラビリティとともに、必要なコンピューティング パワーを提供します。®NVLink®および NVSwitch™ — これらのワークロードに取り組みます。InfiniBand、NVIDIA Magnum IO™、およびオープンソース ライブラリの RAPIDS™ スイート (GPU で高速化されたデータ分析用の RAPIDS Accelerator for Apache Spark を含む) と組み合わせることで、NVIDIA データ センター プラットフォームは、前例のないレベルのパフォーマンスと効率でこれらの巨大なワークロードを加速します。

ビッグ データ分析のベンチマークでは、A100 80GB は CPU の 83 倍のスループットと A100 40GB の 2 倍のスループットで洞察を提供し、データセット サイズが爆発的に増加する新しいワークロードに最適です。

NVIDIA A100 技術仕様

PCIe用のNVIDIA A100
GPU アーキテクチャ

NVIDIAアンペア

ピーク FP64 9.7TF
Peak FP64 Tensor コア 19.5TF
ピーク FP32 19.5TF
Peak TF32 Tensor コア 156TF |312TF*
ピーク BFLOAT16 Tensor コア 312TF |624TF*
Peak FP16 Tensor コア 312TF |624TF*
Peak INT8 Tensor コア 624 トップス |1,248トップス*
ピーク INT4 Tensor コア 1,248 トップス |2,496トップス*
GPU メモリ 40GB
GPU メモリ帯域幅 1,555GB/秒
インターコネクト PCIe Gen4 64 GB/秒
マルチインスタンス GPU 最大 7MIG @5GB のさまざまなインスタンス サイズ
フォームファクタ PCIe

最大 TDP 電力

250W

トップアプリの配信パフォーマンス

90%

NVIDIA A100

ディープラーニング、HPC、およびデータ分析のための NVIDIA データ センター プラットフォームの主力製品です。

このプラットフォームは、700 を超える HPC アプリケーションとすべての主要なディープ ラーニング フレームワークを高速化します。デスクトップからサーバー、クラウド サービスまで、あらゆる場所で利用でき、劇的なパフォーマンスの向上とコスト削減の両方の機会を提供します。

AI データセンター Tesla Tensor Core Nvidia GPU サーバー A100 80GB ビデオ グラフィック カード コンピューティング

お問い合わせカート 0