

Add to Cart
A100 80GB PCIe | A100 80GB SXM | |
FP64 | 9.7 TFLOPS | |
FP64 テンソールコア | 19.5 TFLOPS | |
FP32 | 19.5 TFLOPS | |
テンソール浮遊32 (TF32) | 156TFLOPS ありがとう 312TFLOPS | |
BFLOAT16 テンソールコア | 312 TFLOPS 624 TFLOPS * | |
FP16 テンソールコア | 312 TFLOPS 624 TFLOPS * | |
INT8テンソールコア | 624 トップス 1248 トップス |
GPUメモリ | 80GB HBM2e | 80GB HBM2e |
GPUメモリ帯域幅 | 1935 GB/s | 2,039 GB/s |
最大設計熱力 (TDP) | 300W | 400W *** |
複数のインスタンスのGPU | 最大 7 MIG @ 10GB | 最大 7 MIG @ 10GB |
形状因数 | PCIe | SXM |
液体冷却式,二スロット式,または一スロット式 | ||
相互接続 | NVIDIA®NVリンク®橋 | NVLink: 600 GB/s |
2つのGPU: 600GB/s ** | PCIe Gen4: 64 GB/s | |
サーバーオプション | パートナーとNVIDIA認定システムTM 1~8GPU | NVIDIA HGXTM A100 パートナーとNVIDIA認定システム,4つ816つのGPU NVIDIA DGXTM A100 8つのGPU |