NVIDIA A100™ 80GB PCIe
엔비디아 코리아 정품

Ampere Architecture
Memory size 80GB HBM2e with ECC
Memory bandwidth 1,935GB/s
FP64 - 9.7 TFLOPS
FP64 Tensor Core - 19.5 TFLOPS
FP32 - 19.5 TFLOPS
Tensor Float 32 (TF32) - 156 TFLOPS | 312 TFLOPS
BFLOAT16 Tensor Core - 312 TFLOPS | 624 TFLOPS
FP16 Tensor Core - 312 TFLOPS | 624 TFLOPS
INT8 Tensor Core - 624 TOPS | 1248 TOPS*
Interconnect      NVIDIA® NVLink® Bridge
for 2 GPUs: 600GB/s PCI Express 4.0 x16 (64GB/s)
Max Thermal Design Power (TDP) 300W
Server Options Partner and
NVIDIA-Certified Systems™ with 1-8 GPUs

데이터시트 다운
제품이미지 NVIDIA ELITE PARTNER

NVIDIA AMPERE 아키텍처는
비교할 수 없는 가속화를 제공합니다.

이미지
CUDA 코어
암페어 아키텍쳐의 CUDA 코어는 향상된 단정밀도 부동 소수점(FP32) 연산 및 전력 효율성으로 복잡한 3D CAD 및 CAE와 같은 그래픽 및 시뮬레이션 워크플로우의 성능을 크게 향상시킵니다.
3세대 Tensor 코어
새로운 Tensor Float 32(TF32) 정밀도는 이전 세대에 비해 5배의 트레이닝 처리량을 제공하여 코드를 변경하지 않아도 AI 및 데이터 사이언스 모델 트레이닝을 가속화합니다. 구조적 희소성에 대한 하드웨어 지원은 추론을 위한 처리량을 두 배로 높입니다.
3세대 NVIDIA NVLink
GPU 간 인터커넥트 대역폭이 증가되어 그래픽 및 컴퓨팅 워크로드를 가속화하고 보다 규모가 큰 데이터 세트를 처리하는 하나의 확장 가능 메모리를 제공합니다.
PCI Express Gen 4
Gen 4는 PCIe Gen 3의 대역폭을 2배로 증가시켜 AI 및 데이터 사이언스와 같은 데이터 집약적인 작업을 위한 CPU 메모리의 데이터 전송 속도를 개선합니다.
2세대 RT 코어
사실적인 렌더링, 건축, 제품 디자인의 가상 프로토타입 제작과 같은 워크로드에 엄청난 가속화와 레이 트레이싱, 모션 블러의 렌더링 속도도 높여 뛰어난 정확도의 빠른 결과를 얻을 수 있습니다.
이미지
가상화 지원
NVIDIA 가상 GPU(vGPU) 소프트웨어를 통한 차세대 개선 기능으로 원격 사용자를 위한 보다 대규모의 더욱 강력한 가상 워크스테이션 인스턴스가 가능하여 하이엔드 디자인, AI 및 컴퓨팅 워크로드를위한 대규모 워크플로우가 지원됩니다.
MIG(Multi-Instance GPU)
A100 및 A30 GPU에서 지원되는 기능으로, 워크로드가 GPU를 공유할 수 있도록 합니다. MIG를 통해 각 GPU는 자체 고대역폭 메모리, 캐시, 컴퓨팅 코어로 하드웨어 수준에서 완전히 격리되고 보호되는 여러개의 GPU 인스턴스로 분할될 수 있습니다.

리더스시스템즈는 데이터 센터를 위한
맞춤형 솔루션을 제공합니다

워크스테이션 딥 러닝 솔루션
딥 러닝 워크스테이션 솔루션을 통해 기존 작업 공간에서 편리하게 AI 슈퍼컴퓨팅 성능을 활용하고 NGC(NVIDIA GPU Cloud)에서 필요한 모든 딥 러닝 소프트웨어를 사용할 수 있습니다. 이제 딥 러닝을 필요로 하는 누구든지 데스크 사이드 딥 러닝을 시작할 수 있습니다.
GPU 클라우드 컴퓨팅 솔루션
GPU 클라우드 컴퓨팅을 통해 모든 엔터프라이즈에서 물리적 데이터센터를 구축할 필요 없이 손쉽게 대규모 컴퓨팅 성능에 액세스할 수 있습니다. AI, 고성능 컴퓨팅(HPC) 및 의료 영상 활용, 차세대 그래픽 기술 적용 등 워크로드 전반에서 최고 성능을 경험할 수 있습니다.
엣지 컴퓨팅 솔루션
현대 기업은 이제 수십억 개의 IoT 센서를 통해 생성 된 데이터를 활용해 더 빠른 통찰력과 시간과 비용 절감을 할 수 있습니다. 실시간으로 결정을 내리고 강력하고 분산 된 컴퓨팅과 안전하고 간단한 원격 관리 및 업계 최고 기술과의 호환성을 기대할 수 있습니다.
온 프레미스 딥 러닝 솔루션
GPU 가속 데이터센터는 원하는 규모와 더 적은 수의 서버로 컴퓨팅 및 그래픽 워크로드에 혁신적인 성능을 제공하여 더 빠르게 정보를 얻고 비용을 획기적으로 절감할 수 있습니다. 가장 복잡한 딥 러닝 모델을 트레이닝하여 가장 심각한 문제를 해결하세요.

가장 강력한 엔드 투 엔드
AI 및 HPC 데이터센터 플랫폼

이미지
이미지
가장 큰 규모의 모델에서 최대 3배의 AI 훈련

DLRM 훈련

  • Time Per 1,000 Iterations-Relative Performance
  • DLRM on HugeCTR framework, precision = FP16 | NVIDIA A100 80GB batch size = 48 | NVIDIA A100 40GB batch size = 32 | NVIDIA V100 32GB batch size = 32.

딥 러닝 트레이닝

  • AI 모델은 대화형 AI와 같은 차세대 도전 과제를 풀어나가면서 그 복잡성 역시 폭발적으로 커지고 있습니다. 이러한 모델을 훈련시키려면 엄청난 컴퓨팅 성능과 확장성이 필요합니다. Tensor Float(TF32)를 갖춘 NVIDIA A100의 Tensor 코어는 코드를 변경할 필요 없이 이전 세대 NVIDIA Volta보다 최대 20배 높은 성능과 더불어 자동 혼합 정밀도 및 FP16으로 성능이 추가로 2배나 향상됩니다.
  • NVIDIA® NVLink®, NVIDIA NVSwitch™, PCI Gen4, NVIDIA® InfiniBand®, NVIDIA Magnum IO™ SDK와 함께 사용하면 수천 개의 A100 GPU로 확장할 수 있습니다. 2,048개의 A100 GPU를 통해 BERT와 같은 다양한 규모의 훈련 워크로드를 1분 안에 해결할 수 있으며, 해결까지 걸리는 시간은 세계 신기록을 자랑합니다.
CPU보다 최대 249배 더 높은 AI 추론 성능

BERT 대규모 추론

  • Sequences Per Second- Relative Performance
  • BERT-Large Inference | CPU only: Dual Xeon Gold 6240 @ 2.60 GHz, precision = FP32, batch size = 128 | V100: NVIDIA TensorRT™ (TRT) 7.2, precision = INT8, batch size = 256 | A100 40GB and 80GB, batch size = 256, precision = INT8 (희소성 포함)

딥 러닝 추론

  • FP32에서 INT4에 이르는 전체 범위의 정밀도를 가속화합니다. 멀티 인스턴스 GPU (MIG) 기술을 사용하면 여러 네트워크를 단일 A100에서 동시에 운용하여 컴퓨팅 리소스를 최적으로 활용할 수 있으며 구조적 희소성 지원은 A100의 다른 추론 성능 이점 외에 최대 2배의 추가 성능을 제공합니다.
  • BERT와 같은 최첨단 대화형 AI 모델에서 추론 처리량을 CPU의 249배 까지 가속합니다. A100 80GB의 개선된 메모리 용량은 자동 음성 인식을 위한 RNN-T와 같이 배치 크기가 제약된 가장 복잡한 모델에서 각 MIG의 크기를 2배로 늘려 높은 처리량을 제공합니다.

고성능 컴퓨팅

  • 차세대 발견을 위해 과학자들은 우리 주위의 세계를 더 잘 이해할 수 있도록 시뮬레이션을 보고 있습니다. NVIDIA A100에는 GPU 도입 이래로 HPC 성능에서 가장 커다란 도약을 보여준 배정밀도 Tensor 코어가 도입되었습니다. 가장 빠른 GPU 메모리 80GB와 A100을 결합함으로써 연구원은 10시간 배정밀도 시뮬레이션을 4시간 미만으로 줄일 수 있습니다. HPC 애플리케이션도 TF32를 활용하여 단정밀도의 고밀도 매트릭스 곱셈 연산에서 최대 11배 높은 처리량을 달성할 수 있습니다.
  • 가장 큰 데이터세트가 있는 HPC 애플리케이션의 경우, A100 80GB의 추가적인 메모리는 소재 시뮬레이션인 Quantum Espresso에서 처리량이 최대 2배로 증가하는 모습을 보여줍니다. 이렇게 방대한 메모리와 전례 없는 메모리 대역폭 덕분에 A100 80GB는 차세대 워크로드에 이상적인 플랫폼이 되었습니다.
4년 동안 11배 향상된 HPC 성능

TOP HPC 앱

  • Throughput- Relative Performance
  • Geometric mean of application speedups vs. P100: Benchmark application: Amber [PME-Cellulose_NVE], Chroma [szscl21_24_128], GROMACS [ADH Dodec], MILC [Apex Medium], NAMD [stmv_nve_cuda], PyTorch (BERT-Large Fine Tuner], Quantum Espresso [AUSURF112-jR]; Random Forest FP32 [make_blobs (160000 x 64 : 10)], TensorFlow [ResNet-50], VASP 6 [Si Huge] | GPU node with dual-socket CPUs with 4x NVIDIA P100, V100, or A100 GPUs.
이미지

고성능 데이터 분석

  • 데이터 사이언티스트는 대규모 데이터세트를 분석, 시각화하고 인사이트로 전환할 수 있어야 합니다. 하지만 스케일아웃 솔루션은 여러 서버에 흩어진 데이터세트 때문에 교착 상태에 빠지는 경우가 많습니다.
  • A100을 사용하는 가속화 서버는 방대한 메모리, 2TB/s를 넘는 메모리 대역폭, NVIDIA® NVLink®, NVSwitch™를 통한 확장성과 함께 필요한 컴퓨팅 성능을 제공하여 이러한 워크로드를 처리합니다. InfiniBand와 NVIDIA Magnum IO™ 그리고 GPU 가속 데이터 분석을 위한 Apache Spark용 RAPIDS Accelerator 등 오픈 소스 라이브러리의 RAPIDS™ 제품군과 함께 NVIDIA 데이터센터 플랫폼은 이러한 대규모 워크로드를 전례 없는 수준의 성능과 효율성으로 가속화합니다.

엔터프라이즈 지원 활용률

  • MIG를 사용하는 A100은 GPU 가속화 인프라의 활용률을 극대화합니다. A100 GPU는 MIG를 통해 7개나 되는 별개의 인스턴스로 안전하게 분할될 수 있어 여러 사용자가 GPU 가속화에 액세스할 수 있습니다. MIG는 Kubernetes, 컨테이너, 하이퍼바이저 기반 서버 가상화와 연동됩니다. MIG는 인프라 관리자가 모든 작업에 보장된 서비스 품질(QoS)로 알맞은 크기의 GPU를 제공하도록 지원하여 모든 사용자가 가속 컴퓨팅 리소스를 사용할 수 있게 합니다.
이미지
이미지
멀티 인스턴스 GPU(MIG)를 갖춘 7배 더 높은 추론 처리량

BERT 대규모 추론

  • Throughput- Relative Performance
  • Geometric mean of application speedups vs. P100: Benchmark application: Amber [PME-Cellulose_NVE], Chroma [szscl21_24_128], GROMACS [ADH Dodec], MILC [Apex Medium], NAMD [stmv_nve_cuda], PyTorch (BERT-Large Fine Tuner], Quantum Espresso [AUSURF112-jR]; Random Forest FP32 [make_blobs (160000 x 64 : 10)], TensorFlow [ResNet-50], VASP 6 [Si Huge] | GPU node with dual-socket CPUs with 4x NVIDIA P100, V100, or A100 GPUs.

Specification

  • Architecture
    NVIDIA Ampere
    GPU Memory
    80 GB HBM2e with ECC
    Memory bus width
    5120-bit
    Memory bandwidth
    1,935GB/s
  • CUDA cores
    6912
    Performance(GPU Boost Clocks)
    FP64 : 9.7 Tflops
    FP64 Tensor Core : 19.5 Tflops
    FP32 : 19.5 Tflops
    Tensor Float 32 (TF32)
    156 TFLOPS,
    312 TFLOPS*
    BFLOAT16 Tensor Core
    312 TFLOPS,
    624 TFLOPS*
  • FP16 Tensor Core
    312 TFLOPS,
    624 TFLOPS*
    INT8 Tensor Core
    624 TOPS,
    1248 TOPS*
    Multi-Instance GPU
    Up to 7 MIGs @ 5GB
    System interface
    PCI Express 4.0 x16
  • Interconnect
    NVIDIA® NVLink® Bridge
    for 2 GPUs: 600GB/s **
    PCIe Gen4: 64GB/s
    Server Options
    Partner and NVIDIA-Certified
    Systems™ with 1-8 GPUs
    Max Thermal Design Power
    300 W
    Thermal solution
    Passive
  • Power connectors
    8-pin CPU
    Display connectors
    None
    Form Factor
    111 x 268, Full Height
    Dual Slot

* With sparsity

** SXM4 GPUs via HGX A100 server boards; PCIe GPUs via NVLink Bridge for up to two GPUs

Information

  • 상품명
    NVIDIA A100 Tensor Core GPU
    엔비디아 코리아 정품
    KC 인증번호
    R-R-NVA-PG133C
    최대소비전력
    300 W
    출시년월
    2021/04
  • 제조자
    NVIDIA Corporation
    제조국
    China
    크기 (mm)
    268 x 111, Dual Slot
    정품 품질 보증
    3년 무상보증

[주]리더스시스템즈 고객지원센터 전화번호 : 1544-5130