제품문의
제품과 관련하여 궁금하신 사항을
문의하기를 통해 해결하세요.
Ampere Architecture
8x NVIDIA A100 40 GB GPUs
GPU Memory 320 GB Total
System Memory 1 TB
CPU : Dual AMD Rome 7742, 128 cores total,
2.25 GHz (base), 3.4 GHz (max boost)
OS: 2x 1.92TB M.2
NVME drives Internal Storage:
15 TB (4x 3.84 TB) U.2 NVMe drive
Performance : 5 petaFLOPS AI
10 petaOPS INT8
NVIDIA A100 Tensor 코어 GPU에 구축된 AI 시스템입니다. 8개의 A100 GPU와 320GB의 GPU 메모리를 탑재한 이 시스템은 전례 없는 가속을 제공하며 NVIDIA CUDA-X 소프트웨어와 엔드 투 엔드 NVIDIA 데이터 센터 솔루션 스택에 완전히 최적화되어 있습니다.
자체 암호화 드라이브, 서명된 소프트웨어 컨테이너, 안전한 관리 및 모니터링 등 모든 주요 하드웨어 및 소프트웨어 구성 요소를 보호하는 다단계 접근 방식으로 AI 배포를 위한 가장 든든한 보안 방식을 제공합니다.
분석에서 훈련과 추론에 이르기까지 NVIDIA DGX A100은 모든 AI 인프라를 위한 유니버설 시스템입니다. 6U 폼 팩터에 5페타플롭스의 AI 성능을 갖추고, 레거시 인프라 사일로를 모든 AI 워크로드에 사용 가능한 단일 플랫폼으로 대체한 NVIDIA DGX A100은 컴퓨팅 밀도에 새로운 기준을 제시합니다.
NVIDIA ConnectX-7 InfiniBand 이더넷 네트워크 어댑터가 탑재되어 있습니다. 최대 양방향 대역폭은 500GB/s입니다. 이는 DGX A100을 엔터프라이즈에서 확장 가능한 AI 인프라의 청사진인 NVIDIA DGX SuperPOD 같은 대형 AI 클러스터의 기초 구성 요소이게 하는 많은 기능 중 하나입니다.
딥 러닝 워크스테이션 솔루션을 통해 작업 공간에서 편리하게 AI 슈퍼 컴퓨팅 성능을 활용하고 NGC에서 필요한 모든 딥 러닝 소프트웨어를 사용할 수 있습니다. 이제 딥 러닝을 필요로 하는 누구든지 데스크 사이드 딥 러닝을 시작할 수 있습니다.
모든 엔터프라이즈에서 물리적 데이터센터를 구축할 필요 없이 손쉽게 대규모 컴퓨팅 성능에 액세스할 수 있습니다. AI, 고성능 컴퓨팅(HPC) 및 의료 영상 활용, 차세대 그래픽 기술 적용 등 워크로드 전반에서 최고 성능을 경험할 수 있습니다.
GPU 가속 데이터센터는 원하는 규모와 더 적은 수의 서버로 컴퓨팅 및 그래픽 워크로드에 혁신적인 성능을 제공하여 더 빠르게 정보를 얻고 비용을 획기적으로 절감할 수 있습니다. 가장 복잡한 딥 러닝 모델을 트레이닝하여 가장 심각한 문제를 해결하세요.
현대 기업은 이제 수 십억 개의 IoT 센서를 통해 생성 된 데이터를 활용해 더 빠른 통찰력과 시간과 비용 절감을 할 수 있습니다. 실시간으로 결정을 내리고 강력하고 분산 된 컴퓨팅과 안전하고 간단한 원격 관리 및 업계 최고 기술과의 호환성을 기대할 수 있습니다.
새로운 Tensor Float 32(TF32) 정밀도는 이전 세대에 비해 5배의 트레이닝 처리량을 제공하여 코드를 변경하지 않아도 AI 및 데이터 사이언스 모델 트레이닝을 가속화합니다. 구조적 희소성에 대한 하드웨어 지원은 추론을 위한 처리량을 두 배로 높입니다.
모든 애플리케이션에 A100 GPU의 전체 성능이 필요한 것은 아닙니다. MIG를 통해 각 A100은 자체 고대역폭 메모리, 캐시, 컴퓨팅 코어로 하드웨어 수준에서 완전히 격리되고 보호되는 무려 7개의 GPU 인스턴스로 분할될 수 있습니다.
매개변수가 정확한 예측과 추론에 모두 필요한 것은 아니므로, 일부는 정확성을 감소시키지 않고 모델을 “희소”하게 만들기 위해 0으로 변환할 수 있습니다. A100의 Tensor 코어는 희소한 모델에 대해 최대 2배 높은 성능을 제공할 수 있습니다.
A100은 데이터센터에 방대한 양의 컴퓨팅을 제공합니다. 이러한 컴퓨팅 엔진의 활용도를 완전하게 유지하기 위해 업계 최고 수준인 1.5TB/s의 메모리 대역폭을 보유하여 이전 세대에 비해 67% 증가했습니다.
GPU 간 인터커넥트 대역폭이 증가되어 그래픽 및 컴퓨팅 워크로드를 가속화하고 보다 규모가 큰 데이터 세트를 처리하는 하나의 확장 가능 메모리를 제공합니다.
단일 서버에서 더 많은 GPU를 지원하며 GPU 사이에 완전한 대역폭 연결성을 보장하는 GPU 패브릭으로 딥 러닝 성능을 다음 단계로 끌어올립니다. 각 GPU의 NVLink 12개가 NVSwitch로 완전히 연결되어 올투올(All-to-all) 고속 통신을 지원합니다.
데이터 센터 없이 실험과 개발을 위한 서버 급의 성능을 제공하는 이상적인 plug-and-go AI 시스템
다양한 서버 솔루션을 통한 가장 복잡한 AI 과제를 처리가 가능한 슈퍼컴퓨터의 핵심 구성 요소
스토리지, 컴퓨팅, 네트워킹 분야의 업계 리더와 함께 구축한 업계 표준 AI 인프라 디자인
대규모 AI Enterprise를 위한 가장 빠른 길을 제공하는 업계 최고의 Full-cycle 인프라
(1/7) MIG 슬라이스로 측정한 MLPerf 0.7 RNN-T.
프레임워크: TensorRT 7.2, 데이터 집합 = LibriSpeech, 정밀도 = FP16.
(1/7) MIG 슬라이스로 측정한 MLPerf 0.7 RNN-T.
프레임워크: TensorRT 7.2, 데이터 집합 = LibriSpeech, 정밀도 = FP16.
(1/7) MIG 슬라이스로 측정한 MLPerf 0.7 RNN-T.
프레임워크: TensorRT 7.2, 데이터 집합 = LibriSpeech, 정밀도 = FP16.
데이터 사이언스 및 AI를 발전시키기 위해 조직은 클라우드 및 데이터 센터에서 에지에 이르기까지 GPU 기반 시스템을 최적화 할 수 있는 도구에 액세스해야합니다. NVIDIA NGC카달로그는 모든 최신 워크로드를 포괄하여 IT 관리자, 데이터 과학자, DevOps 팀 및 개발자가 필요한 항목에 빠르고 쉽게 접근할 수 있습니다.
NVIDIA CUDA® Toolkit은 고성능 GPU 가속 응용 프로그램을 만들기 위한 개발 환경을 제공합니다. CUDA 툴킷을 사용하면 GPU 가속 임베디드 시스템, 데스크탑 워크 스테이션, 노트북 엔터프라이즈 데이터 센터 및 클라우드 기반 플랫폼에서 애플리케이션을 개발, 최적화 및 배포할 수 있습니다.
병렬의 비동기식 지능형 데이터센터 IO를 위한 아키텍처로, 멀티 GPU, 멀티 노드 가속화를 위해 스토리지 및 네트워크 IO 성능을 극대화합니다. 스토리지 IO, 네트워크 IO, 인-네트워크 컴퓨팅 및 IO 관리를 활용하여 멀티 GPU, 멀티 노드 시스템을 위한 데이터 이동, 액세스 및 관리를 단순화하고 가속화합니다.
CUDA-X AI는 딥 러닝, 머신 러닝 및 HPC를 위한 필수 최적화를 제공하는 NVIDIA의 획기적인 병렬 프로그래밍 모델인 CUDA® 위에 구축된 소프트웨어 가속화 라이브러리 컬렉션입니다. cuDNN, cuML, NVIDIA® TensorRT™, cuDF, cuGraph 및 13개 이상의 기타 라이브러리가 포함됩니다.
NVIDIA AI 스타터 키트는 세계적인 수준의 AI 플랫폼에서 부터 최적화된 소프트웨어 및 도구를 거쳐 컨설팅 서비스에 이르는 모든 것을 팀에게 제공함으로 AI 이니셔티브를 빠르게 시작할 수 있습니다. AI 플랫폼을 구축에 시간과 비용을 최소화 하세요. 하루 안에 설치 및 가동하고, 일주일 안에 사용 사례를 정의하고, 보다 빠르게 모델을 상용화할 수 있습니다.
GPU | 8x NVIDIA A100 40 GB GPUs |
---|---|
GPU Memory | 320GB total |
Performance | 5 petaFLOPS AI / 10 petaOPS INT8 |
NVIDIA NVSwitches | 6 |
System Power Usage | 6.5 kW max |
CPU | Dual AMD Rome 7742, 128 cores total, 2.25 GHz (base), 3.4 GHz (max boost) |
System Memory | 1TB |
Networking |
|
Storage |
|
Software | Ubuntu Linux OS Also supports : Red Hat Enterprise Linux CentOS |
System Weight | 271.5 lbs (123.16 kgs) max |
Packaged System Weight | 359.7 lbs (163.16 kgs) max |
System Dimensions |
|
Operating Temperature Range | 5-30 ºC (41-86 ºF) |
상품명 | NVIDIA DGX A100 320GB 엔비디아코리아 정품 |
---|---|
KC 인증번호 | - |
정격전압 / 최대소비전력 | 6.5 kW max |
정품 품질 보증 | 3년 무상보증 |
출시년월 | 2020/05 |
제조사 | NVIDIA Corporation |
제조국 | 중국 |
크기 | 264.0 x 482.3 x 897.1 max (HWL) |