NVIDIA DGX A100 640 GB
엔비디아코리아 정품

Ampere Architecture
8x NVIDIA A100 80 GB GPUs
GPU Memory 640 GB Total
System Memory 2 TB
CPU : Dual AMD Rome 7742, 128 cores total,
2.25 GHz (base), 3.4 GHz (max boost)
OS: 2x 1.92 TB M.2 NVME drives
Internal Storage: 30 TB
(8x 3.84 TB) U.2 NVMe drive
Performance : 5 petaFLOPS AI
10 petaOPS INT8

데이터시트 다운
제품이미지 NVIDIA ELITE PARTNER

NVIDIA AMPERE 아키텍처는
비교할 수 없는 가속화를 제공합니다.

3세대 Tensor 코어
새로운 Tensor Float 32(TF32) 정밀도는 이전 세대에 비해 5배의 트레이닝 처리량을 제공하여 코드를 변경하지 않아도 AI 및 데이터 사이언스 모델 트레이닝을 가속화합니다. 구조적 희소성에 대한 하드웨어 지원은 추론을 위한 처리량을 두 배로 높입니다.
MIG(Multi-Instance GPU)
모든 애플리케이션에 A100 GPU의 전체 성능이 필요한 것은 아닙니다. MIG를 통해 각 A100은 자체 고대역폭 메모리, 캐시, 컴퓨팅 코어로 하드웨어 수준에서 완전히 격리되고 보호되는 무려 7개의 GPU 인스턴스로 분할될 수 있습니다.
구조적 희소성
매개변수가 정확한 예측과 추론에 모두 필요한 것은 아니므로, 일부는 정확성을 감소시키지 않고 모델을 “희소”하게 만들기 위해 0으로 변환할 수 있습니다. A100의 Tensor 코어는 희소한 모델에 대해 최대 2배 높은 성능을 제공할 수 있습니다.
3세대 NVIDIA NVLink
GPU 간 인터커넥트 대역폭이 증가되어 그래픽 및 컴퓨팅 워크로드를 가속화하고 보다 규모가 큰 데이터 세트를 처리하는 하나의 확장 가능 메모리를 제공합니다.
더 스마트하고 빠른 메모리
A100은 데이터센터에 방대한 양의 컴퓨팅을 제공합니다. 이러한 컴퓨팅 엔진의 활용도를 완전하게 유지하기 위해 업계 최고 수준인 1.5TB/s의 메모리 대역폭을 보유하여 이전 세대에 비해 67% 증가했습니다.
2세대 NVIDIA NVSwitch
단일 서버에서 더 많은 GPU를 지원하며 GPU 사이에 완전한 대역폭 연결성을 보장하는 GPU 패브릭으로 딥 러닝 성능을 다음 단계로 끌어올립니다. 각 GPU의 NVLink 12개가 NVSwitch로 완전히 연결되어 올투올(All-to-all) 고속 통신을 지원합니다.

리더스시스템즈는 데이터 센터를 위한
맞춤형 솔루션을 제공합니다

워크스테이션 딥 러닝 솔루션
딥 러닝 워크스테이션 솔루션을 통해 기존 작업 공간에서 편리하게 AI 슈퍼컴퓨팅 성능을 활용하고 NGC(NVIDIA GPU Cloud)에서 필요한 모든 딥 러닝 소프트웨어를 사용할 수 있습니다. 이제 딥 러닝을 필요로 하는 누구든지 데스크 사이드 딥 러닝을 시작할 수 있습니다.
GPU 클라우드 컴퓨팅 솔루션
GPU 클라우드 컴퓨팅을 통해 모든 엔터프라이즈에서 물리적 데이터센터를 구축할 필요 없이 손쉽게 대규모 컴퓨팅 성능에 액세스할 수 있습니다. AI, 고성능 컴퓨팅(HPC) 및 의료 영상 활용, 차세대 그래픽 기술 적용 등 워크로드 전반에서 최고 성능을 경험할 수 있습니다.
엣지 컴퓨팅 솔루션
현대 기업은 이제 수십억 개의 IoT 센서를 통해 생성 된 데이터를 활용해 더 빠른 통찰력과 시간과 비용 절감을 할 수 있습니다. 실시간으로 결정을 내리고 강력하고 분산된 컴퓨팅과 안전하고 간단한 원격 관리 및 업계 최고 기술과의 호환성을 기대할 수 있습니다.
온 프레미스 딥 러닝 솔루션
GPU 가속 데이터센터는 원하는 규모와 더 적은 수의 서버로 컴퓨팅 또는 그래픽 워크로드에 혁신적인 성능을 제공하여 더 빠르게 정보를 얻고 비용을 획기적으로 절감할 수 있습니다. 가장 복잡한 딥 러닝 모델을 트레이닝하여 가장 심각한 문제를 해결하세요.

NVIDIA DGX™ 시스템은 모든 규모의 엔터프라이즈
AI 인프라를 위한 세계 최고의 솔루션을 제공합니다.

Introducing NVIDIA DGX Station A100

01:06
  • NVIDIA DGX Station™
    AI 워크그룹 어플라이언스
    데이터 센터 없이 실험과 개발을 위한
    서버 급의 성능을 제공하는 이상적인
    plug-and-go AI 시스템
  • NVIDIA DGX Servers
    AI 트레이닝, 추론 및 분석
    다양한 서버 솔루션을 통한 가장 복잡
    한 AI 과제를 처리가 가능한 슈퍼컴퓨
    터의 핵심 구성 요소
  • NVIDIA DGX POD™
    확장된 AI 인프라 솔루션
    스토리지, 컴퓨팅, 네트워킹 분야의
    업계 리더와 함께 구축한 업계 표준
    AI 인프라 디자인
  • NVIDIA DGX SUPERPOD™
    턴키 AI 인프라
    대규모 AI Enterprise를 위한 가장
    빠른 길을 제공하는 업계 최고의
    Full-cycle 인프라

현대적이고 가속화 된
데이터 센터를 위한 소프트웨어

데이터 과학 및 AI를 발전시키기 위해 조직은 클라우드 및 데이터 센터에서 에지에 이르기까지 GPU 기반 시스템을 최적화 할 수 있는 도구에 액세스해야합니다. NVIDIA의 소프트웨어 솔루션은 모든 최신 워크로드를 포괄하여 IT 관리자, 데이터 과학자, DevOps 팀 및 개발자가 필요한 항목에 빠르고 쉽게 액세스 할 수 있도록 합니다.

NVIDIA® NGC™ 카달로그
데이터 과학 및 AI를 발전시키기 위해 조직은 클라우드 및 데이터 센터에서 에지에 이르기까지 GPU 기반 시스템을 최적화 할 수 있는 도구에 액세스해야합니다. NVIDIA의 소프트웨어 솔루션은 모든 최신 워크로드를 포괄하여 IT 관리자, 데이터 과학자, DevOps 팀 및 개발자가 필요한 항목에 빠르고 쉽게 액세스 할 수 있도록 합니다.
NVIDIA® CUDA® Toolkit
NVIDIA CUDA ® Toolkit은 고성능 GPU 가속 응용 프로그램을 만들기위한 개발 환경을 제공합니다. CUDA 툴킷을 사용하면 GPU 가속 임베디드 시스템, 데스크탑 워크 스테이션, 노트북 엔터프라이즈 데이터 센터 및 클라우드 기반 플랫폼에서 애플리케이션을 개발, 최적화 및 배포 할 수 있습니다.
NVIDIA® Magnum IO™
NVIDIA Magnum IO™는 병렬의 비동기식 지능형 데이터센터 IO를 위한 아키텍처로, 멀티 GPU, 멀티 노드 가속화를 위해 스토리지 및 네트워크 IO 성능을 극대화합니다. 스토리지 IO, 네트워크 IO, 인-네트워크 컴퓨팅 및 IO 관리를 활용하여 멀티 GPU, 멀티 노드 시스템을 위한 데이터 이동, 액세스 및 관리를 단순화하고 가속화합니다.
NVIDIA® CUDA-X AI
CUDA-X AI는 딥 러닝, 머신 러닝 및 HPC(고성능 컴퓨팅)를 위한 필수 최적화를 제공하는 NVIDIA의 획기적인 병렬 프로그래밍 모델인 CUDA® 위에 구축된 소프트웨어 가속화 라이브러리 컬렉션입니다. cuDNN, cuML, NVIDIA® TensorRT™, cuDF, cuGraph 및 13개 이상의 기타 라이브러리가 포함됩니다.

AI 문제를 해결하는 가장 간단하고 빠른
NVIDIA AI STARTER KIT

NVIDIA AI 스타터 키트는 세계적인 수준의 AI 플랫폼에서부터 최적화된 소프트웨어 및 도구를 거쳐 컨설팅 서비스에 이르는 모든 것을 팀에게 제공함으로 AI 이니셔티브를 빠르게 시작할 수 있습니다. AI 플랫폼을 구축에 시간과 비용을 최소화 하세요. 하루 안에 설치 및 가동하고, 일주일 안에 사용 사례를 정의하고, 보다 빠르게 모델을 상용화 할 수 있습니다.

NVIDIA DGX™ 시스템은 모든 규모의
엔터프라이즈 AI 인프라를 위한 세계 최고의 솔루션을 제공합니다.

NVIDIA A100 Tensor 코어 GPU
NVIDIA A100 Tensor 코어 GPU는 AI, 데이터 분석 및 고성능 컴퓨팅(HPC)을 위한 유례없는 가속화를 제공하여 세계에서 가장 까다로운 컴퓨팅 문제를 처리합니다. 3세대 NVIDIA Tensor 코어가 막대하게 성능을 향상하므로 A100 GPU는 수천 개 단위로 효율적으로 확장하거나 Multi-Instance GPU를 통해 7개의 더 작은 인스턴스로 분할되어 모든 규모의 워크로드를 가속화할 수 있습니다.
내장형 보안
자체 암호화 드라이브, 서명된 소프트웨어 컨테이너, 안전한 관리 및 모니터링 등 모든 주요 하드웨어 및 소프트웨어 구성 요소를 보호하는 다단계 접근 방식으로 AI 배포를 위한 가장 든든한 보안 방식을 제공합니다.
Mellanox ConnectX-6 VPI HDR InfiniBand
DGX A100은 200GB/s로 작동하는 최신 Mellanox ConnectX-6 VPI HDR InfiniBand/이더넷 어댑터를 탑재하여 대규모 AI 워크로드를 위한 고속 패브릭을 생성합니다.
Multi-Instance GPU (MIG)
MIG(Multi-Instance GPU) 덕분에 DGX A100의 A100 GPU 8개는 무려 56개의 GPU 인스턴스로 구성될 수 있으며 각 GPU 인스턴스는 고유의 고대역폭 메모리, 캐시, 컴퓨팅 코어로 완전히 격리될 수 있습니다. 이는 관리자가 여러 워크로드를 위해 보장된 서비스 품질(QoS)의 GPU를 적절한 크기로 사용할 수 있게 합니다.

AI 시대를 위한 워크그룹 어플라이언스를 통해
더욱 빠르게 반복하여 혁신하세요.

추론 | RNN-T 추론: 단일 스트림

AI 추론을 위한 최대 1.25배 높은 처리량

초당 시퀀스 수 - 상대적 성능
(1/7) MIG 슬라이스로 측정한 MLPerf 0.7 RNN-T. 프레임워크: TensorRT 7.2, 데이터 집합 = LibriSpeech, 정밀도 = FP16.

훈련 | BERT 대규모 훈련

대규모 모델에서 AI 교육을 위한
최대 3배 높은 처리량

1,000회 반복당 시간 - 상대적 성능
HugeCTR 프레임워크의 DLRM, 정밀도 = FP16 | 1x DGX A100 640GB 배치 크기 = 48 | 2 | DGX A100 320GB 배치 크기 = 32 | 1 | DGX-2(16x V100 32GB) 배치 크기 = 32. GPU 수로 정규화된 속도 향상

멀티 GPU 스케일빌리티 | 빅데이터 분석 벤치마크

CPU 대비 최대 83배 높은 처리량,
DGX A100 320GB보다 2배 높은 처리량

초당 이미지 수
빅 데이터 분석 벤치마크 | 30개 분석 소매 쿼리, ETL, ML, 10TB 데이터 집합에 대한 NLP | CPU: 19x Intel Xeon Gold 6252 2.10 GHz, Hadoop | 16x DGX-1 (각 8x V100 32GB), RAPIDS/Dask | 12x DGX a 100 6GB 및 320GB GPU 수로 정규화된 속도 향상

고품질의 고객 경험을 창출하든 더 나은 환자 결과를
제공하든 공급망을 간소화하든 상관없이 기업에는
AI 기반 인사이트를 제공할 수 있는 인프라가 필요합니다

인사이트 확보 시간의 단축과 AI의 ROI 가속화
데이터 사이언티스트의 생산성을 증대하고 부가 가 치가 없는 ROI를 줄일 수 있습니다. 컨셉에서 프로덕션까지 제품 개발 사이클을 가속화하고 DGX 전문가와 함께 문제점을 해결하세요.
모든 워크로드 규모에 맞는 인프라 배포 및 AI 운용
모든 AI 워크로드를 위한 하나의 시스템으로 간소화된 인프라 디자인과 용량 계획을 경험할 수 있습니다. 최고의 컴퓨팅 밀도 및 성능을 최소한의 공간에서 달성하세요. 컨테이너부터 칩까지 층마다 내장된 보안을 활용할 수 있습니다.
복잡하고 더 커진 데이터 사이언스 문제의 더욱더 빨라진 해결
즉시 실행할 수 있는 최적화된 AI 소프트웨어로 지루한 설정 및 테스트가 필요하지 않으며 전례없는 성능으로 더 빠른 반복 작업이 가능한 더 나은 모델을 더 일찍 확인할 수 있습니다. 또한 시스템 통합과 소프트웨어 엔지니어링에 소비되는 시간을 줄일 수 있습니다.

딥 러닝 애플리케이션을 설계하고 개발해 의료, 로보틱스 및
자율 주행 분야 등에서 혁신적인 변화를 이끄세요.

딥러닝 트레이닝 가속화
딥 러닝 신경망이 더욱 복잡 해짐에 따라 훈련 시간이 크게 증가하여 생산성이 낮아지고 비용이 높아집니다. NVIDIA의 딥 러닝 기술과 완전한 솔루션 스택은 AI 교육을 크게 가속화하여 더 짧은 시간에 더 깊은 통찰력을 얻고 상당한 비용을 절감하며 ROI 달성 시간을 단축합니다.
신속한 AI 애플리케이션 개발
이제 컴퓨터는 스스로 학습하고 생각할 수 있는 단계까지 왔습니다. 이로 인해 로봇, 의료, 자율 주행 차량 분야 등에서 혁신적인 기회가 생겨나고 있습니다. 딥 러닝 애플리케이션을 설계하고 개발하면 이러한 놀라운 기회를 직접 만나보실 수 있습니다.
NVIDIA® TensorRT™
NVIDIA Tensor 코어 GPU의 성능을 얻기 위한 핵심인 고성능 인퍼런스 플랫폼은 CPU로만 구성된 플랫폼과 비교해 최대 40배 높은 처리량을 제공하는 동시에 지연 시간을 최소화합니다. TensorRT를 사용하면 모든 프레임워크에서 시작하여 트레이닝한 신경망을 생산에서 빠르게 최적화, 검증 및 배포할 수 있습니다.
개발자를위한 NVIDIA AI Platform
GPU 가속 딥 러닝 프레임 워크는 사용자 지정 심층 신경망을 설계 및 훈련하는 유연성을 제공하고 Python 및 C / C ++와 같이 일반적으로 사용되는 프로그래밍 언어에 대한 인터페이스를 제공합니다. TensorFlow, PyTorch 등과 같은 모든 주요 딥 러닝 프레임 워크는 이미 GPU 가속화되어 있어 GPU 프로그래밍 없이 몇 분 만에 생산성을 높일 수 있습니다.

고도로 최적화된 머신 러닝
파이프라인을 통한 모델 정확도 개선

더 빠른 예측을 통한 더 나은 의사 결정
비즈니스는 머신 러닝을 사용하여 제품, 서비스 및 운영을 개선합니다. 비즈니스는 대량의 과거 데이터를 활용하여 고객 행동을 예측하고 내부 프로세스를 개선하기 위한 모델을 구축할 수 있습니다. 머신 러닝은 엔터프라이즈에 놀라운 가치를 제공하지만 오늘날의 CPU 기반 방식은 복잡성과 오버헤드를 가중시켜 비즈니스의 투자 수익을 감소시킬 수 있습니다.
최소화된 머신 러닝의 과제
모델 반복으로 인한 오버헤드 추가, 다운샘플링으로 모델의 정확도 감소 또는 모델 프로덕션화에 걸리는 시간 소모 등 최적화된 하드웨어와 소프트웨어를 결합하여 기존에 존재하던 머신 러닝의 복잡성과 비효율성이 사라지고 비즈니스에서 가속화된 머신 러닝의 성능을 활용할 수 있습니다.
더 나은 결과를 위한 가속 머신 러닝
고성능 처리 기능을 통해 테라바이트 단위의 데이터세트를 분석하여 더 정확한 결과를 도출하고 더 빠르게 보고할 수 있으며 모든 데이터를 활용하여 더 나은 비즈니스 의사 결정을 내리고, 조직의 성과를 개선하고, 고객의 요구를 더 잘 충족할 수 있습니다.
예산을 절감하는 최고의 효율성
CPU 기반 업계 표준보다 19배 빠른 솔루션으로 프로세스가 끝날 때까지 기다리는 시간은 줄이고 솔루션 반복과 테스트에 더 많은 시간을 할애할 수 있으며 CPU 기반 업계 표준보다 7배 비용 효율적인 솔루션을 갖춘 GPU 가속화로 예산을 최대한 활용할 수 있습니다.

Specification

  • GPU
    8x NVIDIA A100
    80 GB GPUs
    GPU Memory
    640 GB total
    Performance
    5 petaFLOPS AI
    10 petaOPS INT8
    System Power Usage
    6.5 kW max
  • CPU
    Dual AMD Rome 7742,
    128 cores total,2.25 GHz
    (base), 3.4 GHz (max boost)
    Software
    Ubuntu Linux OS Also
    supports: Red Hat Enterprise
    Linux CentOS
    NVIDIA NVSwitches
    6
    System Memory
    2 TB
  • System Weight
    271.5 lbs (123.16 kgs) max
    Packaged System Weight
    359.7 lbs (163.16 kgs) max
    System Dimensions (mm)
    Height: 264.0
    Width: 482.3 max
    Length: 897.1 max
    Operating Temperature Range
    5–30 ºC (41–86 ºF)
  • Networking
    8x SinglePort Mellanox ConnectX-6 VPI
    200Gb/s HDR InfiniBand
    2x Dual-Port Mellanox ConnectX-6 VPI
    10/25/50/100/200 Gb/s Ethernet
    Storage
    OS: 2x 1.92 TB M.2 NVME drives
    Internal Storage: 30 TB (8x 3.84 TB) U.2 NVMe drives

Information

  • 상품명
    NVIDIA DGX A100 640GB
    엔비디아코리아 정품
    KC 인증번호
    -
    정격전압 / 최대소비전력
    6.5 kW max
    출시년월
    2020/05
  • 제조자
    NVIDIA Corporation
    제조국
    China
    크기 (mm)
    264.0 x 482.3 x 897.1 max (HWL)
    정품 품질 보증
    3년 무상보증

[주]리더스시스템즈 고객지원센터 전화번호 : 1544-5130