NVIDIA DGX A100 320GB
엔비디아코리아 정품

Ampere Architecture
8x NVIDIA A100 40 GB GPUs
GPU Memory 320 GB Total
System Memory 1 TB
CPU : Dual AMD Rome 7742, 128 cores total,
2.25 GHz (base), 3.4 GHz (max boost)
OS: 2x 1.92TB M.2
NVME drives Internal Storage:
15 TB (4x 3.84 TB) U.2 NVMe drive
Performance : 5 petaFLOPS AI
10 petaOPS INT8

데이터시트 다운
NVIDIA DGX A100 320GB
  • 가장 빠른 솔루션 구축

    NVIDIA A100 Tensor 코어 GPU에 구축된 AI 시스템입니다. 8개의 A100 GPU와 320GB의 GPU 메모리를 탑재한 이 시스템은 전례 없는 가속을 제공하며 NVIDIA CUDA-X 소프트웨어와 엔드 투 엔드 NVIDIA 데이터 센터 솔루션 스택에 완전히 최적화되어 있습니다.

  • 내장형 보안

    자체 암호화 드라이브, 서명된 소프트웨어 컨테이너, 안전한 관리 및 모니터링 등 모든 주요 하드웨어 및 소프트웨어 구성 요소를 보호하는 다단계 접근 방식으로 AI 배포를 위한 가장 든든한 보안 방식을 제공합니다.

  • 모든 AI 워크로드를 위한 유니버설 시스템

    분석에서 훈련과 추론에 이르기까지 NVIDIA DGX A100은 모든 AI 인프라를 위한 유니버설 시스템입니다. 6U 폼 팩터에 5페타플롭스의 AI 성능을 갖추고, 레거시 인프라 사일로를 모든 AI 워크로드에 사용 가능한 단일 플랫폼으로 대체한 NVIDIA DGX A100은 컴퓨팅 밀도에 새로운 기준을 제시합니다.

  • 엔터프라이즈를 위한 이더넷 네트워크 탑재

    NVIDIA ConnectX-7 InfiniBand 이더넷 네트워크 어댑터가 탑재되어 있습니다. 최대 양방향 대역폭은 500GB/s입니다. 이는 DGX A100을 엔터프라이즈에서 확장 가능한 AI 인프라의 청사진인 NVIDIA DGX SuperPOD 같은 대형 AI 클러스터의 기초 구성 요소이게 하는 많은 기능 중 하나입니다.

리더스시스템즈에서 제공하는 데이터 센터를 위한 맞춤형 솔루션

  • 워크스테이션 딥 러닝 솔루션

    딥 러닝 워크스테이션 솔루션을 통해 작업 공간에서 편리하게 AI 슈퍼 컴퓨팅 성능을 활용하고 NGC에서 필요한 모든 딥 러닝 소프트웨어를 사용할 수 있습니다. 이제 딥 러닝을 필요로 하는 누구든지 데스크 사이드 딥 러닝을 시작할 수 있습니다.

  • GPU 클라우드 컴퓨팅 솔루션

    모든 엔터프라이즈에서 물리적 데이터센터를 구축할 필요 없이 손쉽게 대규모 컴퓨팅 성능에 액세스할 수 있습니다. AI, 고성능 컴퓨팅(HPC) 및 의료 영상 활용, 차세대 그래픽 기술 적용 등 워크로드 전반에서 최고 성능을 경험할 수 있습니다.

  • 온 프레미스 딥 러닝 솔루션

    GPU 가속 데이터센터는 원하는 규모와 더 적은 수의 서버로 컴퓨팅 및 그래픽 워크로드에 혁신적인 성능을 제공하여 더 빠르게 정보를 얻고 비용을 획기적으로 절감할 수 있습니다. 가장 복잡한 딥 러닝 모델을 트레이닝하여 가장 심각한 문제를 해결하세요.

  • 엣지 컴퓨팅 솔루션

    현대 기업은 이제 수 십억 개의 IoT 센서를 통해 생성 된 데이터를 활용해 더 빠른 통찰력과 시간과 비용 절감을 할 수 있습니다. 실시간으로 결정을 내리고 강력하고 분산 된 컴퓨팅과 안전하고 간단한 원격 관리 및 업계 최고 기술과의 호환성을 기대할 수 있습니다.

비교할 수 없는 가속화를 제공하는 Ampere 아키텍쳐

  • 3세대 Tensor 코어

    새로운 Tensor Float 32(TF32) 정밀도는 이전 세대에 비해 5배의 트레이닝 처리량을 제공하여 코드를 변경하지 않아도 AI 및 데이터 사이언스 모델 트레이닝을 가속화합니다. 구조적 희소성에 대한 하드웨어 지원은 추론을 위한 처리량을 두 배로 높입니다.

  • MIG (Multi-Instance GPU)

    모든 애플리케이션에 A100 GPU의 전체 성능이 필요한 것은 아닙니다. MIG를 통해 각 A100은 자체 고대역폭 메모리, 캐시, 컴퓨팅 코어로 하드웨어 수준에서 완전히 격리되고 보호되는 무려 7개의 GPU 인스턴스로 분할될 수 있습니다.

  • 구조적 희소성

    매개변수가 정확한 예측과 추론에 모두 필요한 것은 아니므로, 일부는 정확성을 감소시키지 않고 모델을 “희소”하게 만들기 위해 0으로 변환할 수 있습니다. A100의 Tensor 코어는 희소한 모델에 대해 최대 2배 높은 성능을 제공할 수 있습니다.

  • 더 스마트하고 빠른 메모리

    A100은 데이터센터에 방대한 양의 컴퓨팅을 제공합니다. 이러한 컴퓨팅 엔진의 활용도를 완전하게 유지하기 위해 업계 최고 수준인 1.5TB/s의 메모리 대역폭을 보유하여 이전 세대에 비해 67% 증가했습니다.

  • 3세대 NVIDIA NVLink

    GPU 간 인터커넥트 대역폭이 증가되어 그래픽 및 컴퓨팅 워크로드를 가속화하고 보다 규모가 큰 데이터 세트를 처리하는 하나의 확장 가능 메모리를 제공합니다.

  • 2세대 NVIDIA NVSwitch

    단일 서버에서 더 많은 GPU를 지원하며 GPU 사이에 완전한 대역폭 연결성을 보장하는 GPU 패브릭으로 딥 러닝 성능을 다음 단계로 끌어올립니다. 각 GPU의 NVLink 12개가 NVSwitch로 완전히 연결되어 올투올(All-to-all) 고속 통신을 지원합니다.

NVIDIA DGX™ 시스템은 모든 규모의 엔터프라이즈 AI 인프라를 위한 세계 최고의 솔루션을 제공합니다.

  • NVIDIA DGX Station™ AI 워크그룹 어플라이언스

    데이터 센터 없이 실험과 개발을 위한 서버 급의 성능을 제공하는 이상적인 plug-and-go AI 시스템

  • NVIDIA DGX Servers
    AI 트레이닝, 추론 및 분석

    다양한 서버 솔루션을 통한 가장 복잡한 AI 과제를 처리가 가능한 슈퍼컴퓨터의 핵심 구성 요소

  • NVIDIA DGX POD™
    확장된 AI 인프라 솔루션

    스토리지, 컴퓨팅, 네트워킹 분야의 업계 리더와 함께 구축한 업계 표준 AI 인프라 디자인

  • NVIDIA DGX SuperPOD™
    턴키 AI 인프라

    대규모 AI Enterprise를 위한 가장 빠른 길을 제공하는 업계 최고의 Full-cycle 인프라

AI 시대를 위한 워크그룹 어플라이언스를 통해
더욱 빠르게 반복하여 혁신하세요.

  • 추론 | RNN-T 추론: 단일 스트림 AI 추론을 위한 최대 1.25배 높은 처리량
    이미지
    초당 시퀀스 수 - 상대적 성능

    (1/7) MIG 슬라이스로 측정한 MLPerf 0.7 RNN-T.
    프레임워크: TensorRT 7.2, 데이터 집합 = LibriSpeech, 정밀도 = FP16.

  • 추론 | RNN-T 추론: 단일 스트림 AI 추론을 위한 최대 1.25배 높은 처리량
    이미지
    초당 시퀀스 수 - 상대적 성능

    (1/7) MIG 슬라이스로 측정한 MLPerf 0.7 RNN-T.
    프레임워크: TensorRT 7.2, 데이터 집합 = LibriSpeech, 정밀도 = FP16.

  • 추론 | RNN-T 추론: 단일 스트림 AI 추론을 위한 최대 1.25배 높은 처리량
    이미지
    초당 시퀀스 수 - 상대적 성능

    (1/7) MIG 슬라이스로 측정한 MLPerf 0.7 RNN-T.
    프레임워크: TensorRT 7.2, 데이터 집합 = LibriSpeech, 정밀도 = FP16.

AI 배포 및 워크플로우 간소화를 위한 NVIDIA DGX™ 지원 소프트웨어 프로그램

  • NVIDIA® NGC™ 카달로그

    데이터 사이언스 및 AI를 발전시키기 위해 조직은 클라우드 및 데이터 센터에서 에지에 이르기까지 GPU 기반 시스템을 최적화 할 수 있는 도구에 액세스해야합니다. NVIDIA NGC카달로그는 모든 최신 워크로드를 포괄하여 IT 관리자, 데이터 과학자, DevOps 팀 및 개발자가 필요한 항목에 빠르고 쉽게 접근할 수 있습니다.

  • NVIDIA® CUDA® Toolkit

    NVIDIA CUDA® Toolkit은 고성능 GPU 가속 응용 프로그램을 만들기 위한 개발 환경을 제공합니다. CUDA 툴킷을 사용하면 GPU 가속 임베디드 시스템, 데스크탑 워크 스테이션, 노트북 엔터프라이즈 데이터 센터 및 클라우드 기반 플랫폼에서 애플리케이션을 개발, 최적화 및 배포할 수 있습니다.

  • NVIDIA® Magnum IO™

    병렬의 비동기식 지능형 데이터센터 IO를 위한 아키텍처로, 멀티 GPU, 멀티 노드 가속화를 위해 스토리지 및 네트워크 IO 성능을 극대화합니다. 스토리지 IO, 네트워크 IO, 인-네트워크 컴퓨팅 및 IO 관리를 활용하여 멀티 GPU, 멀티 노드 시스템을 위한 데이터 이동, 액세스 및 관리를 단순화하고 가속화합니다.

  • NVIDIA® CUDA-X AI

    CUDA-X AI는 딥 러닝, 머신 러닝 및 HPC를 위한 필수 최적화를 제공하는 NVIDIA의 획기적인 병렬 프로그래밍 모델인 CUDA® 위에 구축된 소프트웨어 가속화 라이브러리 컬렉션입니다. cuDNN, cuML, NVIDIA® TensorRT™, cuDF, cuGraph 및 13개 이상의 기타 라이브러리가 포함됩니다.

AI 문제를 해결하는 가장 간단하고 빠른 NVIDIA AI STARTER KIT

NVIDIA AI 스타터 키트는 세계적인 수준의 AI 플랫폼에서 부터 최적화된 소프트웨어 및 도구를 거쳐 컨설팅 서비스에 이르는 모든 것을 팀에게 제공함으로 AI 이니셔티브를 빠르게 시작할 수 있습니다. AI 플랫폼을 구축에 시간과 비용을 최소화 하세요. 하루 안에 설치 및 가동하고, 일주일 안에 사용 사례를 정의하고, 보다 빠르게 모델을 상용화할 수 있습니다.

이미지

Specifications

GPU 8x NVIDIA A100 40 GB GPUs
GPU Memory 320GB total
Performance 5 petaFLOPS AI / 10 petaOPS INT8
NVIDIA NVSwitches 6
System Power Usage 6.5 kW max
CPU Dual AMD Rome 7742, 128 cores total, 2.25 GHz (base), 3.4 GHz (max boost)
System Memory 1TB
Networking
  • Up to 8x SinglePort Mellanox ConnectX-6 VPI 200Gb/s HDR InfiniBand
  • Up to 1x Dual-Port Mellanox ConnectX-6 VPI 10/25/50/100/200 Gb/s Ethernet
Storage
  • OS: 2x 1.92 TB M.2 NVME drives
  • Internal Storage: 15 TB (4x 3.84 TB) U.2 NVMe drives
Software Ubuntu Linux OS Also supports : Red Hat Enterprise Linux CentOS
System Weight 271.5 lbs (123.16 kgs) max
Packaged System Weight 359.7 lbs (163.16 kgs) max
System Dimensions
  • Height : 264.0 mm
  • Width : 482.3 mm (max)
  • Length : 897.1 mm (max)
Operating Temperature Range 5-30 ºC (41-86 ºF)

Information

상품명 NVIDIA DGX A100 320GB 엔비디아코리아 정품
KC 인증번호 -
정격전압 / 최대소비전력 6.5 kW max
정품 품질 보증 3년 무상보증
출시년월 2020/05
제조사 NVIDIA Corporation
제조국 중국
크기 264.0 x 482.3 x 897.1 max (HWL)

제품문의

제품과 관련하여 궁금하신 사항을
문의하기를 통해 해결하세요.

문의 바로가기

기술지원 문의

A/S 서비스 및 기술지원 관련하여
궁금하신 사항을 문의하기를 통해 해결하세요.

문의 바로가기

교육문의

딥러닝 교육 및 트레이닝 관련하여
궁금하신 사항을 문의하기를 통해 해결하세요.

문의 바로가기
맨위로가기