제품문의
제품과 관련하여 궁금하신 사항을
문의하기를 통해 해결하세요.
AI and Data Science
Data Center &
Cloud Computing
Design and
Visualization
Robotics &
Edge Computing
HPC-Performance
Computing
Self-Driving Vehicles
Ampere Architecture
RT Cores 10
Peak FP32 4.5 TF
TF32 Tensor Core 9 TF | 18 TF¹
BFLOAT16 TensorCore 18 TF | 36 TF
Peak FP16 Tensor Core 18 TF | 36 TF
Peak INT8 Tensor Core 36 TOPS | 72 TOPS
Peak INT4 Tensor Core 72 TOPS | 144 TOPS
Media engines 1 video encoder,
2 video decoders (includes AV1 decode)
GPU memory 16GB GDDR6
GPU memory bandwidth 200GB/s
딥 러닝 워크스테이션 솔루션을 통해 작업 공간에서 편리하게 AI 슈퍼 컴퓨팅 성능을 활용하고 NGC에서 필요한 모든 딥 러닝 소프트웨어를 사용할 수 있습니다. 이제 딥 러닝을 필요로 하는 누구든지 데스크 사이드 딥 러닝을 시작할 수 있습니다.
딥러닝 솔루션 바로가기 >모든 엔터프라이즈에서 물리적 데이터센터를 구축할 필요 없이 손쉽게 대규모 컴퓨팅 성능에 액세스할 수 있습니다. AI, 고성능 컴퓨팅(HPC) 및 의료 영상 활용, 차세대 그래픽 기술 적용 등 워크로드 전반에서 최고 성능을 경험할 수 있습니다.
클라우드 컴퓨팅 솔루션 바로가기 >GPU 가속 데이터센터는 원하는 규모와 더 적은 수의 서버로 컴퓨팅 및 그래픽 워크로드에 혁신적인 성능을 제공하여 더 빠르게 정보를 얻고 비용을 획기적으로 절감할 수 있습니다. 가장 복잡한 딥 러닝 모델을 트레이닝하여 가장 심각한 문제를 해결하세요.
온 프레미스 솔루션 바로가기 >현대 기업은 이제 수 십억 개의 IoT 센서를 통해 생성 된 데이터를 활용해 더 빠른 통찰력과 시간과 비용 절감을 할 수 있습니다. 실시간으로 결정을 내리고 강력하고 분산 된 컴퓨팅과 안전하고 간단한 원격 관리 및 업계 최고 기술과의 호환성을 기대할 수 있습니다.
엣지 컴퓨팅 솔루션 바로가기 >A2의 3세대 Tensor 코어는 정수 연산(INT4까지)과 부동 소수점 연산(FP32)을 지원하여 높은 AI 교육 및 추론 성능을 제공합니다. NVIDIA Ampere 아키텍처는 TF32 및 NVIDIA의 자동 혼합 정밀도(AMP) 기능도 지원합니다.
에지 배포 및 엔드포인트에 보안을 제공하는 것은 엔터프라이즈 비즈니스 운영에 매우 중요합니다. A2는 선택적으로 신뢰할 수 있는 코드 인증 및 강화된 롤백 보호를 통해 보안 부팅을 지원하여 악성 맬웨어 공격으로부터 보호합니다.
A2에는 획기적인 속도로 획기적인 기술을 가능하게 하는 레이 트레이싱을 위한 전용 RT 코어가 포함되어 있습니다. 이전 세대에 비해 최대 2배의 처리량과 셰이딩 또는 노이즈 제거 기능과 함께 레이 트레이싱을 동시에 실행할 수 있는 기능을 제공합니다.
비디오 애플리케이션의 기하급수적인 성장은 실시간으로 확장 가능한 성능을 요구하며 최신 하드웨어 인코딩 및 디코딩 기능이 필요합니다. A2 GPU는 전용 하드웨어를 사용하여 H.265, H.264, VP9 및 AV1 디코딩을 포함하여 가장 널리 사용되는 코덱에 대한 비디오 디코딩 및 인코딩을 완전히 가속화합니다.
AI 및 데이터 분석 소프트웨어의 종단 간 클라우드 네이티브 제품군 NVIDIA AI Enterprise는 VMware vSphere를 사용하는 하이퍼바이저 기반 가상 인프라의 A2에서 실행되도록 인증되었습니다.
이를 통해 하이브리드 클라우드 환경에서 AI 워크로드를 관리하고 확장할 수 있습니다. 완전한 NVIDIA 플랫폼은 데이터 센터에서 에지에 이르기까지 어디에서나 사용할 수 있으므로 극적인 성능 향상과 비용 절감 기회를 모두 제공합니다.
딥 러닝 신경망이 복잡해짐에 따라, AI 트레이닝 시간이 상당히 증가하면서 생산성이 저하되고 비용은 증가하게 되었습니다. NVIDIA GPU는 트레이닝을 가속화하여 보다 짧은 기간에 깊이 있는 정보를 얻음으로써 비용 및 기간을 단축하도록 합니다.
추론은 트레이닝을 마친 신경망이 실질적으로 역할을 수행하는 영역입니다. 이미지, 음성, 비주얼 및 동영상 검색과 같은 새로운 데이터 요소가 등장함에 따라 추론은 수많은 AI 서비스의 중심에서 그에 대한 대답과 추천을 제공합니다.
광범위한 분야에서 700개 이상의 애플리케이션이 GPU 컴퓨팅에 의해 가속화되며 이러한 애플리케이션을 개발, 최적화 및 배포하는데 C, C++, Fortran 및 Python 등의 인기 있는 언어가 사용되어 과학적 발견의 길을 닦고 있습니다.
AI, 실시간 레이 트레이싱, 그래픽 기술의 발전으로 IT 팀은 CPU 기반 솔루션이 요구하는 가장 효율적인 비용, 공간, 전력 요구 사항에 맞춰 광범위한 워크로드를 처리할 수 있는 서버를 배포할 수 있습니다.
AI 추론은 스마트한 실시간 경험으로 소비자의 삶을 향상시키고 수조 개의 종단점 센서와 카메라에서
인사이트를 얻기 위해 배포됩니다. CPU 전용 서버와 비교할 때
NVIDIA A2 Tensor 코어 GPU가
탑재된 엣지 및 엔트리급 서버는 추론 성능을 최대 20배 수준으로 향상하여
최신 AI를 처리할 수 있도록 모든 서버를 즉시 업그레이드합니다.
Inference Speedup
Inference Speedup
Inference Speedup
시스템 구성: [CPU: HPE DL380 Gen10 Plus, 2S Xeon Gold 6330N @2.2GHz, 512GB DDR4] / NLP: BERT-Large (Sequence length: 384, SQuAD: v1.1) | TensorRT 8.2, Precision: INT8, BS:1 (GPU) | OpenVINO 2021.4, Precision: INT8, BS:1 (CPU)
Text-to-Speech: Tacotron2 + Waveglow end-to-end pipeline (input length: 128) | PyTorch 1.9, Precision: FP16, BS:1 (GPU) | PyTorch 1.9, Precision: FP32, BS:1 (CPU)
컴퓨터 비전: EfficientDet-D0 (COCO, 512x512) | TensorRT 8.2, Precision: INT8, BS:8 (GPU) | OpenVINO 2021.4, Precision: INT8, BS:8 (CPU)
NVIDIA A2 GPU가 장착된 서버는 스마트 시티, 제조 및 리테일 분야를 포함한 지능형 엣지 사용 사례에서
최대 XXX의 더 높은 성능을 제공합니다.
IVA 워크로드를 실행하는 NVIDIA A2 GPU로 가속화된 서버는
이전 GPU 세대보다 더 효율적인 배포를 제공하며, 달러당 최대 1.6배 더 나은 성능과 10% 더 나은 에너지 효율성을 제공합니다.
시스템 구성: [Supermicro SYS-1029GQ-TRT, 2S Xeon Gold 6240 @2.6GHz, 768GB DDR4, NVIDIA A2 1개 또는 NVIDIA T4 1개] | 성능은 Deepstream 5.1로 측정되었습니다.
네트워크: ShuffleNet-v2(224x224), MobileNet-v2(224x224). | 파이프라인은 영상 캡처 및 디코딩, 전처리, 배치, 추론, 후처리를 아우르는 종단 간 성능을 나타냅니다.
NVIDIA A2는 5G 엣지 및 산업 환경과 같은 공간 및 열 요구 사항의 제약을 받는 엔트리급 서버의 추론 워크로드 및 배포에 최적화되어 있습니다. A2는 60W에서 40W에 이르는 TDP의 저전력 포락선에서 작동하는 로우 프로필 폼 팩터를 제공하므로 모든 서버에 이상적입니다.
TDP Operating Range (Watts)