제품문의
제품과 관련하여 궁금하신 사항을
문의하기를 통해 해결하세요.
AI and Data Science
Data Center &
Cloud Computing
Design and
Visualization
Robotics &
Edge Computing
HPC-Performance
Computing
Self-Driving Vehicles
NVIDIA Ampere Architecture
CUDA Cores 6,912 / Tensor Cores 432
Single-Precision Performance 19.5 TFLOPS
Double-Precision Performance 9.7 TFLOPS
Peak Tensor Performance 623.8 TFLOPS
GPU Memory 40GB HBM2
Memory Interface 5,120-bit
Memory Bandwidth 1.5 TB/s
System Interface PCI Express 4.0 x 16
NVIDIA NVLink Yes / NVLink Bandwidth 400GB/s
Maximum Power Consumption 240W
NVIDIA Ampere 아키텍처 기반 GPU로 구동되는 초고속 온보드 그래픽 카드로 6,912개의 CUDA 코어, 432개의 Tensor 코어로 더 빠른 실사 광선 추적 렌더링과 모션 블러 렌더링 및 AI 개발 및 교육 워크로드에 필요한 성능을 제공합니다.
개발자 워크스테이션용 A800 40GB Active GPU에는 NVIDIA AI Enterprise 소프트웨어, 동급 최고의 AI 도구, 엔터프라이즈급 보안 및 지원으로 AI 개발을 강화하는 기능이 포함 됐으며, 데이터 과학, 교육 및 추론 분야에서 즉시 사용 가능한 최고의 성능을 제공합니다.
디스플레이 기능을 지원하고 시각적 애플리케이션을 위한 고성능 그래픽을 제공하기 위해 A800의 컴퓨팅 기능은 NVIDIA RTX 가속 GPU와 짝을 이루도록 설계되었습니다. RTX A4000 및 T1000 GPU는 모두 A800 40GB Active와 함께 실행되도록 인증되었으며 단일 슬롯 폼 팩터에서 강력한 실시간 광선 추적 및 AI 가속 그래픽 성능을 제공합니다.
다양한 시스템에 맞는 로우 프로파일 디자인을 갖춘 NVIDIA NVLink 브리지를 통해 2개의 RTX A800을 연결할 수 있습니다. A800 GPU를 NVIDIA NVLink 와 연결하면 유효 메모리 공간을 80GB까지 늘리고 최대 400GB/s(양방향)의 속도로 GPU 간 데이터 전송을 지원하여 애플리케이션 성능을 확장할 수 있습니다.
딥 러닝 워크스테이션 솔루션을 통해 작업 공간에서 편리하게 AI 슈퍼 컴퓨팅 성능을 활용하고 NGC에서 필요한 모든 딥 러닝 소프트웨어를 사용할 수 있습니다. 이제 딥 러닝을 필요로 하는 누구든지 데스크 사이드 딥 러닝을 시작할 수 있습니다.
딥러닝 솔루션 바로가기 >모든 엔터프라이즈에서 물리적 데이터센터를 구축할 필요 없이 손쉽게 대규모 컴퓨팅 성능에 액세스할 수 있습니다. AI, 고성능 컴퓨팅(HPC) 워크로드 전반에서 최고 성능을 경험할 수 있습니다.
클라우드 컴퓨팅 솔루션 바로가기 >GPU 가속 데이터센터는 원하는 규모와 더 적은 수의 서버로 컴퓨팅 및 그래픽 워크로드에 혁신적인 성능을 제공하여 더 빠르게 정보를 얻고 비용을 획기적으로 절감할 수 있습니다. 가장 복잡한 딥 러닝 모델을 트레이닝하여 가장 심각한 문제를 해결하세요.
온 프레미스 솔루션 바로가기 >현대 기업은 이제 수 십억 개의 IoT 센서를 통해 생성 된 데이터를 활용해 더 빠른 통찰력과 시간과 비용 절감을 할 수 있습니다. 실시간으로 결정을 내리고 강력하고 분산 된 컴퓨팅과 안전하고 간단한 원격 관리 및 업계 최고 기술과의 호환성을 기대할 수 있습니다.
엣지 컴퓨팅 솔루션 바로가기 >NVIDIA A800 40GB Active GPU를 통해 워크스테이션에 슈퍼컴퓨터의 성능을 제공하고 End-to-End 데이터 사이언스 워크플로우를 가속화할 수 있습니다. NVIDIA Ampere 아키텍처를 기반으로 하는 NVIDIA A800 40GB Active는 강력한 컴퓨팅, 고속 메모리 및 확장성을 제공하므로 데이터 전문가는 가장 까다로운 데이터 사이언스, AI 및 HPC 워크로드에 대처할 수 있습니다. NVIDIA A800 40GB Active (디스플레이용 컴패니언 GPU 포함)를 설정하고 NVIDIA AI Enterprise 라이선스를 활성화 해보세요.
암페어 아키텍쳐의 CUDA 코어는 향상된 단정밀도 부동 소수점(FP32) 연산 및 전력 효율성으로 복잡한 3D CAD 및 CAE와 같은 그래픽 및 시뮬레이션 워크플로우의 성능을 크게 향상시킵니다.
동급 최고의 1.5TB/s 메모리 대역폭(이전 세대에 비해 70% 이상 증가)과 40MB 레벨 2 캐시를 포함하여 훨씬 더 많은 온칩 메모리를 갖춘 40GB의 고속 HBM2 메모리로 엄청난 컴퓨팅 처리량을 제공합니다. 가장 컴퓨팅 집약적인 AI 및 HPC 워크로드를 가속화합니다.
PCIe Gen 3의 대역폭을 2배로 증가시켜 AI 및 데이터 사이언스와 같은 데이터 집약적인 작업을 위한 CPU 메모리의 데이터 전송 속도를 개선합니다.
배정밀도(FP64) 및 Tensor Float 32(TF32) 정밀도를 지원하는 광범위한 AI 및 HPC 애플리케이션에 대한 성능과 다양성은 이전 세대에 비해 최대 2배 향상된 성능과 효율성을 제공합니다. 구조적 희소성에 대한 하드웨어 지원은 추론 처리량을 두 배로 늘립니다.
NVIDIA 가상 GPU(vGPU) 소프트웨어를 통한 차세대 개선 기능으로 원격 사용자를 위한 보다 대규모의 더욱 강력한 가상 워크스테이션 인스턴스가 가능하여 하이엔드 디자인, AI 및 컴퓨팅 워크로드를 위한 대규모 워크플로우가 지원됩니다.
증가된 GPU-GPU 상호 연결 대역폭은 확장 가능한 단일 메모리를 제공하여 컴퓨팅 워크로드를 가속화하고 더 큰 데이터 세트를 처리합니다. 한 쌍의 NVIDIA A800 40GB Active GPU를 NVIDIA NVLink와 연결하면 유효 메모리 공간을 80GB까지 늘리고 최대 400GB/s(양방향)의 속도로 GPU 간 데이터 전송을 지원하여 애플리케이션 성능을 확장할 수 있습니다.
전용 고대역폭 메모리, 캐시 및 컴퓨팅 코어를 통해 하드웨어 수준에서 완전히 격리되고 안전한 멀티 테넌시를 제공합니다. MIG (멀티 인스턴스 GPU)는 GPU 가속 인프라의 활용도를 극대화하여 A800 40GB Active GPU를 최대 7개의 독립 인스턴스로 분할하여 여러 사용자가 GPU 가속에 액세스할 수 있도록 합니다.
A800은 완전한 NVIDIA 데이터센터 솔루션의 일부로, 다양한 하드웨어, 네트워킹, 소프트웨어, 라이브러리 및 NGC™의 최적화된 AI 모델과 애플리케이션에 걸쳐 빌딩 블록을 통합합니다. 연구원은 데이터센터를 위한 가장 강력한 엔드 투 엔드 AI 및 HPC 플랫폼을 통해 실제 결과를 빠르게 제공하고 솔루션을 규모에 맞게 프로덕션에 배포할 수 있습니다.
또한 NVIDIA AI Enterprise 소프트웨어를 사용하면 NVIDIA-Certified Systems를 통해 VMware vSphere에서 실행되도록 NVIDIA가 최적화, 인증, 지원하는 AI 및 데이터 분석 소프트웨어의 엔드 투 엔드 클라우드 네이티브 제품군에 액세스할 수 있습니다. NVIDIA AI Enterprise에는 최신 하이브리드 클라우드에서 AI 워크로드의 빠른 배포, 관리 및 확장을 지원하는 NVIDIA의 주요 기반 기술이 포함되어 있습니다.
MIG 없이 동일한 GPU에서 서로 다른 AI 추론 요청 등의 다양한 작업을 실행하면 각 작업이 동일한 리소스를 두고 경쟁합니다. 더 큰 메모리 대역폭을 소비하는 작업이 다른 작업을 방해하여 일부 작업은 지연 시간 목표를 달성하지 못하는 결과가 발생합니다. MIG를 사용하면 컴퓨팅, 메모리, 메모리 대역폭을 위한 전용 리소스를 갖춘 서로 다른 인스턴스에서 작업이 동시에 실행되므로 서비스 품질을 통한 예측 가능한 성능과 GPU 사용률을 극대화할 수 있습니다.
컴퓨팅, 메모리, 캐시를 위한 전용 하드웨어 리소스 세트를 통해 각 MIG 인스턴스는 보장된 서비스 품질 및 결함 격리를 제공합니다. 따라서 하나의 인스턴스에서 실행되는 애플리케이션에 오류가 발생해도 다른 인스턴스에서 실행되는 애플리케이션에 영향을 주지 않습니다.
이는 또한 서로 다른 인스턴스에서 대화식 모델 개발, 딥 러닝 트레이닝, AI 추론, HPC 애플리케이션과 같은 서로 다른 유형의 워크로드를 실행할 수 있음을 의미합니다. 인스턴스가 병렬로 실행되므로 워크로드 역시 병렬로 실행되지만, 동일한 물리적 GPU에서 분리되고 격리됩니다.
7x 5GB / 3x 10GB / 2x 20GB / 1x 40GB
한 번에 하나의 인스턴스에서 가능
1x
제한된 옵션
-
예비 사양은 변경될 수 있습니다.
NVIDIA 가상 GPU(vGPU) 소프트웨어를 사용하면 그래픽이 풍부한 가상 워크스테이션에서 데이터 사이언스 및 AI에 이르는 워크로드를 위한 강력한 GPU 성능을 통해 IT 팀이 가상화의 관리 및 보안 이점뿐만 아니라 최신 워크로드에 필요한 NVIDIA GPU의 성능을 활용할 수 있게 됩니다. NVIDIA vGPU 소프트웨어는 클라우드 또는 엔터프라이즈 데이터센터 서버의 물리적 GPU에 설치되어 어디서든 원하는 디바이스에서 액세스 되는 여러 가상 머신에서 공유할 수 있는 가상 GPU를 만들어줍니다.
vGPU 소프트웨어 자세히 알아보기 >보유한 가상 GPU 소프트웨어
최신 상태로 유지 (갱신)
딥 러닝 신경망이 복잡해짐에 따라, AI 트레이닝 시간이 상당히 증가하면서 생산성이 저하되고 비용은 증가하게 되었습니다. NVIDIA GPU는 트레이닝을 가속화하여 보다 짧은 기간에 깊이 있는 정보를 얻음으로써 비용 및 기간을 단축하도록 합니다.
추론은 트레이닝을 마친 신경망이 실질적으로 역할을 수행하는 영역입니다. 이미지, 음성, 비주얼 및 동영상 검색과 같은 새로운 데이터 요소가 등장함에 따라 추론은 수많은 AI 서비스의 중심에서 그에 대한 대답과 추천을 제공합니다.
광범위한 분야에서 700개 이상의 애플리케이션이 GPU 컴퓨팅에 의해 가속화되며 이러한 애플리케이션을 개발, 최적화 및 배포하는데 C, C++, Fortran 및 Python 등의 인기 있는 언어가 사용되어 과학적 발견의 길을 닦고 있습니다.
기존의 데이터 사이언스 워크플로우는 느리고 까다로웠으며, 데이터를 로드, 필터링, 조작하고, 모델을 학습하고 배포하는 데 CPU에 의존해 왔습니다. GPU는 인프라 비용을 대폭 절감하고 엔드 투 엔드 데이터 사이언스 워크플로우에 탁월한 성능을 제공합니다.
NVIDIA A800 40GB Active GPU는 AI 교육 및 추론부터 복잡한 엔지니어링 시뮬레이션, 모델링 및 데이터 분석에 이르기까지 워크스테이션 플랫폼에서 가장 까다로운 워크플로우를 처리할 수 있는 놀라운 성능을 제공합니다. 이전 세대보다 2배 이상 향상된 성능을 갖춘 A800 40GB Active는 광범위한 컴퓨팅 집약적인 워크로드를 완벽하게 지원합니다.
ResNet-50 V1.5 교육. 배치 크기=256; 정밀도=혼합.
BERT 대규모 사전 훈련 단계 2 배치 크기=8; 정밀도=혼합.
GTC 버전 4.5, TAE, 정밀도=FP32.
LAMMPS 패치_2023년 2월 8일,
Atomic Fluid Lennard-Jones 2.5(컷오프); 정밀도=FP64.
ResNet-50 V1.5 추론. 배치 크기=128; 정밀도=혼합.
BERT 대규모 추론. 배치 크기=128; 정밀도=INT8.
A800 40GB Active 및 Quadro GV100 GPU와 Intel Xeon Gold 6126 프로세서를 사용한 성능 테스트
NVLink는 전문 애플리케이션의 멀티 GPU 구성을 통해 메모리와 성능을 쉽게 확장할 수 있게 합니다. 다양한 시스템에 맞는 로우 프로파일 디자인을 갖춘 NVIDIA NVLink 브리지를 통해 2개의 RTX A800을 연결할 수 있습니다. A800 GPU를 NVIDIA NVLink 와 연결하면 유효 메모리 공간을 80GB까지 늘리고 최대 400GB/s(양방향)의 속도로 GPU 간 데이터 전송을 지원하여 애플리케이션 성능을 확장할 수 있습니다.
NVLink / NVSwitch 자세히 알아보기 >NVIDIA A800 40GB Active GPU에는 즉시 생산 가능한 생성 AI, 컴퓨터 비전, 음성 AI 등의 신속한 개발 및 배포를 위한 엔드-투-엔드 엔터프라이즈 소프트웨어 플랫폼인 NVIDIA AI Enterprise 에 대한 3년 구독이 함께 제공됩니다. 소프트웨어 활성화가 필요합니다.
NVIDIA AI Enterprise에는 통찰력 확보 시간을 단축하는 데이터 과학 라이브러리와 도구가 포함되어 있습니다. 조직은 최대 50배 더 빠른 엔드투엔드 데이터 사이언스 파이프라인을 위해 NVIDIA RAPIDS™를 사용할 수 있습니다.
NVIDIA AI Enterprise는 데이터 준비 및 모델 훈련부터 추론 및 대규모 배포에 이르기까지 AI 여정의 모든 단계를 가속화합니다.
슈퍼컴퓨터의 성능을 데스크톱에 제공하는 NVIDIA RTX™ 기반 AI 워크스테이션으로 데이터 센터 리소스에 대한 수요를 줄여보세요. 최신 NVIDIA RTX GPU가 장착된 워크스테이션 플랫폼은 차세대 AI 증강 애플리케이션 및 모델을 구축, 훈련 및 배포할 수 있는 강력한 AI 성능을 제공합니다. 세계에서 가장 진보된 AI 플랫폼을 사용하여 개발, 훈련, 추론 워크로드를 가속화하고 대규모 배포를 단순화하세요.
NVIDIA RTX 기반 AI 워크스테이션에 대해 자세히 알아보기 >엔비디아코리아 정품 RTX/QUADRO®는 3년 무상 보증기간 동안 A/S 발생 시 전문 엔지니어의 신속한 원스톱 서비스와 지원을 제공하여 안심하고 제품을 사용할 수 있습니다.
엔비디아코리아 정품 RTX/QUADRO®만을 제공하며 광범위한 제품 포트폴리오와 서버 구축 및 유지보수, 교육 등의 포괄적인 서비스를 제공하여 고객의 비즈니스에 맞춤형 솔루션을 제공합니다.
엔비디아코리아 정품 RTX/QUADRO®는 전문적인 인증 및 워크스테이션 및 서버 OEM의 검증 등을 거쳐 안심하고 최첨단 기능과 성능을 제공합니다.
놀라운 산업 디자인에서 첨단 특수 효과와 복잡한 과학적 시각화에 이르기까지 NVIDIA RTX/ QUADRO®는 세계에서 가장 뛰어난 시각적 컴퓨팅 플랫폼입니다.
병행수입(OEM) GPU 같이 유통과정이 명확하지 않은 경로를 통해서 개별 수입된 제품은 소비자가 구입한 업체(쇼핑몰) 에서만 A/S 및 교환 & 환불이 가능하며, 엔비디아코리아를 통한 정품 A/S 기술 지원 혜택 및 보증을 받을 수 없습니다.
자세히 알아보기 >A/S 기술 지원 혜택 및 보증 기간은 제품박스와 정품카드, 그래픽카드에 있는 시리얼 넘버 조회를 통해 확인 가능합니다. 리더스시스템즈에 가입 후 시리얼번호 등록 페이지를 통해서 제품 등록 및 보증기간 조회가 가능합니다.
자세히 알아보기 >본 제품의 경우 제조사에서 생산/포장이 이루어진 완제품으로 출고 되므로 정품 박스 개봉 시 (TEAR 라인 개봉) 상품의 가치가 훼손된 것으로 분류되어 교환 및 환불이 불가합니다. 반드시 제품 개봉 전 신중한 구매 확인 및 주문한 상품이 맞는지 확인 부탁드립니다.
쿼드로센터 : 02-6080-8104
FP16 매트릭스 곱하기 FP16 또는 FP32 누적
A800 40GB Active에 대한 가상화 지원은 2023년 3분기로 예상되는 엔비디아 가상 GPU(VGPU) 릴리스에서 제공될 예정입니다.
A800 40GB Active에는 디스플레이 포트가 장착되어 있지 않습니다.
디스플레이 출력 기능을 지원하려면 NVIDIA RTX 4000 Ada Generation,
NVIDIA RTX A4000 또는 NVIDIA T1000 GPU가 필요합니다.
NVIDIA Al Enterprise 라이선스에 대한 3년 소프트웨어 구독 및 기업 지원, 활성화 필요