NVIDIA® TESLA® V100 32GB
엔비디아 코리아 정품

Volta Architecture
NVIDIA Turing TensorCores 640
NVIDIA CUDA® Cores 5,120
Double-Precision Performance 7 TFLOPS
Single-Precision Performance 14 TFLOPS
Tensor Performance 112 TFLOPS
GPU Memory 32 GB HBM2
Memory Bandwidth 900 GB/sec

데이터시트 다운
제품이미지
NVIDIA ELITE PARTNER

인공지능의 핵심 엔비디아 볼타 아키텍처

기하급수적인 성능의 도약
AI를 필요로 하는 모든 산업 분야는 이러한 폭발적인 속도 향상을 통해 AI를 도입할 수 있게 되었습니다. 640개의 텐서 코어를 탑재한 Volta는 이전 세대인 NVIDIA Pascal™ 아키텍처보다 5배 이상 증가한 초당 100테라플롭스(TFLOPS) 이상의 딥 러닝 성능을 제공합니다.
최신 컴퓨터용 맞춤 설계
인류가 마주하고 있는 가장 중요한 도전 과제에는 연산과 데이터 과학 방면 모두에 가장 강력한 컴퓨팅 엔진이 필요합니다. 210억 개 이상의 트렌지스터를 장착한 Volta는 역사상 가장 강력한 GPU 아키텍처입니다. NVIDIA® CUDA® 및 Tensor 코어를 페어링하여 GPU에서 AI 슈퍼컴퓨터의 성능을 제공합니다.
빠른 솔루션 구현을 위한 확장성
Volta는 혁명적인 차세대 NVIDIA NVLink™ 고속 상호 연결 기술을 사용합니다. 이를 통해 이전 세대 NVLink에 비해 2배의 처리량을 제공합니다. 이 덕분에 더욱 개선된 모델과 데이터 병렬 접근법을 활용하는 강력한 확장성으로 절대적인 최고의 애플리케이션 성능을 달성했습니다.
GPU 가속 프레임워크 및 애플리케이션
Volta 최적화 CUDA와 함께 cuDNN, NCCL 및 TensorRT 등의 NVIDIA Deep Learning SDK 라이브러리를 사용하면 업계 최고의 프레임워크와 애플리케이션에서 Volta의 강력한 성능을 손쉽게 활용할 수 있습니다. 데이터 과학자와 연구자들은 이를 통해 그 어느 때보다 빠르게 발견에 도달할 수 있습니다.
새로운 수준의 성능
새로운 최대 효율 모드를 통해 데이터 센터는 기존 전력 예산 내에서 랙 당 최대 40% 더 높은 com-pute capacity를 달성할 수 있습니다. 이 모드에서 Tesla V100은 최대 처리 효율로 실행되어 절반의 전력 소비로 최대 80 %의 성능을 제공합니다.
보다 가속화된 작업속도
Tesla V100은 처음부터 프로그래밍 기능을 단순화 하기 위해 설계 되었습니다. 새로운 독립적인 스레드 스케줄링을 통해 finer-grain 동기화가 가능하며 소규모 작업 간에 리소스를 공유함으로써 GPU 활용도가 향상됩니다.
HBM2, 혁신적인 데이터 처리
900GB/s의 개선된 대역폭과 95 %의 높은 DRAM 이용 효율을 결합한 Tesla V100은 STREAM에서 측정한 Pascal GPU보다 1.5 배 더 높은 메모리 대역 폭을 제공합니다.
서버용 TESLA 데이터센터 GPU
NVIDIA® Tesla® GPU를 사용하여 높은 사양을 요구하는 HPC와 하이퍼스케일 데이터센터 워크로드를 가속화하십시오. 데이터 과학자와 연구자는 이제 에너지 탐사에서 딥 러닝에 이르는 다양한 응용 분야에서 기존의 CPU가 지원했던 수준보다 훨씬 더 빠르게 페타바이트급 데이터 주문을 파싱할 수 있습니다. Tesla 가속기는 이전보다 훨씬 빠른 속도로 더욱 큰 규모의 시뮬레이션을 실행하는 데 필요한 성능도 제공합니다. 게다가 Tesla는 가상 데스크톱, 애플리케이션, 워크스테이션에 최고의 성능과 사용자 밀도를 제공합니다.
TRAINING (트레이닝)
점점 더 복잡해지는 모델을 더욱 빠르게 트레이닝하는 것은 데이터 과학자의 생산성을 향상하고 AI 서비스를 보다 빠르게 제공하는데 매우 중요합니다. NVIDIA T4를 탑재한 서버는 그 성능을 활용하여 딥 러닝 트레이닝 시간을 몇 개월에서 몇 시간으로 단축할 수 있습니다.
INFERENCE (추론)
이미지, 음성, 비주얼 및 동영상 검색과 같은 새로운 데이터 요소가 등장함에 따라 추론은 수많은 AI 서비스의 중심에서 그에 대한 대답과 추천을 제공합니다. 단 한 개의 Tesla GPU를 장착한 서버가 싱글 소켓 CPU로만 구성된 서버보다 27배 높은 추론 처리량을 제공하여 비용을 대폭 절감할 수 있습니다.
지원 앱 및 프레임 워크
Tesla T4는 딥 러닝, HPC 및 그래픽을 위한 테슬라 데이터 센터 컴퓨팅 플랫폼의 주력 제품입니다. Tesla 플랫폼은 550가지 이상의HPC 애플리케이션과 모든 딥 러닝 프레임 워크를 가속화합니다. 데스크톱에서 서버, 클라우드 서비스에 이르기까지 모든 곳에서 사용이 가능하기 때문에 성능 향상 및 비용을 절감할 수 있습니다. NVIDIA Turing은 인공지능을 뒷받침하는 새로운 원동력이며, 모든 산업에서 혁신을 일으키고 있습니다. 이러한 AI의 다음 시대에선 암 근절, 지능형 고객 경험, 자율 주행 차량과 같은 인류의 혁신적인 프로젝트가 실현될 것입니다.

Package Contains

NVIDIA Tesla V100 32GB PCle Professional Graphics Card

Specification

  • Architecture
    Volta
    NVIDIA Turing Tensor Cores
    640
    NVIDIA CUDA® Cores
    5,120
    Double-Precision
    Performance
    7 TFLOPS
  • Single-Precision Performance
    14 TFLOPS
    Tensor Performance
    112 TOPS
    GPU Memory
    32 GB HBM2
    Memory Bandwidth
    900 GB/sec
  • ECC
    YES
    Interconnect Bandwidth
    32 GB/sec
    System Interface
    PCIe Gen3
    Form Factor
    PCle Full Height/
    Length
  • Max Power Comsumption
    250 W
    Thermal Solution
    Passive
    Compute APIs
    CUDA, DirectCompute, OpenCL™, OpenACC®

Information

  • 상품명
    NVIDIA Tesla V100 32GB PCle
    엔비디아 코리아 정품
    KC 인증번호
    MSIP-REM-NVA-PG500
    정격전압 / 최대소비전력
    12 V / 250 W
    출시년월
    2018/4
  • 제조자
    NVIDIA Corporation
    제조국
    China
    크기 (mm)
    -
    정품 품질 보증
    3년 무상보증

[주]리더스시스템즈 고객지원센터 전화번호 : 1544-5130