과학자, 연구원, 엔지니어들은 AI와 고성능 컴퓨팅(HPC)을 통해 세계에서 가장 중요한 과학, 산업, 빅 데이터 과제를 해결하려 노력하고 있습니다.
한편, 엔터프라이즈는 AI의 성능을 활용하여 온프레미스 및 클라우드 모두에서 대규모 데이터세트로 부터 새로운 인사이트를 끌어내려고 하고 있습니다.
탄력적인 컴퓨팅의 시대에 설계된 NVIDIA Ampere 아키텍처는 모든 규모에서 비교할 수 없는 가속화를 제공하여 또 한 번의 거대한 도약을 실현합니다.
NVIDIA A100 | NVIDIA Turing | NVIDIA Volta | |
---|---|---|---|
지원되는 Tensor 코어 정밀도 | FP64, TF32, bfloat16, FP16, INT8, INT4, INT1 | FP16, INT8, INT4, INT1 | FP16 |
지원되는 CUDA® Core 코어 정밀도 | FP64, FP32, FP16, bfloat16, INT8 | FP64, FP32, FP16, INT8 | FP64, FP32, FP16, INT8 |
데이터 사이언스는 AI의 주요 동력 중 하나이며 AI는 모든 산업을 혁신할 수 있습니다. 그러나 이러한 성능을 활용하는 것은 복잡한 문제입니다. AI 기반 애플리케이션을 개발하는 데는 데이터 처리, 기능 엔지니어링, 머신 러닝, 확인 및 배포 등 여러 단계가 필요하고 각 단계마다 대용량 데이터 처리와 방대한 컴퓨팅 작업이 포함됩니다. 이에는 가속화 컴퓨팅이 필요하고 바로 이 부분이 CUDA-X AI가 혁신을 주도하는 분야입니다.
AI 및 고성능 컴퓨팅(HPC)에서의 컴퓨팅 수요가 증가함에 따라 GPU 시스템이 함께 하나의 거대한 가속기 역할을 할 수 있도록 GPU 간의 원활한 연결이 가능한 멀티 GPU 시스템에 대한 필요성이 커지고 있습니다. 하지만 표준인 PCIe의 제한된 대역폭으로 인해 병목 현상이 발생하는 경우가 잦습니다. 가장 강력한 엔드 투 엔드 컴퓨팅 플랫폼을 구축하려면 속도와 확장성이 더욱 향상된 상호연결이 필요합니다.
NVLink GPU 간 연결을 지원하는 NVIDIA H100 PCIe
NVLink GPU 간 연결을 지원하는 NVIDIA H100 PCIe
2세대 | 3세대 | 4세대 | |
---|---|---|---|
총 NVLink 대역폭 | 300GB/s | 600GB/s | 900GB/s |
GPU별 최대 연결 수 | 6 | 12 | 18 |
지원되는 NVIDIA 아키텍처 | NVIDIA Volta™ 아키텍처 | NVIDIA Ampere 아키텍처 | NVIDIA Hopper™ 아키텍처 |
1세대 | 2세대 | 3세대 | |
---|---|---|---|
직접 연결/노드를 지원하는 GPU 수량 | 최대 8개 | 최대 8개 | 최대 8개 |
NVSwitch GPU 간 대역폭 | 300GB/s | 600GB/s | 900GB/s |
총 집계 대역폭 2.4TB/s | 2.4TB/s | 4.8TB/s | 7.2TB/s |
지원되는 NVIDIA 아키텍처 | NVIDIA Volta™ 아키텍처 | NVIDIA Ampere™ 아키텍처 | NVIDIA Hopper™ 아키텍처 |
서버 간 NVLink 및 NVSwitch | |
---|---|
직접 연결/노드를 지원하는 GPU 수량 | 최대 256개 |
NVSwitch GPU 간 대역폭 | 900GB/s |
총 집계 대역폭 2.4TB/s | 57.6TB/s |
인 네트워크 감소 | NVSwitch의 SHARP 감소 |
핵심 소프트웨어 지원 | CUDA®, CUDA-X™, Magnum IO™ |
지원되는 NVIDIA 아키텍처 | NVIDIA Hopper 아키텍처 |
획기적인 건축 및 산업 디자인부터 첨단 특수 효과와 복잡한 과학적 시각화까지 모두 아우르는 NVIDIA® RTX™는 세계 최고의 전문 비주얼 컴퓨팅 플랫폼입니다. 수백만 명에 이르는 크리에이티브 및 기술 사용자들에 의해 워크플로우를 가속화할 수 있는 제품으로 신뢰받고 있는 NVIDIA RTX 및 NVIDIA Quadro® 전문 솔루션은 오늘날의 엄청난 도전 과제를 미래의 비즈니스 성공으로 전환할 수 있습니다.