NVIDIA GB200 NVL72 엔비디아코리아 정품

  • GPUs: 72 NVIDIA Blackwell Ultra GPUs, 36 NVIDIA Grace CPUs
  • FP4 Tensor Core: 1,400 | 1,100 PFLOPS
  • FP8/FP6 Tensor Core: 720 PFLOPS
  • INT8 Tensor Core: 23 POPS
  • FP16/BF16 Tensor Core: 360 PFLOPS
  • TF32 Tensor Core: 180 PFLOPS
  • FP32: 6 PTFLOPS
NVIDIA GB200 NVL72 엔비디아코리아 정품

실시간 1조 매개 변수 추론 및 훈련을 위한 Blackwell 랙 스케일 아키텍처

GB200 NVL72는 36개의 Grace CPU와 72개의 Blackwell GPU를 랙 스케일 디자인으로 연결합니다. GB200 NVL72는 수냉식 랙 스케일 솔루션으로, 단일 대규모 GPU처럼 작동하는 72-GPU NV링크 도메인을 자랑하며 1조개 파라미터 LLM 추론을 위해 30배 빠른 실시간 성능을 제공합니다. GB200 Grace Blackwell 슈퍼칩은 NVIDIA GB200 NVL72의 핵심 구성 요소로, 두 개의 고성능 NVIDIA Blackwell Tensor 코어 GPU와 NVIDIA® NVLink®-C2C 인터커넥트를 사용하여 두 개의 Blackwell GPU에 NVIDIA Grace CPU를 연결합니다.

이미지
이미지

차세대 AI 및 가속 컴퓨팅 강화

GB200은 NVLink 도메인에서 36개 및 72개의 GPU를 지원합니다. 각 랙은 MGX 참조 설계 및 NVLink 스위치 시스템을 기반으로 18개의 컴퓨팅 노드를 호스팅합니다. 하나의 랙에 36개의 GPU와 9개의 듀얼 GB200 컴퓨팅 노드를 갖춘 GB200 NVL36 구성으로 제공됩니다. GB200 NVL72는 1개의 랙에 72개의 GPU와 18개의 듀얼 GB200 컴퓨팅 노드로 구성되거나, 18개의 단일 GB200 컴퓨팅 노드가 있는 2개의 랙에 72개의 GPU로 구성됩니다. GB200 NVL72는 작동 단순화를 위해 구리 케이블 카트리지를 사용하여 GPU를 촘촘하게 포장하고 상호 연결합니다. 또한 액체 냉각 시스템 설계를 사용하여 비용과 에너지 소비를 25배 절감합니다.

  • LLM Inference

    vs. NVIDIA H100 Tensor Core GPU
  • LLM Training

    vs. NVIDIA H100
  • Energy Efficiency

    vs. NVIDIA H100
  • Data Processing

    vs. CPU

LLM 추론 및 에너지 효율성: TTL = 50밀리초(ms) 실시간, FTL = 5초, 32,768 입력/1,024 출력, NVIDIA HGX™ H100 스케일 오버 InfiniBand(IB) 대 GB200 NVL72, 훈련 1.8T MOE 4096x HGX H100 스케일 오버 IB 대 456x GB200 NVL72 스케일 오버 IB. 클러스터 크기: 32,768 TPC-H Q4 쿼리에서 파생된 스내피/디플레이트 압축을 사용한 데이터베이스 병합 및 집계 워크로드. x86, H100 단일 GPU 및 GB200 NLV72의 단일 GPU와 Intel Xeon 8480+에 대한 사용자 맞춤형 쿼리 구현 비교 예상 성능은 변경될 수 있습니다.

  • 그래프 이미지

    그래프 분석

    NVIDIA Grace CPU 슈퍼칩은 Arm Neoeverse V2 코어를 맞춤형 NVIDIA Scaled Coherency 패브릭과 연결하여 코어 간 통신 및 동기화를 강조하는 GapBS Breadth First Search와 같은 워크로드에서 놀라운 성능을 제공합니다. NVIDIA Grace는 주요 x86 시스템 대비 서버 수준에서 2배 이상의 성능과 3배 향상된 에너지 효율을 제공합니다.

  • 그래프 이미지

    데이터 분석

    데이터가 계속 증가함에 따라 기업은 경쟁 우위를 확보하기 위해 데이터 학습을 극대화해야 합니다. HiBench 제품군은 지식 발견 및 데이터 마이닝을 위한 K-평균 클러스터링을 테스트하며, NVIDIA Grace CPU의 고대역폭 및 저전력 메모리를 활용합니다. Grace CPU는 현재 시중의 주요 x86 CPU보다 에너지 효율이 2배 이상 높습니다.

  • 그래프 이미지

    날씨

    기상 예측 모델은 고성능 컴퓨팅(HPC)의 중요한 활용 사례이며, 기후 변화로 인한 기상 패턴 변화를 이해하고 대응하는 데 필수적입니다. Grace CPU에 탑재된 고대역폭 및 전력 효율적인 LPDDR5X 메모리는 약 16W의 전력으로 최대 500GB/s의 대역폭을 제공하여 기존 x86 솔루션 대비 거의 2배 더 많은 작업을 동일한 전력 범위 내에서 수행할 수 있도록 합니다.

  • 그래프 이미지

    마이크로서비스

    마이크로서비스는 데이터 센터가 수요에 맞춰 쉽게 확장할 수 있도록 하는 소규모 독립 서비스들의 집합입니다. 또한 전체 애플리케이션에 영향을 주지 않고 개별 서비스를 관리할 수 있는 유연성을 제공합니다. Google Protobufs는 마이크로서비스 실행에 필수적인 시스템 간 데이터 교환에 필요한 데이터를 얼마나 빨리 직렬화하고 파싱할 수 있는지 측정합니다. NVIDIA Grace CPU의 고성능 및 전력 효율성은 데이터 센터 처리량을 극대화하는 최고의 성능과 전력 효율성을 제공합니다.

  • 이미지

    Blackwell 아키텍처

    NVIDIA Blackwell 아키텍처가 생성형 AI와 가속 컴퓨팅에 제공하는 획기적인 발전에 대해 알아보세요. 여러 세대에 걸친 NVIDIA 기술을 기반으로 구축된 Blackwell은 탁월한 성능, 효율성과 규모로 생성형 AI의 다음 장을 정의합니다. Blackwell 프로세서는 2,080억 개의 트랜지스터를 탑재하고 있으며 NVIDIA를 위해 맞춤 제작된 TSMC 4NP 프로세스를 사용하여 제조되었습니다.

  • 이미지

    NVIDIA Grace CPU

    NVIDIA Grace™는 막대한 양의 데이터를 처리하여 최대 에너지 효율성으로 인텔리전스를 생성하는 데이터센터를 위해 설계되었습니다. 이러한 데이터센터는 AI, 데이터 분석, 하이퍼스케일 클라우드 애플리케이션, 고성능 컴퓨팅(HPC) 같은 다양한 워크로드를 실행합니다. 데이터센터의 가장 까다로운 요구를 충족하며 오늘날 최고 수준의 서버에 비해 와트당 2배의 성능, 2배의 패키징 밀도, 가장 높은 메모리 대역폭을 제공합니다.

  • 이미지

    5세대 NVIDIA NVLink

    엑사스케일 컴퓨팅과 매개 변수가 조 단위인 AI 모델의 잠재력을 최대한 활용하려면 서버 클러스터 내의 모든 GPU 간 통신이 빠르고 원활해야 합니다. 5세대 NVIDIA® NVLink®는 수조 개의 매개 변수 AI 모델의 성능을 가속하는 확장형 인터커넥트 기술을 지원합니다. 단일 NVIDIA Blackwell Tensor 코어 GPU는 최대 18개의 NVLink 100GB/s 연결을 지원하여 1.8TB/s의 총 대역폭을 구현합니다.

  • 이미지

    NVIDIA 네트워킹

    데이터센터의 네트워크는 분산된 AI 모델 훈련 및 생성형 AI 성능의 중추 역할을 하며 AI의 발전과 성능을 주도하는 데 중요한 역할을 합니다. NVIDIA Quantum-X800 InfiniBand, NVIDIA Spectrum-X800 이더넷 및 NVIDIA BlueField-3 DPU는 최적의 애플리케이션 성능을 위해 수백수천 개의 Blackwell GPU에서 효율적인 확장성을 지원합니다.

NVIDIA AI로 가능해진 최신 혁신

가속화된 인프라, 엔터프라이즈급 소프트웨어 및 AI 모델 전반에 걸친 풀스택 혁신을 통해 모든 기업을 AI 조직으로 전환하세요. 전체 AI 워크플로우를 가속화함으로써 다양한 솔루션과 애플리케이션의 전반적인 비용을 절감하면서 프로젝트가 더 빠르게 운영 단계에 진입하고, 더 높은 정확도, 효율성 및 인프라 성능을 확보할 수 있습니다.

  • 에이전트 AI를 위한 빌딩 블록

    딥 러닝 신경망이 더욱 복잡 해짐에 따라 훈련 시간이 크게 증가하여 생산성이 낮아지고 비용이 높아집니다. NVIDIA의 딥 러닝 기술과 완전한 솔루션 스택은 AI 교육을 크게 가속화하여 더 짧은 시간에 더 깊은 통찰력을 얻고 상당한 비용을 절감하며 ROI 달성 시간을 단축합니다. 최신 추론 및 생성 AI 모델 에 최적화된 추론 성능을 확보하세요. NIM에는 NVIDIA® TensorRT™ , TensorRT-LLM 등 NVIDIA 및 커뮤니티에서 제공하는 가속 추론 엔진이 함께 제공되며, NVIDIA 가속 인프라에서 저지연, 고처리량 추론을 위해 사전 구축 및 최적화되었습니다.

    기업을 위한 AI 데이터 플랫폼

    NVIDIA AI 데이터 플랫폼은 엔터프라이즈 스토리지 선도업체들이 에이전트 AI 워크플로의 성능과 정확성을 향상시키기 위해 구축했습니다. 이 플랫폼은 NVIDIA Blackwell GPU, BlueField®-3 DPU, Spectrum™-X 네트워킹, 그리고 NVIDIA AI Enterprise 소프트웨어를 갖추고 있습니다.

    이미지
    • GPU로 데이터사이언스 워크플로우 가속화

      데이터 과학 워크플로는 전통적으로 느리고 복잡했으며, 데이터 로드, 필터링, 조작, 모델 학습 및 배포에 CPU에 의존했습니다. RAPIDS™ 오픈소스 소프트웨어 라이브러리를 포함한 NVIDIA AI 소프트웨어를 사용하면 GPU를 통해 인프라 비용을 크게 절감하고 엔드투엔드 데이터 과학 워크플로에 탁월한 성능을 제공할 수 있습니다. GPU 가속 데이터 과학은 노트북, 데이터 센터, 엣지, 클라우드 등 어디에서나 활용 가능합니다.

    • 더 빠르고 정확한 AI Inference

      AI 추론은 사전 학습된 AI 모델을 배포하여 새로운 데이터를 생성하는 과정이며, AI가 결과를 도출하고 모든 산업 분야에서 혁신을 촉진하는 곳입니다. AI 모델은 규모, 복잡성, 그리고 다양성 측면에서 빠르게 확장되고 있으며, 가능성의 경계를 넓히고 있습니다. AI 추론을 성공적으로 활용하려면 조직은 엔드 투 엔드 AI 수명 주기를 지원하는 풀스택 접근 방식과 새로운 확장 법칙 시대에 팀이 목표를 달성할 수 있도록 지원하는 도구가 필요합니다.

    • 대화형 AI 애플리케이션 구축

      대화형 AI 는 AI 가상 비서, 디지털 휴먼, 챗봇 등 자동화된 메시징 및 음성 지원 애플리케이션을 구동하는 기술로, 개인화되고 자연스러운 인간-기계 대화를 위한 혁신적인 길을 열어가고 있습니다. 하지만 이러한 기술은 유용성을 위해 정확성과 속도가 필수적입니다. 생성, 음성 및 번역을 위한 NVIDIA NIM™ 마이크로서비스를 포함한 NVIDIA의 대화형 AI 솔루션을 통해 개발자는 실시간 상호작용에 필요한 높은 정확도와 빠른 응답을 제공하는 최첨단 모델을 신속하게 구축하고 배포할 수 있습니다.

    • 이미지
    • 사이버 보안 AI 솔루션

      사이버 위협은 그 수와 정교함이 날로 증가하고 있습니다. NVIDIA는 기업이 AI와 가속 컴퓨팅을 통해 더욱 강력한 사이버 보안 솔루션을 제공하고, AI를 통해 위협 탐지를 강화하며, 생성적 AI를 통해 보안 운영 효율성을 높이고, 안전한 인프라를 통해 민감한 데이터와 지적 재산을 보호할 수 있도록 지원하는 독보적인 입지를 갖추고 있습니다. NVIDIA는 강력한 AI 프레임워크, 아키텍처, 그리고 모범 사례를 결합하여 제로 트러스트 및 확장 가능한 AI 데이터 센터를 구축하고, 고조되는 보안 위협에 맞서 사이버 보안을 강화합니다.

    • Generative AI

      생성형 AI는 텍스트, 이미지, 3D 모델 등 다양한 입력 데이터를 활용하여 콘텐츠, 솔루션, 그리고 인사이트를 생성하는 능력을 통해 산업에 혁신을 일으키고 있습니다. 이러한 다재다능함은 기업이 기본적인 자동화를 넘어 AI 에이전트를 활용하여 여러 단계의 문제를 해결하고 생산성을 향상시킬 수 있도록 지원합니다. 초기 생성형 AI 애플리케이션인 챗봇은 자연어 질의 및 응답과 같은 단일 상호작용 솔루션을 제공했습니다. 그러나 미래는 고급 추론과 반복적 계획을 활용하여 복잡한 문제를 해결하는 자율 시스템 인 에이전트적 AI 에 달려 있습니다.

가속화된 최신 데이터센터를 위한 소프트웨어
모든 워크로드에 대해 최적화된 솔루션을 이용하세요.

데이터 사이언스와 AI를 발전시키려면 조직은 클라우드 및 데이터센터에서 엣지에 이르는 GPU 기반 시스템을 최적화할 수 있는 도구를 이용해야 합니다.
NVIDIA의 소프트웨어 솔루션은 모든 최신 워크로드를 포괄하므로 IT 관리자, 데이터 사이언티스트, DevOps 팀과 개발자가 필요한 것을 빠르고 쉽게 이용할 수 있습니다.

이미지

모든 기업에 세계 최고 수준의 AI 팩토리 전문성 제공
NVIDIA Mission Control™

NVIDIA Mission Control은 세계적 수준의 전문 지식을 소프트웨어로 제공하여 워크로드부터 인프라까지 AI 팩토리 운영을 간소화합니다. NVIDIA Grace Blackwell 데이터센터를 구동하여 추론 및 학습에 즉각적인 민첩성을 제공하는 동시에 인프라 복원력을 위한 풀스택 인텔리전스를 제공합니다. 모든 기업은 하이퍼스케일 효율성으로 AI를 실행하여 AI 실험을 간소화하고 가속화할 수 있습니다.

자세히 보기

Platform Full stack Provider 리더스시스템즈는
DGX System 기반 AI 데이터센터 통합 솔루션을 제공합니다.

회사소개 바로가기
  • 이미지

    NVIDIA Partner Network 인증 파트너

    리더스시스템즈는 NVIDIA Elite Partner로서 Blackwell 및 Grace 기반 시스템 도입 경험을 바탕으로 소프트웨어 스택(NVIDIA AI Enterprise)과 시스템 튜닝을 고객의 워크로드에 맞춰 최적화합니다.

  • 이미지

    AI 인프라 구축·운영 토탈 서비스

    설계부터 구축, 운영, 최적화까지 모든 단계를 직접 지원합니다. 고객의 비즈니스 확장 속도에 맞춘 모듈형 확장과 고가용성(HA) 설계로 장기 운영 신뢰성을 보장합니다.

  • 이미지

    운영 효율을 높이는 전문 기술 지원

    구축 이후에도 모니터링, 정기 점검, 운영 교육을 지속적으로 지원하며, 이슈 발생 시 신속한 대응으로 다운타임을 최소화하고 데이터센터 TCO 최적화를 실현합니다.

  • 이미지

    글로벌 파트너십 기반 Full-Stack 공급

    시스템 도입에 필요한 보안, 전력(UPS), 냉각 시스템, 네트워크 및 스토리지까지 검증된 글로벌 기업들과의 기술 협력을 통해 통합 솔루션을 제공합니다.

Specifications

GB200 NVL72 GB200 Grace Blackwell Superchip
Configuration 36 Grace CPU : 72 Blackwell GPUs 1 Grace CPU : 2 Blackwell GPUs
FP4 Tensor Core2 1,440 PFLOPS 40 PFLOPS
FP8/FP6 Tensor Core2 720 PFLOPS 20 PFLOPS
INT8 Tensor Core2 720 POPS 20 POPS
FP16/BF16 Tensor Core2 360 PFLOPS 10 PFLOPS
FP32 6,480 TFLOPS 180 TFLOPS
FP64 3,240 TFLOPS 90 TFLOPS
FP64 Tensor Core 3,240 TFLOPS 90 TFLOPS
GPU Memory | Bandwidth Up to 13.5 TB HBM3e | 576 TB/s Up to 384 GB HBM3e | 16 TB/s
NVLink Bandwidth 130 TB/s 3.6 TB/s
CPU Core Count 2,592 Arm® Neoverse V2 cores 72 Arm® Neoverse V2 cores
CPU Memory | Bandwidth Up to 17 TB LPDDR5X | Up to 18.4 TB/s Up to 480 GB LPDDR5X | Up to 512 GB/s

Information

상품명 NVIDIA GB200 NVL72 엔비디아코리아 정품
KC 인증번호 -
정격전압 / 최대소비전력 -
정품 품질 보증 3년 무상보증
출시년월 2024
제조사 NVIDIA Corporation
제조국 -
크기 -

클라우드 및 데이터센터를 위한 리소스

  • 이미지

    Enterprise AI를 위한 소프트웨어

    NVIDIA AI Enterprise는 신뢰할 수 있고 안전하며 확장 가능한 AI 운영을 보장하는 동시에 출시 시간을 가속화하고 인프라 비용을 절감할 수 있습니다.

    자세히 보기
  • 이미지

    슈퍼컴퓨팅 인프라를 위한 네트워킹

    NVIDIA® BlueField® 네트워킹 플랫폼은 클라우드에서 데이터센터, 엣지에 이르기까지 모든 환경에서 모든 워크로드에 안전하고 가속화된 인프라를 제공합니다.

    자세히 보기
  • 이미지

    전문가와 상담하기

    리더스시스템즈는 기술 전문가들, 다양한 글로벌 기업과 지속적인 파트너쉽을 체결하여 고객에게 가장 효율적인 고성능 네트워크를 구축할 수 있도록 합니다.

    자세히 보기