제품문의
제품과 관련하여 궁금하신 사항을
문의하기를 통해 해결하세요.
NVIDIA Blackwell Ultra GPUs
Intel® Xeon® 6776P Processors
Total GPU Memory 2.3TB
72 PFLOPS FP8 training Performance
144 PFLOPS FP4 inference Performance
NVIDIA NVLink Switch System 2x
NVIDIA NVLink™ Bandwidth 14.4 TB/s aggregate bandwidth
Storage OS: 2x 1.9TB NVMe M.2
Internal storage: 8x 3.84TB NVMe E1.S
NVIDIA MGX 랙에 적합한 새로 설계된 섀시와 공랭식 디자인으로 최신 데이터 센터에 호환성과 확장성을 제공하며, 버스바와 PSU 중 선택 가능한 유연한 전력 아키텍처로 기존 인프라와 지속 가능성 목표에 맞춰 최적화할 수 있습니다.
NVIDIA Blackwell Ultra GPU기반의 DGX B300은 추론 성능 144 페타FLOPS, 학습 성능 72 페타FLOPS를 제공합니다. 현대적 데이터 센터에 최적화된 신규 폼팩터로 설계되어 있으며, NVIDIA MGX™ 및 기존 엔터프라이즈 랙과 호환됩니다.
세계 최초로 NVIDIA Blackwell Ultra GPU와 NVIDIA ConnectX-8 네트워킹, 최적화된 NVIDIA Mission Control 소프트웨어를 완전 통합한 시스템인 DGX B300은 이전 세대 대비 추론 성능은 11배, 학습 성능은 4배 향상된 성능을 제공합니다.
NVIDIA Mission Control은 세계적 수준의 운영 역량을 소프트웨어 형태로 구현하여, 개발 워크로드, 인프라, 설비 운영까지 AI 팩토리의 전 영역을 포괄적으로 관리합니다. 실시간 추론 및 학습을 위한 민첩한 운영은 물론, 인프라 복원력을 높이는 전체 스택 지능까지 제공합니다.
딥 러닝 워크스테이션 솔루션을 통해 작업 공간에서 편리하게 AI 슈퍼 컴퓨팅 성능을 활용하고 NGC에서 필요한 모든 딥 러닝 소프트웨어를 사용할 수 있습니다. 이제 딥 러닝을 필요로 하는 누구든지 데스크 사이드 딥 러닝을 시작할 수 있습니다.
모든 엔터프라이즈에서 물리적 데이터센터를 구축할 필요 없이 손쉽게 대규모 컴퓨팅 성능에 액세스할 수 있습니다. AI, 고성능 컴퓨팅(HPC) 및 의료 영상 활용, 차세대 그래픽 기술 적용 등 워크로드 전반에서 최고 성능을 경험할 수 있습니다.
GPU 가속 데이터센터는 원하는 규모와 더 적은 수의 서버로 컴퓨팅 및 그래픽 워크로드에 혁신적인 성능을 제공하여 더 빠르게 정보를 얻고 비용을 획기적으로 절감할 수 있습니다. 가장 복잡한 딥 러닝 모델을 트레이닝하여 가장 심각한 문제를 해결하세요.
현대 기업은 이제 수 십억 개의 IoT 센서를 통해 생성 된 데이터를 활용해 더 빠른 통찰력과 시간과 비용 절감을 할 수 있습니다. 실시간으로 결정을 내리고 강력하고 분산 된 컴퓨팅과 안전하고 간단한 원격 관리 및 업계 최고 기술과의 호환성을 기대할 수 있습니다.
Blackwell 프로세서는 2,080억 개의 트랜지스터를 탑재하고 있으며 NVIDIA를 위해 맞춤 제작된 TSMC 4NP 프로세스를 사용하여 제조되었습니다. 모든 Blackwell 제품은 10TB/s의 칩 간 상호 연결을 통해 연결된 레티클 제한 다이 2개를 제공하여 캐시가 완전히 일관되고 CUDA와 호환되는 단일 GPU 슈퍼칩에서 GPU 다이 2개의 성능을 제공합니다.
FP8(8비트 부동점) 및 FP16(16비트 부동점) 정밀도로 교육을 가속화하는 트랜스포머 엔진 기술을 지원하는 것 외에도 Blackwell은 새로운 생성형 AI 엔진을 도입합니다. 생성형 AI 엔진은 NVIDIA® TensorRT™-LLM 및 NeMo™ Framework 혁신과 결합된 맞춤형 Blackwell Tensor 코어 기술을 사용하여 거대 언어 모델(LLM) 및 전문가 혼합(MoE) 모델의 추론 및 교육을 가속화합니다.
NVIDIA NVLink 스위치 칩은 하나의 72-GPU NVLink 도메인에서 130TB/s의 GPU 대역폭을 구현하며, NVIDIA 확장 가능한 계층적 집계 및 감소 프로토콜(SHARP)™ FP8 지원으로 4배의 대역폭 효율성을 달성합니다. 또한 1.8TB/s의 놀라운 상호 연결 속도로 단일 서버 이상의 클러스터를 지원하고 있습니다.
NVIDIA Blackwell은 업계 최초의 TEE-I/O 지원 GPU로, NVIDIA® NVLink®를 통한 인라인 보호 및 TEE-I/O 지원 호스트와 함께 최고 성능의 컨피덴셜 컴퓨팅 솔루션을 제공합니다. AI의 IP를 보호하고 기밀 AI 훈련, 추론 및 Federated Learning을 안전하게 지원하는 것은 물론 가장 큰 모델도 성능이 뛰어난 방식으로 보호할 수 있습니다.
Blackwell의 Decompression Engine과 고속 링크(900GB/s 양방향 대역폭)를 통해 NVIDIA Grace™ CPU의 방대한 메모리에 액세스하는 기능은 데이터에서 최고의 성능을 위해 데이터베이스 쿼리의 전체 파이프라인을 가속화합니다. LZ4, Snappy 및 Deflate와 같은 최신 압축 형식을 지원하여 분석 및 데이터 사이언스를 지원합니다.
Blackwell은 발생할 수 있는 잠재적인 결함을 조기에 식별하여 가동 중단 시간을 최소화하기 위해 전용 RAS 엔진으로 지능형 복원력을 추가합니다. NVIDIA의 RAS 엔진은 우려되는 영역을 식별하고 유지 관리를 계획할 수 있는 심층 진단 정보를 제공합니다. RAS 엔진은 문제의 원인을 신속하게 파악하여 소요 시간을 단축하고 효과적인 해결을 촉진하여 가동 중단 시간을 최소화합니다.
GPU, DPU 및 CPU용 3개의 차세대 아키텍처를 기반으로 구축된 NVIDIA 가속 컴퓨팅 플랫폼으로 AI 시대의 데이터센터를 재구성하세요.
이러한 아키텍처는 성능, 보안, 네트워킹 등을 포괄하는 최첨단 기술을 통해 최신 데이터센터의 모든 문제를 처리할 준비가 되어 있습니다.
매일 사업체들은 유례없는 대량의 데이터를 생성하고 축적하고 있습니다. GPU 가속 분석을 사용하지 않는 사업체들은 이렇게 막대한 양의 정보가 주는 기회를 놓칠 수밖에 없습니다. 데이터가 많을수록 더 많은 것을 배울 수 있습니다. 사업체들은 NVIDIA 데이터센터 플랫폼을 통해 전례 없이 빠른 속도로 데이터에서 실행 가능한 인사이트를 얻을 수 있습니다.
딥 러닝 데이터세트는 점점 더 크고 복잡해지고 있으며, 대화식 AI, 추천 시스템, 컴퓨터 비전 등은 여러 업계에 점점 더 널리 퍼지고 있습니다. 하드웨어와 소프트웨어 등의 NVIDIA 데이터센터 플랫폼은 AI 트레이닝을 크게 가속함으로써 인사이트까지 걸리는 시간을 더욱 단축하고 비용을 크게 절감하며 ROI까지 걸리는 시간도 더욱 단축합니다.
사전 학습된 기반 모델을 통해 기업은 자사 분야에 집중하고, 비즈니스에 대한 전문 지식을 갖추고, 고부가가치 작업을 수행하는 데 필요한 기술을 갖춘 맞춤형 AI 애플리케이션을 구축할 수 있습니다. 이러한 모델은 비즈니스 기능 전반에 걸쳐 확장 가능하며, 비즈니스의 성장과 발전에 따라 학습할 수 있습니다.
HPC는 데이터센터에서 과학의 진보를 이끌어 나가는 데 가장 필수적인 도구 중 하나입니다. 광범위한 분야에서 700개 이상의 애플리케이션을 최적화하는 NVIDIA GPU는 최신 HPC 데이터센터의 엔진입니다. 더 적은 수의 서버로 획기적인 성능을 발휘하여 더 빠른 인사이트를 획득하고 비용을 엄청나게 절감함으로써 GPU 가속화는 과학적인 발견을 위한 길을 닦아 놓습니다.
다양한 산업 분야의 디자이너와 아티스트는 그 어느 때보다 빠르게 고품질 콘텐츠를 제작해야 하지만, 비효율적인 CPU 기반 렌더링 솔루션으로 인해 생산성이 제한됩니다. NVIDIA RTX™ 서버는 값비싼 CPU 렌더 팜의 한계를 뛰어넘습니다. NVIDIA 소프트웨어 및 주요 타사 소프트웨어와 함께 구성할 수 있는 매우 유연한 레퍼런스 디자인으로, 가장 복잡한 렌더링 워크로드도 가속화합니다.
NVIDIA 가상 GPU 솔루션은 가상화된 최신 데이터센터를 지원함으로써 NVIDIA 가상 GPU(vGPU) 소프트웨어로 풍부한 그래픽의 확장 가능한 가상 데스크톱과 워크스테이션을 제공합니다. 이러한 솔루션은 가상 머신에서 AI, 딥 러닝, 데이터 사이언스, HPC 등의 컴퓨팅 집약적 서버 워크로드를 실행 가능하며, 개선된 관리 및 보안 기능이라는 이점도 활용합니다.
가속화된 인프라, 엔터프라이즈급 소프트웨어 및 AI 모델 전반에 걸친 풀스택 혁신을 통해 모든 기업을 AI 조직으로 전환하세요. 전체 AI 워크플로우를 가속화함으로써 다양한 솔루션과 애플리케이션의 전반적인 비용을 절감하면서 프로젝트가 더 빠르게 운영 단계에 진입하고, 더 높은 정확도, 효율성 및 인프라 성능을 확보할 수 있습니다.
딥 러닝 신경망이 더욱 복잡 해짐에 따라 훈련 시간이 크게 증가하여 생산성이 낮아지고 비용이 높아집니다. NVIDIA의 딥 러닝 기술과 완전한 솔루션 스택은 AI 교육을 크게 가속화하여 더 짧은 시간에 더 깊은 통찰력을 얻고 상당한 비용을 절감하며 ROI 달성 시간을 단축합니다. 최신 추론 및 생성 AI 모델 에 최적화된 추론 성능을 확보하세요. NIM에는 NVIDIA® TensorRT™ , TensorRT-LLM 등 NVIDIA 및 커뮤니티에서 제공하는 가속 추론 엔진이 함께 제공되며, NVIDIA 가속 인프라에서 저지연, 고처리량 추론을 위해 사전 구축 및 최적화되었습니다.
NVIDIA AI 데이터 플랫폼은 엔터프라이즈 스토리지 선도업체들이 에이전트 AI 워크플로의 성능과 정확성을 향상시키기 위해 구축했습니다. 이 플랫폼은 NVIDIA Blackwell GPU, BlueField®-3 DPU, Spectrum™-X 네트워킹, 그리고 NVIDIA AI Enterprise 소프트웨어를 갖추고 있습니다.
데이터 과학 워크플로는 전통적으로 느리고 복잡했으며, 데이터 로드, 필터링, 조작, 모델 학습 및 배포에 CPU에 의존했습니다. RAPIDS™ 오픈소스 소프트웨어 라이브러리를 포함한 NVIDIA AI 소프트웨어를 사용하면 GPU를 통해 인프라 비용을 크게 절감하고 엔드투엔드 데이터 과학 워크플로에 탁월한 성능을 제공할 수 있습니다. GPU 가속 데이터 과학은 노트북, 데이터 센터, 엣지, 클라우드 등 어디에서나 활용 가능합니다.
AI 추론은 사전 학습된 AI 모델을 배포하여 새로운 데이터를 생성하는 과정이며, AI가 결과를 도출하고 모든 산업 분야에서 혁신을 촉진하는 곳입니다. AI 모델은 규모, 복잡성, 그리고 다양성 측면에서 빠르게 확장되고 있으며, 가능성의 경계를 넓히고 있습니다. AI 추론을 성공적으로 활용하려면 조직은 엔드 투 엔드 AI 수명 주기를 지원하는 풀스택 접근 방식과 새로운 확장 법칙 시대에 팀이 목표를 달성할 수 있도록 지원하는 도구가 필요합니다.
대화형 AI 는 AI 가상 비서, 디지털 휴먼, 챗봇 등 자동화된 메시징 및 음성 지원 애플리케이션을 구동하는 기술로, 개인화되고 자연스러운 인간-기계 대화를 위한 혁신적인 길을 열어가고 있습니다. 하지만 이러한 기술은 유용성을 위해 정확성과 속도가 필수적입니다. 생성 , 음성 및 번역을 위한 NVIDIA NIM™ 마이크로서비스를 포함한 NVIDIA의 대화형 AI 솔루션을 통해 개발자는 실시간 상호작용에 필요한 높은 정확도와 빠른 응답을 제공하는 최첨단 모델을 신속하게 구축하고 배포할 수 있습니다.
사이버 위협은 그 수와 정교함이 날로 증가하고 있습니다. NVIDIA는 기업이 AI와 가속 컴퓨팅을 통해 더욱 강력한 사이버 보안 솔루션을 제공하고, AI를 통해 위협 탐지를 강화하며, 생성적 AI를 통해 보안 운영 효율성을 높이고, 안전한 인프라를 통해 민감한 데이터와 지적 재산을 보호할 수 있도록 지원하는 독보적인 입지를 갖추고 있습니다. NVIDIA는 강력한 AI 프레임워크, 아키텍처, 그리고 모범 사례를 결합하여 제로 트러스트 및 확장 가능한 AI 데이터 센터를 구축하고, 고조되는 보안 위협에 맞서 사이버 보안을 강화합니다.
생성형 AI는 텍스트, 이미지, 3D 모델 등 다양한 입력 데이터를 활용하여 콘텐츠, 솔루션, 그리고 인사이트를 생성하는 능력을 통해 산업에 혁신을 일으키고 있습니다. 이러한 다재다능함은 기업이 기본적인 자동화를 넘어 AI 에이전트를 활용하여 여러 단계의 문제를 해결하고 생산성을 향상시킬 수 있도록 지원합니다. 초기 생성형 AI 애플리케이션인 챗봇은 자연어 질의 및 응답과 같은 단일 상호작용 솔루션을 제공했습니다. 그러나 미래는 고급 추론과 반복적 계획을 활용하여 복잡한 문제를 해결하는 자율 시스템 인 에이전트적 AI 에 달려 있습니다.
데이터 사이언스와 AI를 발전시키려면 조직은 클라우드 및 데이터센터에서 엣지에 이르는 GPU 기반 시스템을 최적화할 수 있는 도구를 이용해야 합니다.
NVIDIA의 소프트웨어 솔루션은 모든 최신 워크로드를 포괄하므로 IT 관리자, 데이터 사이언티스트, DevOps 팀과 개발자가 필요한 것을 빠르고 쉽게 이용할 수 있습니다.
모든 조직에서 AI를 사용할 수 있도록 최적화된 엔드 투 엔드 클라우드 기반 AI 및 데이터 분석 소프트웨어 제품군입니다. 엔터프라이즈 데이터센터에서 퍼블릭 클라우드에 이르기까지 어디에서나 배포할 수 있도록 인증받았고, AI 프로젝트를 순조롭게 진행하기 위한 글로벌 엔터프라이즈 지원이 포함됩니다.
CUDA-X AI는 딥 러닝, 머신 러닝 및 HPC(고성능 컴퓨팅)를 위한 필수 최적화를 제공하는 NVIDIA의 획기적인 병렬 프로그래밍 모델인 CUDA® 위에 구축된 소프트웨어 가속화 라이브러리 컬렉션입니다. cuDNN, cuML, NVIDIA® TensorRT™, cuDF, cuGraph 및 13개 이상의 기타 라이브러리가 포함됩니다.
NVIDIA Magnum IO™는 병렬의 비동기식 지능형 데이터센터 IO를 위한 아키텍처로, 멀티 GPU, 멀티 노드 가속화를 위해 스토리지 및 네트워크 IO 성능을 극대화합니다. 스토리지 IO, 네트워크 IO, 인-네트워크 컴퓨팅 및 IO 관리를 활용하여 멀티 GPU, 멀티 노드 시스템을 위한 데이터 이동, 액세스 및 관리를 단순화하고 가속화합니다.
NVIDIA Fleet Command™를 통해 엣지에서 시스템과 AI 애플리케이션의 프로비저닝 및 배포를 간소화하세요. 컨테이너 오케스트레이션을 위한 관리형 플랫폼으로, 클라우드의 확장성과 복원력을 갖춘 분산 컴퓨팅 환경의 관리를 단순화하여 모든 사이트를 안전한 지능형 위치로 전환합니다.
NVIDIA® Riva는 완전히 사용자 정의 가능한 실시간 대화형 AI 파이프라인을 구축하기 위한 GPU 가속 다국어 음성 및 번역 마이크로서비스 세트입니다. Riva에는 자동 음성 인식(ASR), 텍스트 음성 변환(TTS), 신경 기계 번역(NMT)이 포함되며 모든 장치에 배포할 수 있습니다. LLM(대형 언어 모델) 및 RAG(검색 증강 생성)를 활용하세요.
엣지, 데이터 센터, 멀티 및 하이브리드 클라우드 환경에서 이기종 AI 및 고성능 컴퓨팅(HPC) 클러스터에 대한 빠른 배포와 엔드투엔드 관리를 제공합니다. 몇 개의 노드에서 수십만 개의 노드에 이르는 클러스터의 프로비저닝 및 관리를 자동화하고, NVIDIA GPU 가속 및 기타 시스템을 지원하며, Kubernetes와의 오케스트레이션을 활성화합니다.
NVIDIA NGC™는 엔터프라이즈 서비스, 소프트웨어, 관리 도구, 엔드 투 엔드 AI 및 디지털 트윈 워크플로우 지원을 위한 포털입니다. 완전 관리형 서비스를 통해 솔루션을 더 빠르게 출시하거나, 성능 최적화된 소프트웨어를 활용하여 선호하는 클라우드, 온프레미스, 엣지 시스템에서 솔루션을 구축하고 배포할 수 있습니다.
NVIDIA NeMo™ Agent 툴킷은 프로덕션 AI 에이전트 시스템을 위한 프레임워크 독립적인 프로파일링 및 최적화를 제공하는 오픈소스 라이브러리입니다. 숨겨진 병목 현상과 비용을 노출함으로써 기업이 안정성을 유지하면서 에이전트 시스템을 효율적으로 확장할 수 있도록 지원합니다. (이전, NVIDIA Agent Intelligence 툴킷(AIQ))
NVIDIA Dynamo 플랫폼은 모든 프레임워크, 아키텍처 또는 배포 규모에 걸쳐 모든 AI 모델을 지원하도록 설계된 고성능, 저지연 추론 플랫폼입니다. 단일 엔트리 레벨 GPU에서 이미지 인식을 실행하든 수십만 개의 데이터센터 GPU에 걸쳐 수십억 개의 매개변수를 가진 대규모 언어 추론 모델을 배포하든, NVIDIA Dynamo 플랫폼은 확장 가능하고 효율적인 AI 추론을 제공합니다.
칩 파운드리는 최첨단 트랜지스터 기술, 제조 공정, 대규모 칩 팹, 전문 지식, 그리고 풍부한 서드파티 도구 및 라이브러리 제공업체 생태계를 제공합니다. 마찬가지로 NVIDIA AI Foundry에는 Nemotron 및 Edify와 같은 NVIDIA에서 개발한 AI 모델, 인기 있는 오픈 파운데이션 모델, 모델 맞춤화를 위한 NVIDIA NeMo™ 소프트웨어, 그리고 NVIDIA AI 전문가들이 구축하고 지원하는 NVIDIA DGX™ 클라우드의 전용 용량이 포함됩니다. 그 결과, 맞춤형 모델, 최적화된 엔진, 그리고 표준 API를 포함하는 추론 마이크로서비스인 NVIDIA NIM™ 이 생성되며, 어디에나 배포할 수 있습니다.
NVIDIA NeMo™는 거대 언어 모델(LLM), 비전 언어 모델(VLM), 비디오 모델 및 음성 AI를 비롯한 맞춤형 생성형 AI를 어디에서나 개발할 수 있도록 지원하는 엔드투엔드 플랫폼입니다. NVIDIA AI Foundry의 일부인 NeMo를 사용하여 정확한 데이터 큐레이션, 최첨단 맞춤화, 검색 증강 생성(RAG) 및 가속화된 성능을 통해 엔터프라이즈에 적합한 모델을 제공하세요. NeMo는 엔터프라이즈 데이터 및 도메인별 지식을 갖춘 맞춤형 생성형 AI 구축을 위한 플랫폼 및 서비스입니다.
의사 결정 최적화를 위한 오픈 소스 GPU 가속 솔버로, 혼합 정수 선형 계획법 (MILP), 선형 계획법 (LP) 및 차량 경로 문제 (VRP)에 탁월한 성능을 발휘합니다. 수백만 개의 변수와 제약 조건을 가진 대규모 문제를 해결하도록 설계된 cuOpt는 거의 실시간 최적화를 지원하여 상당한 비용 절감 효과를 제공합니다. 혼합 정수 프로그래밍 라이브러리( MIPLIB )에 대한 기록과 라우팅 벤치마크에서 23개의 세계 기록을 보유한 cuOpt는 복잡한 실제 최적화 문제를 해결하는 데 획기적인 성능을 제공합니다.
NVIDIA CUDA-X AI를 기반으로 구축된 RAPIDS는 15년 이상의 NVIDIA® CUDA® 개발 및 머신러닝 전문 지식을 활용합니다. NVIDIA GPU에서 엔드 투 엔드 데이터사이언스 학습 파이프라인을 완벽하게 실행하여 학습 시간을 며칠에서 몇 분으로 단축하는 강력한 소프트웨어입니다.
NVIDIA BlueField-3 DPU는 스토리지 이니시에이터, 컨트롤러 및 타겟 전반의 데이터 액세스를 가속화하여 여러 GPU가 동일한 데이터 저장소를 효율적으로 공유할 수 있도록 합니다. 이를 통해 AI 추론을 위한 데이터 처리량과 액세스를 최적화하고, CPU 오버헤드를 줄이며, 데이터 가용성을 향상시키고, AI 워크로드의 안전하고 효율적인 확장을 보장합니다.
NVIDIA Spectrum-X는 RDMA Over Converged Ethernet(RoCE) 적응형 라우팅과 최적화된 혼잡 제어를 통해 스토리지 성능을 거의 50%까지 가속화하고 통신 병목 현상을 줄입니다. 이를 통해 기업은 AI 시스템 활용도를 극대화하는 동시에 AI 애플리케이션을 효율적으로 확장할 수 있습니다.
데이터 사이언스와 AI를 발전시키려면 조직은 클라우드 및 데이터센터에서 엣지에 이르는 GPU 기반 시스템을 최적화할 수 있는 도구를 이용해야 합니다. NVIDIA의 소프트웨어 솔루션은 모든 최신 워크로드를 포괄하므로 IT 관리자, 데이터 사이언티스트, DevOps 팀과 개발자가 필요한 것을 빠르고 쉽게 이용할 수 있습니다.
온프레미스나 클라우드 또는 엣지에서 가상 시스템(VM)을 완전히 격리할 수 있으며, 사용 중인 데이터와 AI 워크로드의 기밀성과 무결성을 보호합니다. 또한 NVIDIA의 GPU 최적화 소프트웨어를 사용하면 보안, 개인 정보 보호, 규정 준수를 유지하면서 엔드 투 엔드 AI 워크로드를 가속화할 수 있습니다.
NVLink®는 수조 개의 매개 변수 AI 모델의 성능을 가속하는 확장형 인터커넥트 기술을 지원합니다. NVLink는 서버 내에서 멀티 GPU 입출력(IO)을 확장하는 GPU 간 직접적 1.8TB/s 양방향 상호 연결 기술입니다. NVIDIA NVLink Switch 칩은 여러 NVLink를 연결하여 단일 랙 및 랙 간 전체 NVLink 속도에서 올 투 올 GPU 통신을 제공합니다.
Tensor 코어는 혼합 정밀도 컴퓨팅을 지원해 정확도를 유지하고 향상된 보안을 제공하면서 처리량을 가속화하도록 계산을 동적으로 조정할 수 있습니다. NVIDIA Tensor 코어는 매개 변수가 1조 개인 생성형 AI 모델 훈련 속도 4배 개선부터 추론 성능 30배 향상에 이르기까지 최신 AI 팩토리의 모든 워크로드를 가속화합니다.
MIG 없이 동일한 GPU에서 서로 다른 AI 추론 요청 등의 다양한 작업을 실행하면 각 작업이 동일한 리소스를 두고 경쟁합니다. 더 큰 메모리 대역폭을 소비하는 작업이 다른 작업을 방해하여 일부 작업은 지연 시간 목표를 달성하지 못하는 결과가 발생합니다. MIG를 사용하면 컴퓨팅, 메모리, 메모리 대역폭을 위한 전용 리소스를 갖춘 서로 다른 인스턴스에서 작업이 동시에 실행되므로 서비스 품질을 통한 예측 가능한 성능과 GPU 사용률을 극대화할 수 있습니다.
MIG를 사용하면 단일 GPU에서 최대 7배 더 많은 GPU 리소스를 달성할 수 있습니다. MIG는 연구자와 개발자에게 그 어느 때보다 더 많은 리소스와 유연성을 제공합니다.
MIG는 여러 다양한 인스턴스 크기를 선택할 수 있는 유연성을 제공하여 각 워크로드에 적절한 크기의 GPU 인스턴스를 프로비저닝할 수 있으므로, 궁극적으로 활용도를 최적화하고 데이터센터 투자를 극대화할 수 있습니다.
MIG를 사용하면 확정된 지연 시간 및 처리량으로 단일 GPU에서 추론, 트레이닝, 고성능 컴퓨팅(HPC) 워크로드를 동시에 실행할 수 있습니다. 타임 슬라이싱과 달리 각 워크로드가 병렬로 실행되어 고성능을 제공합니다.
NVIDIA Mission Control은 세계적 수준의 운영팀의 기술력을 바탕으로 개발자 워크로드부터 인프라, 시설까지 AI 팩토리 운영의 모든 측면을 소프트웨어로 제공합니다. 추론 및 학습을 위한 즉각적인 민첩성을 제공하는 동시에 인프라 복원력을 위한 풀스택 인텔리전스를 제공합니다. Mission Control을 통해 모든 기업은 하이퍼스케일급 효율성으로 AI를 실행하고 AI 실험을 가속화할 수 있습니다. 또한, NVIDIA AI Enterprise는 AI 개발 및 배포를 간소화하는 소프트웨어 제품군을 제공하며 NVIDIA DGX 시스템에서 실행되도록 최적화되어 있습니다. 최적의 모델 배포를 위해 NVIDIA NIM™ 마이크로서비스를 사용하여 속도, 사용 편의성, 관리 용이성 및 보안을 확보하십시오.
GPU | NVIDIA Blackwell Ultra GPUs |
---|---|
Total GPU Memory | 1,440GB total GPU memory |
Performance | 144 PFLOPS FP4 inference* and 72 PFLOPS FP8 training* |
NVIDIA NVLink Switch System | 2x |
NVIDIA NVLink™ Bandwidth | 14.4 TB/s aggregate bandwidth |
Power Consumption | ~14.3kW max |
CPU | Intel® Xeon® 6776P Processors |
Networking |
|
Management network |
|
Storage |
|
Software |
|
Rack Units (RU) | 10 RU |
Operating Temperature | 10C° - 35C° |
Support | Three-year business-standard hardware and software suppor |
- With sparsity
상품명 | NVIDIA DGX B300 엔비디아코리아 정품 |
---|---|
KC 인증번호 | - |
정격전압 / 최대소비전력 | ~14.3kW max |
정품 품질 보증 | 3년 무상보증 |
출시년월 | 2025 |
제조사 | NVIDIA Corporation |
제조국 | 중국 |
크기 | - |