제품문의
제품과 관련하여 궁금하신 사항을
문의하기를 통해 해결하세요.
AI and Data Science
Data Center &
Cloud Computing
Design and
Visualization
Robotics &
Edge Computing
HPC-Performance
Computing
Self-Driving Vehicles
딥 러닝 워크스테이션 솔루션을 통해 작업 공간에서 편리하게 AI 슈퍼 컴퓨팅 성능을 활용하고 NGC에서 필요한 모든 딥 러닝 소프트웨어를 사용할 수 있습니다. 이제 딥 러닝을 필요로 하는 누구든지 데스크 사이드 딥 러닝을 시작할 수 있습니다.
딥러닝 솔루션 바로가기 >모든 엔터프라이즈에서 물리적 데이터센터를 구축할 필요 없이 손쉽게 대규모 컴퓨팅 성능에 액세스할 수 있습니다. AI, 고성능 컴퓨팅(HPC) 및 의료 영상 활용, 차세대 그래픽 기술 적용 등 워크로드 전반에서 최고 성능을 경험할 수 있습니다.
클라우드 컴퓨팅 솔루션 바로가기 >GPU 가속 데이터센터는 원하는 규모와 더 적은 수의 서버로 컴퓨팅 및 그래픽 워크로드에 혁신적인 성능을 제공하여 더 빠르게 정보를 얻고 비용을 획기적으로 절감할 수 있습니다. 가장 복잡한 딥 러닝 모델을 트레이닝하여 가장 심각한 문제를 해결하세요.
온 프레미스 솔루션 바로가기 >현대 기업은 이제 수 십억 개의 IoT 센서를 통해 생성 된 데이터를 활용해 더 빠른 통찰력과 시간과 비용 절감을 할 수 있습니다. 실시간으로 결정을 내리고 강력하고 분산 된 컴퓨팅과 안전하고 간단한 원격 관리 및 업계 최고 기술과의 호환성을 기대할 수 있습니다.
엣지 컴퓨팅 솔루션 바로가기 >AI와 데이터 분석에서 고성능 컴퓨팅(HPC)과 렌더링까지, 데이터센터는 중대한 문제를 해결하는 열쇠입니다. 하드웨어와 소프트웨어에 걸쳐 통합된 엔드 투 엔드 NVIDIA 가속 컴퓨팅 플랫폼은 모든 최신 워크로드 전체에서 개발부터 배포까지의 구현을 지원하는 강력한 보안 인프라의 청사진을 기업에 제공합니다. GPU, DPU 및 CPU용 3개의 차세대 아키텍쳐를 기반으로 구축된 NVIDIA 가속 컴퓨팅 플랫폼으로 AI 시대의 데이터센터를 재구성하세요. 이러한 아키텍쳐는 성능, 보안, 네트워킹 등을 포괄하는 최첨단 기술을 통해 최신 데이터센터의 모든 문제를 처리할 준비가 되어 있습니다.
NVIDIA Blackwell의 다양한 발전은 비교할 수 없는 성능, 효율성 및 규모로 생성 AI의 다음 장을 정의하기 위해 여러 세대의 가속화된 컴퓨팅 기술을 기반으로 합니다. 더 빠르고 더 넓은 NVIDIA® NVLink® 상호 연결과 함께 새로운 2세대 Transformer Engine의 통합은 이전 아키텍쳐 세대에 비해 훨씬 더 뛰어난 성능을 제공하여 데이터 센터를 새로운 시대로 나아가게 합니다.
NVIDIA Grace™ 아키텍쳐는 최근 떠오르고 있는 새로운 유형의 데이터센터, 즉 막대한 양의 데이터를 처리하고 개선하여 인공 지능을 생산하는 AI 공장을 위해 설계되었습니다. 이러한 데이터센터는 AI 트레이닝 및 추론에서 HPC, 데이터 분석, 디지털 트윈, 클라우드 그래픽 및 게이밍, 수천 개의 하이퍼스케일 클라우드 애플리케이션에 이르는 다양한 워크로드를 실행합니다.
NVIDIA® BlueField® 데이터 처리 장치(DPU)는 데이터센터와 슈퍼컴퓨팅 인프라에 전례 없는 혁신을 가져옵니다. BlueField DPU는 광범위한 고급 네트워킹, 스토리지 및 보안 서비스를 오프로드, 가속, 격리하여 클라우드, 데이터센터부터 엣지까지 이르는 모든 환경에서 모든 워크로드에 안전하고 가속화된 인프라를 제공합니다.
NVIDIA DGX SuperPOD™는 IT가 모든 사용자와 워크로드에 대해 성능 저하 없이 성능을 제공할 수 있도록 지원하는 AI 데이터 센터 인프라입니다. NVIDIA DGX™ 플랫폼의 일부인 DGX SuperPOD는 업계에서 입증된 결과와 함께 가장 까다로운 AI 워크로드에 대해 최고 수준의 가속화된 인프라와 확장 가능한 성능을 제공합니다.
DGX SuperPOD는 기업의 성능 및 안정성 요구 사항을 충족하는 예측 가능한 솔루션입니다. NVIDIA는 DGX SuperPOD를 광범위하게 테스트하여 엔터프라이즈 AI 워크로드의 한계까지 밀어붙이므로 애플리케이션 성능에 대해 걱정할 필요가 없습니다.
DGX SuperPOD는 AI 워크플로우 관리, 컴퓨팅, 스토리지 및 네트워크 인프라를 가속화하는 라이브러리, AI 워크로드에 최적화된 운영 체제를 포함하는 검증된 소프트웨어인 NVIDIA Base Command™ 로 구동됩니다.
NVIDIA Base Command Manager를 사용하여 DGX SuperPOD에 대한 배포, 소프트웨어 프로비저닝, 지속적인 모니터링 및 상태 점검을 원활하게 자동화합니다.
DGX SuperPOD에는 설치부터 인프라 관리, 워크로드 확장, 프로덕션 AI 간소화까지 아우르는 전담 전문 지식이 포함되어 있습니다. 세계 최대 규모의 AI 전문 실무자 팀과 직접 연결되는 DGXpert에 대한 전용 액세스 권한을 얻으세요.
이제 클라우드와 데이터 센터를 초월하는 플랫폼 경험을 통해 조직은 하이브리드 개발 및 워크플로우 관리 소프트웨어를 사용하여 최첨단 NVIDIA DGX™ 성능을 경험할 수 있습니다. 어떤 배포 모델을 선택하든 DGX 플랫폼은 AI 개발 인프라를 위한 이해하기 쉽고 예측 가능한 비용 모델을 제공합니다.
NVIDIA DGX™ B200은 AI 여정의 모든 단계에서 모든 규모의 기업을 위한 개발-배포 파이프라인을 위한 통합 AI 플랫폼입니다. DGX B200을 통해 기업이 데이터 준비부터 훈련, 추론에 이르는 모든 AI 워크로드를 가속화할 수 있습니다.
NVIDIA DGX™ H100으로 혁신과 최적화의 영역을 확대하세요. NVIDIA의 전설적인 DGX 시스템의 최신 버전이자 NVIDIA DGX SuperPOD™의 토대인 DGX H100은 NVIDIA H100 Tensor 코어 GPU의 획기적인 성능으로 가속화된 AI의 강자입니다.
NVIDIA는 기업이 엔터프라이즈에 가장 중요한 AI 사용 사례를 배포하는 것을 더 쉽고 빠르며 비용 효율적으로 만들었습니다. DGX BasePOD 레퍼런스 아키텍처의 성능, 확장성 및 관리 용이성을 NVIDIA AI Enterprise 소프트웨어 제품군의 업계 맞춤형 소프트웨어 및 도구와 결합하면 엔터프라이즈는 이러한 입증된 플랫폼에 AI Center of Excellence를 직접 구축할 수 있습니다.
NVIDIA AI 엔터프라이즈 소프트웨어 제품군에는 NVIDIA 최고의 데이터 과학 도구, 사전 훈련된 모델, 최적화된 프레임워크 등이 포함되어 있으며 NVIDIA 엔터프라이즈 지원이 완벽하게 지원됩니다. NVIDIA AI Enterprise는 DGX 플랫폼에 포함되어 있으며 NVIDIA Base Command와 함께 사용됩니다.
NVIDIA AI Enterprise는 데이터 사이언스 파이프라인을 가속화하고 생성형 AI를 포함한 프로덕션 급 AI 애플리케이션의 개발 및 배포를 간소화하는 엔드 투 엔드 클라우드 네이티브 소프트웨어 플랫폼입니다. AI를 기반으로 비즈니스를 운영하는 기업들은 파일럿에서 프로덕션으로 원활하게 전환할 수 있도록 NVIDIA AI Enterprise가 제공하는 보안, 지원 및 안정성을 신뢰합니다. AI 실무자를 위한 동급 최고의 개발 도구, 프레임 워크, 사전 트레이닝된 모델과 IT 전문가를 위한 신뢰할 수 있는 관리 및 오케스트레이션을 통해 성능, 고가용성, 보안을 보장합니다.
데이터 사이언스와 AI를 발전시키려면 조직은 클라우드 및 데이터센터에서 엣지에 이르는
GPU 기반 시스템을 최적화할 수 있는 도구를 이용해야 합니다.
NVIDIA의 소프트웨어 솔루션은
모든 최신 워크로드를 포괄하므로 IT 관리자, 데이터 사이언티스트, DevOps 팀과
개발자가 필요한 것을 빠르고 쉽게 이용할 수 있습니다.
모든 조직에서 AI를 사용할 수 있도록 최적화된 엔드 투 엔드 클라우드 기반 AI 및 데이터 분석 소프트웨어 제품군입니다. 엔터프라이즈 데이터센터에서 퍼블릭 클라우드에 이르기까지 어디에서나 배포할 수 있도록 인증받았고, AI 프로젝트를 순조롭게 진행하기 위한 글로벌 엔터프라이즈 지원이 포함됩니다.
CUDA-X AI는 딥 러닝, 머신 러닝 및 HPC(고성능 컴퓨팅)를 위한 필수 최적화를 제공하는 NVIDIA의 획기적인 병렬 프로그래밍 모델인 CUDA® 위에 구축된 소프트웨어 가속화 라이브러리 컬렉션입니다. cuDNN, cuML, NVIDIA® TensorRT™, cuDF, cuGraph 및 13개 이상의 기타 라이브러리가 포함됩니다.
NVIDIA Magnum IO™는 병렬의 비동기식 지능형 데이터센터 IO를 위한 아키텍쳐로, 멀티 GPU, 멀티 노드 가속화를 위해 스토리지 및 네트워크 IO 성능을 극대화합니다. 스토리지 IO, 네트워크 IO, 인-네트워크 컴퓨팅 및 IO 관리를 활용하여 멀티 GPU, 멀티 노드 시스템을 위한 데이터 이동, 액세스 및 관리를 단순화하고 가속화합니다.
NVIDIA Fleet Command™를 통해 엣지에서 시스템과 AI 애플리케이션의 프로비저닝 및 배포를 간소화하세요. 컨테이너 오케스트레이션을 위한 관리형 플랫폼으로 클라우드의 확장성과 복원력을 갖춘 분산 컴퓨팅 환경의 관리를 단순화하여 모든 사이트를 안전한 지능형 위치로 전환합니다.
NVIDIA® Riva는 완전히 사용자 정의 가능한 실시간 대화형 AI 파이프라인을 구축하기 위한 GPU 가속 다국어 음성 및 번역 마이크로서비스 세트입니다. Riva에는 자동 음성 인식(ASR), 텍스트 음성 변환(TTS), 신경 기계 번역(NMT)이 포함되며 모든 장치에 배포할 수 있습니다. LLM(대형 언어 모델) 및 RAG(검색 증강 생성)를 활용하세요.
엣지, 데이터 센터, 멀티 및 하이브리드 클라우드 환경에서 이기종 AI 및 고성능 컴퓨팅(HPC) 클러스터에 대한 빠른 배포와 엔드투엔드 관리를 제공합니다. 몇 개의 노드에서 수십만 개의 노드에 이르는 클러스터의 프로비저닝 및 관리를 자동화하고, NVIDIA GPU 가속 및 기타 시스템을 지원하며, Kubernetes와의 오케스트레이션을 활성화합니다.
NVIDIA NGC™는 엔터프라이즈 서비스, 소프트웨어, 관리 도구, 엔드 투 엔드 AI 및 디지털 트윈 워크플로우 지원을 위한 포털입니다. 완전 관리형 서비스를 통해 솔루션을 더 빠르게 출시하거나, 성능 최적화된 소프트웨어를 활용하여 선호하는 클라우드, 온프레미스, 엣지 시스템에서 솔루션을 구축하고 배포할 수 있습니다.
NVIDIA DGX™ 지원 소프트웨어 프로그램은 AI 워크플로우를 가속화하고 AI 인프라의 배포, 접근성, 활용도를 개선하는 엔터프라이즈급 MLOps 솔루션을 제공합니다. DGX 시스템에서 사용할 수 있도록 테스트와 인증을 거친 DGX 지원 소프트웨어는 AI 플랫폼 투자를 최대한 활용할 수 있게 도와줍니다. MLOps 솔루션은 AI 워크플로우 관리 애플리케이션, 클러스터 관리, 파이프라인 오케스트레이션, 리소스 스케쥴링을 포괄하여 AI 인프라의 효율성과 활용도를 극대화합니다.
즉시 실행할 수 있는 턴키 방식의 AI 개발 플랫폼을 찾고 계신가요?
NVIDIA DGX가 탑재된 Equinix Private AI는 Equinix colocation data centers, 네트워크 연결 및
관리형 서비스를 활용하여 DGX BasePOD 및 DGX SuperPOD™를 호스팅하고 운영합니다.
NVIDIA DGX를 탑재한 Equinix Private AI는 데이터 센터 및 관리형 서비스에 대한 Equinix의 전문 지식을 활용하여 코로케이션, 연결 및 포괄적인 관리를 통해 네트워크, 보안, 데이터, 애플리케이션 및 하이브리드 클라우드 문제를 해결합니다.
선도적인 스토리지 기술 제공업체와 협력하여 NVIDIA DGX SuperPOD에서 참조 아키텍처 솔루션 포트폴리오를 사용할 수 있습니다. NVIDIA 파트너 네트워크를 통해 완벽하게 통합되고 즉시 배포 가능한 제품으로 제공되는 이러한 솔루션은 데이터 센터 AI 인프라를 더 간단하고 빠르게 설계, 배포 및 관리할 수 있도록 해줍니다.
TOP 500 중 9위인 NVIDIA Eos는 NVIDIA에서 AI 혁신을 가능하게 하는 대규모 NVIDIA DGX SuperPOD로, 연구원들이 이전에는 불가능했던 과제를 수행할 수 있도록 지원합니다. Eos의 아키텍처는 가속화된 컴퓨팅 노드의 대규모 클러스터 전반에 걸쳐 초저 지연 시간과 높은 처리량의 상호 연결성을 요구하는 AI 워크로드에 최적화되어 있어 AI 기능을 확장하려는 기업에 이상적인 솔루션입니다.
슈퍼컴퓨팅 목록에서 상위권을 차지하는 것부터 MLPerf 벤치마크에서 다른 모든 AI 인프라 옵션을 능가하는 성능까지, NVIDIA DGX 플랫폼은 혁신의 최전선에 있습니다. 그 예로 혁신의 선두에 서서 세계 기록을 경신하는 AI 이니셔티브는 NVIDIA DGX™ 플랫폼을 기반으로 구축되었습니다. 업계 전반의 선도적인 조직은 DGX를 사용하여 AI 투자에 대한 가치 실현 시간을 비교할 수 없을 정도로 단축합니다.
University of Florida의 대학은 NVIDIA DGX SuperPOD인 HiPerGator AI를 활용하여 AI 우수 센터를 설립하여 임상 결과 개선부터 재난 구호 강화까지 다양한 분야의 연구를 추진했습니다.
KT는 NVIDIA DGX SuperPOD에서 NVIDIA NeMo™ 프레임워크를 사용하여 언어 복잡성을 마스터하고 스마트 스피커 및 컨택 센터에 대한 교육을 2배 더 빠르게 달성하는 동시에 2,200만 명 이상의 가입자를 지원합니다.
DeepL은 DGX SuperPOD인 DeepL Mercury 슈퍼컴퓨터를 사용하여 자체 LLM을 구축하고 가장 혁신적인 언어 AI 기술로 기업과 개인에게 역량을 부여합니다.
NVIDIA 엔터프라이즈 서비스는 DGX 인프라에 대한 지원, 교육 및 전문 서비스를 제공합니다. AI 여정의 모든 단계에서 NVIDIA 전문가를 이용할 수 있는 엔터프라이즈 서비스는 프로젝트를 빠르고 성공적으로 시작하고 실행하는 데 도움을 줄 수 있습니다.
모든 NVIDIA DGX™ 플랫폼에는 DGX 인프라, NVIDIA AI Enterprise 및 NVIDIA Base Command™ 소프트웨어에 대한 엔터프라이즈 지원이 포함되어 있으며 여기에는 강화된 시스템 소프트웨어, 최적화된 AI 라이브러리, 세계적 수준의 클러스터 관리, 강력한 작업 예약 및 워크로드 조정이 포함됩니다. NVIDIA DGX 배포를 최대한 활용하고 NVIDIA 전문성과 입증된 방법론을 통해 AI 실험을 간소화하세요.
DGX 플랫폼 사용을 시작하는 가장 빠른 방법은 생성 AI를 개발하는 기업을 위해 특별히 제작된 서버리스 서비스형 AI 훈련 플랫폼인 NVIDIA DGX Cloud를 사용하는 것입니다.
NVIDIA DGX GB200 시스템을 탑재한 NVIDIA DGX SuperPOD™는 1000조 매개변수 생성 AI 모델을 훈련하고 추론하기 위해 특별히 제작되었습니다. 각 수냉식 랙에는 NVIDIA NVLink로 하나로 연결된 36개의 NVIDIA GB200 Grace Blackwell Superchip(36개의 NVIDIA Grace CPU 및 72개의 Blackwell GPU)이 있습니다. 여러 랙을 NVIDIA Quantum InfiniBand와 연결하여 최대 수만 개의 GB200 슈퍼칩까지 확장할 수 있습니다.
지능형 제어 평면은 하드웨어, 소프트웨어 및 데이터 센터 인프라 전반에 걸쳐 수천 개의 데이터 포인트를 추적하여 지속적인 운영 및 데이터 무결성을 보장하고 유지 관리를 계획하며 가동 중지 시간을 방지하기 위해 클러스터를 자동으로 재구성합니다.
최대 수만 개의 NVIDIA GB200 Superchip으로 확장 가능한 DGX GB200 시스템을 갖춘 DGX SuperPOD는 최첨단 1조 매개변수 생성 AI 모델 에 대한 교육 및 추론을 손쉽게 수행합니다.
각각 Grace CPU 1개와 Blackwell GPU 2개를 갖춘 NVIDIA GB200 Superchip은 5세대 NVLink를 통해 연결되어 초당 1.8테라바이트(TB/s)의 GPU-GPU 대역폭을 달성합니다.