• NVIDIA Solution
    High-Performance Data Analytics
  • NVIDIA Solution
    Machine Learning
  • NVIDIA Solution
    Deep learning Training
  • NVIDIA Solution
    Deep Learning Inference
  • NVIDIA Solution
    Multimodal Conversational AI
  • NVIDIA Solution
    Prediction and Forecasting

대규모 데이터 세트를 반복하고 모델을
더 자주 배포하며 총 소유 비용을 낮춥니다.

데이터 분석 워크플로우는 전통적으로 데이터 준비, 교육 및 배포를 위해 CPU 컴퓨팅에 의존하여 느리고 번거롭습니다. 가속화 된 데이터
과학은 엔드-투-엔드 분석 워크 플로우의 성능을 획기적으로 향상시켜 가치 창출을 가속화하는 동시에 비용을 절감 할 수 있습니다.

이미지

NVIDIA는 조직이 ETL 파이프 라인의 처리 시간을 줄여야하거나 대규모 기계 학습 워크 플로우로 가속화 해야하는 경우에 상관없이 전체 엔드-투-엔드 분석 워크 플로우를 가속화하는 솔루션을 제공합니다. NVIDIA와 그 파트너는 노트북에서 클라우드로, 그리고 NVIDIA 인증 시스템을 통해 온 프레미스에서 데이터 과학 워크 플로우를 실행하는 솔루션을 제공합니다. 이러한 솔루션은 고성능 데이터 분석에 최적화 된 하드웨어와 소프트웨어를 결합하여 기업이 데이터를 쉽게 최대한 활용할 수 있도록 합니다. RAPIDS와 함께 오픈 소스 소프트웨어 제품군과 NVIDIA CUDA, 데이터 실무자는 NVIDIA GPU에서 분석 파이프 라인을 가속화하여 데이터로드, 처리 및 교육과 같은 데이터 분석 작업을 며칠에서 몇 분으로 줄일 수 있습니다. CUDA의 기능은 익숙한 Java 기반 언어의 Python을 통해 활용할 수 있으므로 가속화 된 분석을 시작하기가 쉽습니다.

머신 러닝에서 딥 러닝까지, 모두 GPU에서

이미지
데이터 준비 + ETL
RAPIDS + Spark 3.0 또는 Dask를 사용해 NVIDIA GPU에서 테라 바이트 규모의 ETL 파이프 라인을 통한 데이터 세트를 실현합니다.
훈련
RAPIDS cuML 및 Dask로 운영을 지원하기 위해 비즈니스 지원 모델을 개발, 반복 및 개선합니다.
시각화
RAPIDS + Plotly Dash를 사용하여 대규모 시각화를 통해 데이터를 더 깊이 이해할 수 있습니다.
추론
RAPIDS FIL로 운영 및 의사 결정을 강화하기 위해 비즈니스 통찰력을 빠르게 생성하십시오.

고도로 최적화된 머신 러닝 파이프라인을 통해
모델 정확도를 높여 최종 결과에 직접적인 영향을 주세요.

머신 러닝은 비즈니스가 고객을 이해하고 더 나은 제품과 서비스를 구축하고 운영을 개선하는 데 도움을 줍니다. 가속화된 데이터 사이언스를 통해
비즈니스에서 그 어느 때보다 빠르게 솔루션을 반복하고 프로덕션화 하면서 대규모 데이터세트를 활용하여 모델의 정확도를 개선할 수 있습니다.

이미지

비즈니스는 머신 러닝을 사용하여 제품, 서비스 및 운영을 개선합니다. 비즈니스는 대량의 과거 데이터를 활용하여 고객 행동을 예측하고 내부 프로세스를 개선하기 위한 모델을 구축할 수 있습니다. 머신 러닝은 엔터프라이즈에 놀라운 가치를 제공하지만 오늘날의 CPU 기반 방식은 복잡성과 오버헤드를 가중시켜 비즈니스의 투자 수익을 감소시킬 수 있습니다. 최적화 된 하드웨어와 소프트웨어가 결합된 데이터 사이언스 가속화 플랫폼을 통해 기존에 존재하던 머신 러닝의 복잡성과 비효율성이 사라집니다.

이제 데이터 과학자는 신속하게 기능을 반복하고, 대규모 데이터세트를 사용하여 고도로 정확한 예측을 도출하고, 프로덕션에 가치 창출 솔루션을 손쉽게 제공할 수 있습니다. 데이터 과학자는 가장 널리 사용되는 Python 또는 Java 기반 API를 통해 GPU 가속화에 손쉽게 접근할 수 있기 때문에 클라우드든 온프레미스든 상관없이 빠르게 시작할 수 있습니다. 비즈니스에서 가속 머신 러닝의 성능을 활용함으로써 데이터를 최대한 활용하는데 필요한 도구를 제공하여 데이터 과학자의 역량을 강화할 수 있습니다.

머신러닝의 과제 1 모델 반복으로 오버헤드 추가
반복은 결과가 나오기를 기다리며 컴퓨팅 성능을 더 많이 사용하는 것을 의미합니다. 반복이 더 나은 결과로 이어지기도 하지만 데이터 사이언스 팀은 종종 더 빠르게 솔루션을 제공하기 위해 반복 횟수에 제한을 두기도 합니다.
머신러닝의 과제 2 다운샘플링으로 모델 정확도 감소
데이터 사이언스 팀에서 컴퓨팅 성능의 제한 때문에 데이터세트를 다운 샘플링하여 결과의 정확도가 감소되고 차선의 비즈니스 의사 결정을 하게되는 경우가 자주 있습니다.
머신러닝의 과제 3 모델 프로덕션화의 난제
모델을 프로덕션으로 전달하는 작업은 많은 시간이 걸리며 번거로운 데다 종종 상당한 양의 코드 리팩터링이 수반되어 사이클 시간이 늘어나고 가치 창출이 지연됩니다.

머신 러닝 에코시스템의 발전

NVIDIA는 처음부터 새로운 모델을 구축하는 경우든, 중요한 비즈니스 지원 프로세스의 성능을 미세하게 조정하는 경우든 상관없이 머신 러닝 운영을 가속화할 수 있는 솔루션을 제공합니다. NVIDIA는 데이터로부터 뛰어난 인사이트를 쉽게 얻을 수 있도록 고성능 머신 러닝에 최적화된 하드웨어와 소프트웨어를 결합하는 솔루션을 선사합니다.

RAPIDS와 NVIDIA CUDA를 통해 데이터 사이언티스트는 NVIDIA GPU의 머신 러닝 파이프라인을 가속화하여 데이터 로딩, 프로세싱, 트레이닝과 같은 머신 러닝 작업 시간을 몇일에서 몇 분으로 단축할 수 있습니다. 익숙한 Python이나 Java 기반 언어를 통해 CUDA의 성능을 활용하여 손쉽게 가속 머신 러닝을 시작할 수 있습니다.

AI 교육을 크게 가속화하여 더 짧은 시간에
더 깊은 통찰력을 얻고 상당한 비용을 절감합니다.

딥 러닝 신경망이 더욱 복잡 해짐에 따라 훈련 시간이 크게 증가하여 생산성이 낮아지고 비용이 높아졌습니다.
NVIDIA의 딥 러닝 기술과 완전한 솔루션 스택은 AI 교육을 크게 가속화하여 더 짧은 시간에 더 깊은 통찰력을
얻고 상당한 비용을 절감하며 ROI 달성 시간을 단축합니다.

딥 러닝을 추진하는 소프트웨어
Deep Learning SDK의 소프트웨어 및 프레임워크 라이브러리를 사용하여 딥 러닝 접근 방식을 시작하십시오.
요구 사항에 적합한 GPU
NVIDIA GPU를 사용하는 데스크 사이드 솔루션을 통해 신경망을 훈련
시키거나 최고 성능의 AI 솔루션을 통해 데이터 센터로 확장하십시오.
개인 딥 러닝 플랫폼
로컬 워크 스테이션에서 데이터 센터 및 클라우드의 대규모 AI에 이르기까지
모든 딥 러닝 요구 사항에 맞는 최적의 플랫폼을 선택하십시오.

딥 러닝 교육 프로젝트에 적합한 솔루션을 찾아보세요

  • 이미지 데이터 센터

    GPU 가속 데이터센터는 더 적은 수의 서버로 획기적인 성능과 더 빠른 통찰력을 제공하고 비용 절감이 가능하며 운영 보안을 유지하면서 데이터를 저장, 처리 및 분석합니다.

  • 이미지 클라우드

    클라우드 컴퓨팅은 비즈니스 운영 방식을 혁신적으로 변화시킵니다. 전 세계의 모든 주요 클라우드 서비스 제공업체에서 사용할 수 있는 NVIDIA GPU를 사용하여 클라우드에 저장된 데이터에서 통찰력을 얻으십시오.

  • 이미지 워크 스테이션

    가상 데스크톱, 애플리케이션 및 워크 스테이션에서 클라우드의 최적화 된 컨테이너에 이르기까지 원하는 곳에서 딥 러닝에 필요한 모든 것을 찾을 수 있습니다.

클라우드, 데이터 센터, 에지 및 자율 시스템을 위한
추론 소프트웨어 및 가속기입니다.

이미지 및 음성 인식, 자연어 처리, 시각적 검색 및 개인화된 추천과 같은 정교한 AI 지원 서비스에 대한 수요가 증가하고 있습니다. 동시에 데이터 세트가 증가하고 네트워크가 더욱 복잡해지며 사용자 기대치를 충족하기 위해 대기 시간 요구사항이 엄격해지고 있습니다. NVIDIA의 추론 플랫폼은 클라우드, 데이터 센터, 네트워크 에지 및 자율 기계에서 차세대 AI 제품 및 서비스를 구동하는 데 중요한 성능, 효율성 및 응답성을 제공합니다.

NVIDIA TensorRT로 NVIDIA GPU의 잠재력을 최대한 활용
NVIDIA® TensorRT ™ 는 NVIDIA Tensor Core GPU의 성능을 발휘하는데 핵심적인 고성능 추론 플랫폼입니다. CPU 전용 플랫폼에 비해 대기 시간을 최소화하면서 최대 40배 더 높은 처리량을 제공합니다. Tensor RT를 사용하면 모든 프레임워크에서 시작하여 프로덕션 환경에서 훈련된 신경망을 빠르게 최적화, 검증 및 배포할 수 있습니다.
NVIDIA TRITON 추론 서버로 배포 간소화
로컬 워크 스테이션에서 데이터 센터 및 클라우드의 대규모 AI에 이르기까지
모든 딥 러닝 요구 사항에 맞는 최적의 플랫폼을 선택하십시오.
통합되고 확장 가능한 딥 러닝 추론
하나의 통합 아키텍처를 가진 딥 러닝 프레임워크의 신경망은 트레이닝 후 NVIDIA TensorRT로 최적화를 거치고 엣지에서의 실시간 추론을 위해 배포될 수 있습니다. NVIDIA는 NVIDIA DGX™ Systems, NVIDIA Tensor 코어 GPU, NVIDIA Jetson™ 및 NVIDIA DRIVE™ NVIDIA는 MLPerf 벤치마크 스위트에서 보여준 것처럼 엔드-투-엔드 확장 가능한 딥 러닝 플랫폼을 제공합니다.
대규모 비용 절감 보기
서버를 최대 생산성으로 유지하기 위해 데이터 센터 관리자는 성능과 효율성 사이에서 균형을 유지해야 합니다. 단일 NVIDIA T4 서버는 딥 러닝 추론 애플리케이션 및 서비스를 위한 여러 상용 CPU 서버를 대체하여 에너지 요구 사항을 줄이고 획득 및 운영 비용을 절감할 수 있습니다.

자동 음성 인식에서 자연어 이해 및 텍스트 음성 변환에
이르기까지 전체 파이프 라인을 가속화합니다.

음성, 시각 및 언어 분야의 AI 기반 서비스는 개인화 된 자연스러운 대화를 위한 혁신적인 경로를 제시하지만 실시간 상호 작용을 위한 엄격한 정확성 및 대기 시간 요구 사항에 직면해 있습니다. NVIDIA의 대화 형 AI 플랫폼을 통해 개발자는 최첨단 AI 서비스를 신속하게 구축하고 배포하여 단일 통합 아키텍처에서 애플리케이션을 구동할 수 있으며, 초기 투자가 거의없이 매우 정확하고 지연 시간이 짧은 시스템을 제공할 수 있습니다.

  • 이미지 최첨단 모델

    NVIDIA DGX™ 시스템에서 100,000시간 이상의 트레이닝을 거친 NGC™의 대화형 AI 모델을 활용하세요.

  • 이미지 맞춤형 멀티모달 기술

    음성, 언어 및 영상을 하나의 파이프라인에 쉽게 결합하여 인간과 유사한 인터랙티브 기술을 구축하세요.

  • 이미지 빠른 배포

    클라우드, 데이터센터 및 엣지에서 하나의 명령으로 최적화된 모델을 배포하세요.

  • 이미지 엔드 투 엔드 가속화

    지연 시간 제한 300밀리초(ms)보다 훨씬 빠르게 파이프라인 규모에서 가속화하고 모델 추론을 실행하세요.

몇 분의 1초만에 전체 파이프라인의 추론이 가능한 진정한 엔드 투 엔드 가속화

오디오 전사를 위한 자동 음성 인식(ASR), 자연어 이해(NLU) 및 텍스트-음성 변환(TTS)으로 이루어진 대화형 AI 파이프라인 전체를 실시간 상호 작용을 위해 300ms의 지연 시간 제한보다 빠르게 실행하여 사용자 경험을 저하시키지 않고 증가하는 파이프라인 복잡성을 수용할 수 있습니다. NVIDIA A100 Tensor 코어 GPU는 WikiText에서 BERT에 대해 가속기당 6.53시간, 대규모로는 0.83분으로 클러킹하여 MLPerf 트레이닝 v0.7 벤치마크에서 기록적인 성능을 제공했습니다.

대규모 트레이닝
NVIDIA DGX™ A100에는 지금까지 만들어진 것 중 가장 진보된 데이터센터 가속기인 NVIDIA A100 Tensor 코어 GPU 8개가 탑재되어 있습니다. Tensor Float 32(TF32) 정밀도는 코드 변경 없이 이전 세대보다 20배 개선된 AI 성능을 제공하며, 일반적인 NLP 모델에 걸친 구조적 희소성을 활용하여 추가로 성능을 2배 더 향상시킵니다. 3세대 NVIDIA® NVLink®, 2세대 NVIDIA NVSwitch™ 및 NVIDIA Mellanox® 인피니밴드는 모든 GPU 간에 초고대역폭 및 짦은 지연 시간 연결을 가능하게 합니다. 이로써 여러 DGX A100 시스템이 거대한 10억-매개 변수 모델을 대규모로 트레이닝하여 최고 수준의 정확도를 제공할 수 있습니다. 그리고 오픈 소스 툴킷인 NVIDIA NeMo™를 사용하여 개발자들은 단 몇 줄의 코드만으로 DGX 가속 대화형 AI 모델을 구축, 트레이닝 및 미세 조정할 수 있습니다.
엣지에서 배포
NVIDIA EGX™ A100은 대량의 음성 및 언어 데이터를 엣지에서 처리하여 네트워크 지연을 피하는 동시에 실시간 대화형 AI가 구동되도록 합니다. 개발자들은 NVIDIA TensorRT™를 사용하여 추론을 위한 모델을 최적화하고 대화형 AI 애플리케이션을 짧은 지연 시간 및 높은 처리량으로 제공할 수 있습니다. NVIDIA Triton™ 추론 서버를 사용하면 모델이 프로덕션에 배포될 수 있습니다. TensorRT 및 Triton 추론 서버는 EGX에서 GPU 가속 엔드 투 엔드 멀티 모달 파이프라인을 구축 및 배포하기 위한 대화형 AI용 애플리케이션 프레임워크인 NVIDIA Jarvis에서 지원됩니다. 자세히 들여다보면, Jarvis는 쿠버네티스 클러스터에서 Helm 차트를 통해 단일 명령을 배포하여 TensorRT를 적용하고, Triton 추론 서버를 구성하며, 표준 API를 통해 서비스를 제공합니다.

NVIDIA 가속화 데이터 과학 솔루션으로 모델링하고
영향을 미치며 미래의 트렌드를 선두하세요.

Prediction과 Forecasting은 기업이 미래 추세를 모델링하는데 도움이 되는 강력한 도구로 NVIDIA는 데이터 과학을 가속화,
기업은 연료 데이터 기반 의사 결정에 엄청난 규모의 데이터 세트 및 공예 매우 정확한 통찰력을 취할 수 있습니다.

Prediction and Forecasting
데이터 과학의 증가하는 관행은 기업 내에서 예측을 보다 일반적으로 만들었으며 기업은 대규모 기록 데이터 세트를 활용하여 미래에 대한 통찰력을 생성할 수 있습니다. 예측 분석은 매우 중요하지만 효과적이고 정확한 모델을 구축하는 것은 어려운 과정입니다. 데이터 집약적인 예측 특성으로 인해 데이터 과학 팀은 종종 CPU 기반 구현에서 계산 병목 현상과 상당한 주기 시간에 직면합니다. 소프트웨어에서 하드웨어에 이르기까지 전체 스택 개발을 통해 NVIDIA는 인기있는 데이터 과학 솔루션을 기반으로 구축된 가속화된 솔루션을 제공하여 일반적인 문제점을 해결하고 기업이 데이터를 최대한 활용할 수 있도록 지원합니다.
Less Wait
프로세스 완료를 위한 대기 시간을 줄이고 대규모 데이터 세트를 지원하는 솔루션으로 어려운 문제를 해결하는 데 더 많은 시간을 할애하십시오.
Better Results
모든 데이터를 활용하여 더 나은 비즈니스 결정을 내리고, 조직 성과를 개선하고, 고객 요구 사항을 더 잘 충족 할 수 있습니다.
No Refactoring
자주 사용하는 도구를 사용하여 학습 곡선 없이 코드 변경을 최소화하면서 모델을 실험, 구축 및 생산할 수 있습니다.

데이터 과학을 위한 NVIDIA 풀 스택 솔루션

이미지

NVIDIA는 새로운 모델을 처음부터 구축하든 중요한 비즈니스 지원 프로세스를 미세 조정하든 상관없이 기업에서 예측을 가속화하는 솔루션을 제공합니다. 소프트웨어와 하드웨어를 전체적으로 개발함으로써 NVIDIA는 기업이 인사이트를 쉽게 생성하고 모델을 배포하여 운영을 개선하거나 고객에게 더 나은 서비스를 제공할 수 있는 엔터프라이즈급 솔루션을 제공합니다.

RAPIDS™ 및 CUDA® 를 통해 데이터 과학자는 NVIDIA GPU에서 예측 및 예측 파이프 라인을 가속화하여 데이터로드, 처리 및 교육과 같은 작업을 며칠에서 몇 분으로 단축할 수 있습니다. NVIDIA 가속 계산은 익숙한 Python 또는 Java 기반 언어를 통해 활용할 수 있으므로 가속 데이터 과학을 쉽게 시작할 수 있습니다.

이미지
손쉬운 데이터 사이언스
도구 체인 가속화
Rapids는 새로운 고성능 데이터 과학
생태계를 위한 기반을 제공합니다.

이 새로운 기반은 상호 운용성을 통해 진입 장벽을 대폭 낮춥니다. Apache Spark, cuPY, Dask, XGBoost 및 Numba와 같은 선도적인 데이터 과학 프레임 워크와 PyTorch, TensorFlow 및 Apache MxNet과 같은 수많은 딥 러닝 프레임 워크와의 통합은 채택을 확대하고 데이터 과학 생태계 전반에 걸친 추가 통합을 장려합니다. GPU 가속화를 통해 RAPIDS 하이퍼 파라미터 최적화 (HPO) 및 RAPIDS FIL (Forest Inferencing Library) 과 같은 기계 학습 에코 시스템 혁신은 시간이 많이 걸리는 작업을 몇 초로 단축하고 있습니다.