NVIDIA ConnectX-9 SuperNIC 엔비디아코리아 정품

  • Supports 100/50 G PAM4 and 25/10 G NRZ
  • Speeds: 1 port x 400/200/100 Gb/s or 2 ports x 400/200/100/50/25 Gb/s
  • PCIe Gen6 (up to 48 lanes)
NVIDIA ConnectX-9 SuperNIC 엔비디아코리아 정품

현대 AI를 위한 가속 네트워킹 SuperNIC

생성적 AI 시대에는 대규모 분산형 AI 워크로드를 위한 고성능 컴퓨팅 패브릭을 구축하기 위해 가속 네트워킹이 필수적입니다. NVIDIA는 AI 팩토리와 클라우드 데이터센터의 성능과 효율성을 극대화하는 최첨단 이더넷 및 InfiniBand 솔루션을 제공하며 이 분야를 선도하고 있습니다. 이러한 솔루션의 핵심은 하이퍼스케일 AI 워크로드에 최적화된 새로운 차원의 네트워크 가속기인 NVIDIA SuperNIC입니다. 이 SuperNIC는 NVIDIA의 Spectrum-X 이더넷 및 Quantum-X800 InfiniBand 네트워킹 플랫폼의 필수 구성 요소로, 탁월한 확장성과 성능을 제공하도록 설계되었습니다.

새롭게 추가된 NVIDIA® ConnectX®-9 SuperNIC은 하이퍼스케일 AI 컴퓨팅 워크로드를 가속화하도록 최적화되었습니다. 최대 800Gb/s(기가비트/초)의 InfiniBand 및 Ethernet 네트워킹을 모두 지원하는 ConnectX-9 SuperNIC은 매우 빠르고 효율적인 네트워크 연결을 제공하여 AI 팩토리 및 클라우드 데이터 센터 환경의 시스템 성능을 크게 향상시킵니다.

  • 최대 AI 워크로드
    효율성

  • 대규모 AI를
    위해 구축됨

  • 일관되고 예측
    가능한 성능

  • 확장 가능한 인프라

  • 가볍고 전력
    효율적인 디자인

  • 보안 AI 플랫폼

인공지능 및 과학 컴퓨팅을 위한 InfiniBand

복잡한 워크로드에는 고해상도 시뮬레이션, 매우 큰 크기의 데이터세트 및 고도로 병렬화된 알고리즘의 초고속 처리가 필요합니다. 이러한 요구 사항이 계속 늘어나는 추세에서, 세계 유일의 완전 오프로드 가능한 인-네트워크 컴퓨팅 플랫폼인 NVIDIA Quantum InfiniBand는 성능을 극적으로 향상해 비용과 복잡성이 적으면서도 더 빠른 발견 시간을 달성합니다.

이미지

NVIDIA ConnectX InfiniBand 어댑터
최고의 슈퍼컴퓨터 및 클라우드 개선

보다 빠른 속도와 혁신적인 인-네트워크 컴퓨팅 활용하는 NVIDIA ConnectX InfiniBand 스마트 어댑터는 뛰어난 성능 및 확장성을 달성합니다. NVIDIA ConnectX는 작업당 비용을 낮춰 고성능 컴퓨팅(HPC), 머신 러닝, 고급 스토리지, 클러스터형 데이터베이스, 저지연 임베디드 I/O 애플리케이션 등의 ROI를 높입니다.

복잡한 워크로드에는 고해상도 시뮬레이션, 초대규모 데이터세트, 고도로 병렬화된 알고리즘의 초고속 처리가 필요합니다. 이러한 컴퓨팅 요구 사항이 계속 증가함에 따라, 세계 유일의 완전 오프로드형 인-네트워크 컴퓨팅 플랫폼인 NVIDIA Quantum InfiniBand는 비용과 복잡성이 적은 고성능 컴퓨팅(HPC), AI 및 하이퍼스케일 클라우드 인프라에서 최고의 성능을 달성하는 데 필요한 극적인 성능 향상을 가져다줍니다.

이미지

InfiniBand 강화 기능

  • 이미지

    네트워크 내 컴퓨팅

    NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol(SHARP)™은 집단 통신 작업을 스위치 네트워크로 오프로드하여 네트워크를 통과하는 데이터의 양을 줄이고 MPI(메시지 전달 인터페이스) 작업 시간을 단축하며 데이터 센터 효율성을 높입니다.

  • 이미지

    자가 치유 네트워크

    자가 치유 네트워크 기능을 갖춘 NVIDIA InfiniBand는 링크 장애를 극복하여 다른 소프트웨어 기반 솔루션보다 5,000배 빠른 네트워크 복구를 가능하게 합니다. 이러한 기능은 최신 세대의 InfiniBand 스위치에 내장된 인텔리전스를 활용합니다.

  • 이미지

    서비스 품질

    InfiniBand는 고급 정체 제어 및 적응형 라우팅을 포함하여 입증된 서비스 품질 기능을 갖춘 유일한 고성능 상호 연결 솔루션으로, 탁월한 네트워크 효율성을 제공합니다.

  • 이미지

    네트워크 토폴로지

    InfiniBand는 중앙 집중식 관리를 제공하고 Fat Tree, Hypercubes, 다차원 Torus 및 Dragonfly+를 포함한 모든 토폴로지를 지원합니다. 라우팅 알고리즘은 특정 애플리케이션 통신 패턴에 대한 토폴로지를 설계할 때 성능을 최적화합니다.

최적의 성능을 위한 소프트웨어

  • MLNX_OFED

    OpenFabrics Alliance 의 OFED는 고성능 입출력(IO) 제조업체가 공동으로 개발하고 테스트했습니다. NVIDIA MLNX_ OFED는 NVIDIA에서 테스트한 OFED 버전입니다.

  • HPC-X®

    NVIDIA HPC-X®는 포괄적인 MPI 및 SHMEM/PGAS 소프트웨어 제품군입니다. HPC-X는 InfiniBand 네트워크 내 컴퓨팅 및 가속 엔진을 활용하여 연구 및 산업 애플리케이션을 최적화합니다.

  • UFM®

    NVIDIA Unified Fabric Manager (UFM®) 플랫폼은 데이터 센터 관리자가 InfiniBand 네트워크 인프라를 효율적으로 프로비저닝, 모니터링, 관리하고 사전에 문제를 해결할 수 있도록 지원합니다.

  • Magnum IO™

    NVIDIA Magnum IO™는 네트워크 IO, 네트워크 내 컴퓨팅, 스토리지 및 IO 관리를 활용하여 다중 GPU, 다중 노드 시스템에 대한 데이터 이동, 액세스 및 관리를 단순화하고 속도를 높입니다.

고성능, 확장성, 보안을 갖춘
기가 스케일 AI 데이터센터를 위한 차세대 네트워킹

AI 데이터센터는 검색 증강 생성(RAG), 모델 훈련, 추론을 위해 가속화된 네트워크 성능을 필요로 합니다. NVIDIA 네트워킹은 오늘날의 AI 사용 사례에 필요한 최고 수준의 효율성과 최저 레이턴시의 데이터 전송을 보장합니다.

이미지

Platform Full stack Provider 리더스시스템즈는
DGX System 기반 AI 데이터센터 통합 솔루션을 제공합니다.

회사소개 바로가기
  • 이미지

    NVIDIA Partner Network 인증 파트너

    리더스시스템즈는 NVIDIA Elite Partner로서 Blackwell 및 Grace 기반 시스템 도입 경험을 바탕으로 소프트웨어 스택(NVIDIA AI Enterprise)과 시스템 튜닝을 고객의 워크로드에 맞춰 최적화합니다.

  • 이미지

    AI 인프라 구축·운영 토탈 서비스

    설계부터 구축, 운영, 최적화까지 모든 단계를 직접 지원합니다. 고객의 비즈니스 확장 속도에 맞춘 모듈형 확장과 고가용성(HA) 설계로 장기 운영 신뢰성을 보장합니다.

  • 이미지

    운영 효율을 높이는 전문 기술 지원

    구축 이후에도 모니터링, 정기 점검, 운영 교육을 지속적으로 지원하며, 이슈 발생 시 신속한 대응으로 다운타임을 최소화하고 데이터센터 TCO 최적화를 실현합니다.

  • 이미지

    글로벌 파트너십 기반 Full-Stack 공급

    시스템 도입에 필요한 보안, 전력(UPS), 냉각 시스템, 네트워크 및 스토리지까지 검증된 글로벌 기업들과의 기술 협력을 통해 통합 솔루션을 제공합니다.

NVIDIA ConnectX-9 SuperNIC

1.6Tb/s network accelerator for gigascale AI

ConnectX-9 SuperNICs는 가속화된 기가스케일 AI 컴퓨팅 패브릭의 차세대 혁신을 촉진합니다. 차세대 NVIDIA Spectrum-X™ Ethernet 및 NVIDIA Quantum-X800 네트워킹 플랫폼과 원활하게 통합된 ConnectX-9 SuperNICs는 NVIDIA Rubin GPU에 초당 최대 1.6Tb/s의 처리량을 제공합니다.

향상된 전력 효율성을 갖춘 ConnectX-9 SuperNICs은 수십만 개의 GPU를 운영하는 지속 가능한 AI 데이터 센터를 구축하여 AI 발전을 위한 미래 대비 인프라를 보장합니다. ConnectX-9 SuperNIC는s 향상된 프로그래머블 입출력 및 원격 측정 기반 혼잡 제어 기능을 제공하여 업계 최고 수준의 네트워크 성능과 최고 AI 워크로드 효율성을 달성합니다.

이미지
  • AI 워크로드 효율성 극대화

    • 200Gb/s PAM4 SerDes
    • 800Gb/s per port, 1.6Tb/s per Rubin GPU
    • 동급 최고의 RDMA/RoCE
  • 보안 AI 플랫폼

    • Inline 800G crypto accelerations
    • Security Enclave & Attestation
    • CNSA2.0 Secure Boot and FIPS140-3 L1 certified
  • 확장 가능한 인프라

    • 향상된 프로그래머블 I/O
    • PCIe Gen6 x48, 통합 PCIe 스위치
    • 컴팩트한 디자인, 공랭식 수랭식 지원

Product Specifications

Supported network protocols Ethernet, InfiniBand InfiniBand speeds 800/400/200/100 Gb/s
Maximum total bandwidth 800Gb/s Host interface PCIe Gen6: up to 48 lanes
Ethernet speeds 800/400/200/100/50/25 Gb/s Portfolio
  • -

    PCIe HHHL form factor, 1P x OSFP224
    and 2P x QSFP112

  • -

    OCP3 TSFF 1P x OSFP224 and
    2P x QSFP112

  • -

    Quad ConnectX-9 IO card for NVIDIA Vera
    Rubin NVL144 systems

Features*

InfiniBand Interface
  • - Max. bandwidth: 800 Gb/s
  • - 200/100/50 Gb/s of PAM4 and 25/10 Gb/s NRZ
  • - Port configuration:
    • • One port supporting up to 800 Gb/s
    • • Two ports supporting up to 400 Gb/s each
    • • Supports up to eight split ports
Host Interface
  • - PCIe Gen6 (up to 48 lanes)
  • - NVIDIA Multi-Host™ (up to 4 hosts)
  • - PCIe switch downstream port containment (DPC)
  • - Message-signaled interrupts (MSI) and MSI-X
AI Networking
  • - Remote direct-memory access (RDMA) and RDMA over Converged Ethernet v2 (RoCEv2) accelerations
  • - NVIDIA Spectrum-X Ethernet:
    • • Spectrum-X multi-plane
    • • Spectrum-X net plug-in
  • - Programmable RDMA transport
  • - Advanced, programmable congestion control
  • - NVIDIA Collective Communications Library (NCCL)
  • - NVIDIA Inference Transfer Library (NIXL)
  • - NVIDIA GPUDirect® RDMA
  • - GPUDirect Storage
  • - In-Network Computing
  • - Advanced timing and synchronization
  • - Message Passing Interface (MPI) accelerations
Cloud Networking
  • - Stateless Transmission Control Protocol (TCP) offloads
  • - Single-root IO virtualization (SR-IOV)
  • -

    NVIDIA Accelerated Switching and Packet Processing™ (ASAP2) Ethernet for
    software-defined networking (SDN) and virtual network functions (VNF):

    • • Open vSwitch (OVS) acceleration
    • • Overlay network accelerations
    • • Connection tracking (L4 firewall) and network address translation (NAT)
Security
  • -

    AES-GCM 128/256-bit key data-in-motion accelerations: Internet Protocol Security (IPsec),
    Transport Layer Security (TLS), Protocol for Secure Packet (PSP)

  • - AES-XTS 256/512-bit key data-at-rest acceleration
  • - Platform security:
    • • Secure boot with hardware root of trust
    • • Secure firmware update
    • • Flash encryption
    • • Device attestation (SPDM 1.1 and SPDM 1.2)
    • • Commercial National Security Algorithm Suite (CNSA) 2.0 post-quantum cryptography (PQC) Secure Boot and Update support
Management and Control
  • - Network Control Sideband Interface (NC-SI)
  • -

    Management Component Transport Protocol (MCTP) over System Management
    Bus (SMBus) and PCIe Platform Level Data Model (PLDM) for:

    • • Monitor and Control DSP0248
    • • Firmware Update DSP0267
    • • Redfish Device Enablement DSP0218
    • • Field-Replaceable Unit (FRU) DSP0257
  • - Security Protocols and Data Models (SPDM) DSP0274
  • - Serial Peripheral Interfacㅋe (SPI) to flash
Network Boot
  • - InfiniBand or Ethernet
  • - Preboot eXecution Environment (PXE) boot
  • - Unified Extensible Firmware Interface (UEFI)

주문 정보 및 자세한 제품 사양은 [주]리더스시스템즈에 문의하세요.