Infiniband > ConConnectX-8 SuperNIC Adapters

ConnectX-8 SuperNIC Adapters

Supports 200/100/50G PAM4
Speeds: 800/400/200/100 Gb/s
PCIe Gen6 (up to 48 lanes)
Max. bandwidth: 800 Gb/s

데이터시트 다운
ConConnectX-8 SuperNIC Adapters

현대 AI를 위한 가속 네트워킹 SuperNIC

생성적 AI 시대에는 대규모 분산형 AI 워크로드를 위한 고성능 컴퓨팅 패브릭을 구축하기 위해 가속 네트워킹이 필수적입니다. NVIDIA는 AI 팩토리와 클라우드 데이터센터의 성능과 효율성을 극대화하는 최첨단 이더넷 및 InfiniBand 솔루션을 제공하며 이 분야를 선도하고 있습니다. 이러한 솔루션의 핵심은 하이퍼스케일 AI 워크로드에 최적화된 새로운 차원의 네트워크 가속기인 NVIDIA SuperNIC 입니다. SuperNIC는 NVIDIA의 Spectrum-X 이더넷 및 Quantum-X800 InfiniBand 네트워킹 플랫폼의 필수 구성 요소로, 탁월한 확장성과 성능을 제공하도록 설계되었습니다.

NVIDIA ConnectX-8 SuperNIC은 하이퍼스케일 AI 컴퓨팅 워크로드를 가속화하도록 최적화되었습니다. 최대 800Gb/s(기가비트/초)의 InfiniBand 및 Ethernet 네트워킹을 모두 지원하는 ConnectX-8 SuperNIC은 매우 빠르고 효율적인 네트워크 연결을 제공하여 AI 팩토리 및 클라우드 데이터 센터 환경의 시스템 성능을 크게 향상시켜주며, NVIDIA 인-네트워크 컴퓨팅 가속화 엔진에 대한 지원과 함께 초당 800Gb/s(기가비트/초)의 데이터 처리량을 제공하여 매개 변수가 조 단위 규모인 AI 공장과 과학적 컴퓨팅 워크로드를 구동하는 데 필요한 성능과 강력한 기능 세트를 제공합니다.

NVIDIA ConnectX InfiniBand 어댑터
최고의 슈퍼컴퓨터 및 클라우드 개선

보다 빠른 속도와 혁신적인 인-네트워크 컴퓨팅 활용하는 NVIDIA ConnectX InfiniBand 스마트 어댑터는 뛰어난 성능 및 확장성을 달성합니다. NVIDIA ConnectX는 작업당 비용을 낮춰 고성능 컴퓨팅(HPC), 머신 러닝, 고급 스토리지, 클러스터형 데이터베이스, 저지연 임베디드 I/O 애플리케이션 등의 ROI를 높입니다.

복잡한 워크로드에는 고해상도 시뮬레이션, 초대규모 데이터세트, 고도로 병렬화된 알고리즘의 초고속 처리가 필요합니다. 이러한 컴퓨팅 요구 사항이 계속 증가함에 따라, 세계 유일의 완전 오프로드형 인-네트워크 컴퓨팅 플랫폼인 NVIDIA Quantum InfiniBand는 비용과 복잡성이 적은 고성능 컴퓨팅(HPC), AI 및 하이퍼스케일 클라우드 인프라에서 최고의 성능을 달성하는 데 필요한 극적인 성능 향상을 가져다줍니다.

InfiniBand 강화 기능

  • 네트워크 내 컴퓨팅

    NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol(SHARP)™은 집단 통신 작업을 스위치 네트워크로 오프로드하여 네트워크를 통과하는 데이터의 양을 줄이고 MPI(메시지 전달 인터페이스) 작업 시간을 단축하며 데이터 센터 효율성을 높입니다.

  • 자가 치유 네트워크

    자가 치유 네트워크 기능을 갖춘 NVIDIA InfiniBand는 링크 장애를 극복하여 다른 소프트웨어 기반 솔루션보다 5,000배 빠른 네트워크 복구를 가능하게 합니다. 이러한 기능은 최신 세대의 InfiniBand 스위치에 내장된 인텔리전스를 활용합니다.

  • 서비스 품질

    InfiniBand는 고급 정체 제어 및 적응형 라우팅을 포함하여 입증된 서비스 품질 기능을 갖춘 유일한 고성능 상호 연결 솔루션으로 탁월한 네트워크 효율성을 제공합니다.

  • 네트워크 토폴로지

    InfiniBand는 중앙 집중식 관리를 제공하고 Fat Tree, Hypercubes, 다차원 Torus 및 Dragonfly+를 포함한 모든 토폴로지를 지원합니다. 라우팅 알고리즘은 특정 애플리케이션 통신 패턴에 대한 토폴로지를 설계할 때 성능을 최적화합니다.

최적의 성능을 위한 소프트웨어

  • MLNX_OFED

    OpenFabrics Alliance의 OFED는 고성능 입출력(IO) 제조업체가 공동으로 개발하고 테스트했습니다. NVIDIA MLNX_OFED는 NVIDIA에서 테스트한 OFED 버전입니다.

  • HPC-X®

    NVIDIA HPC-X®는 포괄적인 MPI 및 SHMEM/PGAS 소프트웨어 제품군입니다. HPC-X는 InfiniBand 네트워크 내 컴퓨팅 및 가속 엔진을 활용하여 연구 및 산업 애플리케이션을 최적화합니다.

  • UFM®

    NVIDIA Unified Fabric Manager (UFM®) 플랫폼은 데이터 센터 관리자가 InfiniBand 네트워크 인프라를 효율적으로 프로비저닝, 모니터링, 관리하고 사전에 문제를 해결할 수 있도록 지원합니다.

  • Magnum IO™

    NVIDIA Magnum IO™는 네트워크 IO, 네트워크 내 컴퓨팅, 스토리지 및 IO 관리를 활용하여 다중 GPU, 다중 노드 시스템에 대한 데이터 이동, 액세스 및 관리를 단순화하고 속도를 높입니다.

NVIDIA ConnectX-8 SuperNIC Adapters

Highest-performance 800G networking designed for massive-scale AI

NVIDIA Quantum-2 InfiniBand 아키텍처 기반의 ConnectX-8 InfiniBand SuperNIC는 NVIDIA In-Network Computing 가속 엔진을 지원하여 초당 800Gb/s(기가바이트/초)의 데이터 처리량을 제공하여 수조 개의 매개변수에 달하는 AI 공장과 과학적 컴퓨팅 워크로드를 구동하는 데 필요한 성능과 강력한 기능 세트를 제공합니다. 어댑터용 단일 포트 OSFP224 및 듀얼 포트 112 커넥터를 갖춘 ConnectX-8 SuperNIC은 OCP 3.0 및 CEM PCIe x16을 포함한 다양한 폼 팩터와 호환이 가능하며 NVIDIA Socket Direct™ 16 레인 보조 카드 확장도 지원합니다.

이미지
  • 소프트웨어 정의 네트워킹 가속화

    ConnectX NIC에 내장된 NVIDIA ASAP 기술은 CPU 패널티 없이 소프트웨어 정의 네트워킹을 가속화합니다.

  • 엣지에서 코어까지 보안 제공

    ConnectX NIC는 인라인 암호화/복호화를 통해 보안을 오프로드하고 가속화하는 혁신적인 하드웨어 엔진을 제공합니다.

  • 스토리지 성능 향상

    ConnectX NIC는 RoCE 및 GPUDirect ® 스토리지를 통해 고성능 스토리지 및 데이터 액세스를 지원합니다. TCP(Transmission Control Protocol) 가속을 통한 NVMe(NVM Express)가 ConnectX-7에 추가되었습니다.

  • 정밀한 타이밍 활성화

    ConnectX-6 Dx부터 ConnectX NIC는 데이터 센터 애플리케이션과 기본 인프라에 매우 정확한 시간 동기화 서비스를 제공합니다.

Product Specifications

Supported network protocols InfiniBand, Ethernet Host interface PCIe Gen6: up to 48 lanes
Maximum total bandwidth 800Gb/s InfiniBand speeds 800/400/200/100 Gb/s
Ethernet speeds 400/200/100/50/25 Gb/s Interface technologies
  • PCIe HHHL 1P x OSFP
  • PCIe HHHL 2P x QSFP112
  • Dual ConnectX-8 Mezzanine
  • OCP 3.0 TSFF 1P x OSFP

Features*

InfiniBand Interface
  • - Supports 200/100/50G PAM4
  • - Speeds
    • • 1 port × 800/400/200/100 Gb/s
    • • 2 ports × 400/200/100 Gb/s
  • - Max. bandwidth: 800 Gb/s
  • - IBTA v1.7-compliant
  • - 16 million QP channels
  • - 256- to 4,096-byte MTU, 2 GB messages
Ethernet Interface
  • - Supports 100/50G PAM4 and 25/10G NRZ
  • - Speeds
    • • 1 port × 400/200/100 Gb/s
    • • 2 ports × 400/200/100/50/25 Gb/s
  • - Supports up to 8 split ports
  • - Max. bandwidth: 800 Gb/s
Host Interface
  • - PCIe Gen6 (up to 48 lanes)
  • - NVIDIA Multi-Host™ (up to four hosts)
  • - PCIe switch downstream port containment (DPC)
  • - MSI/MSI-X
Optimized Cloud Networking
  • - Stateless offloads: IP/TCP/UDP checksum
  • - LSO, LRO, GRO, TSS, RSS
  • - SR-IOV
  • - Ethernet Accelerated Switching and Packet Processing™ (ASAP2) for SDN and VNF
    • • OVS acceleration
    • • Overlay network accelerations: VXLAN, GENEVE, NVGRE
    • • Connection tracking (L4 firewall) and NAT
    • • Hierarchical QoS, header rewrite, flow mirroring, flow-based statistics, flow aging
Advanced AI/HPC Networking
  • - RDMA and RoCEv2 accelerations
  • - Advanced, programmable congestion control
  • - NVIDIA® GPUDirect® RDMA
  • - GPUDirect Storage
  • - In-network computing
  • - High-speed packet reordering
  • - MPI accelerations
    • • Burst-buffer offloads
    • • Collective operations
    • • Enhanced atomic operations
    • • Rendezvous protocol offloads
AI/HPC Software
  • - NCCL
  • - HPC-X
  • - DOCA UCC/UCX
  • - Open MPI
  • - MVAPICH2
Cybersecurity
  • - Platform security
    • • Secure boot with hardware root of trust
    • • Secure firmware update
    • • Flash encryption
    • • Device attestation (SPDM 1.1)
  • - Inline crypto accelerations: IPsec, MACsec, PSP
Advanced Timing
and Synchronization
  • - Advanced Precision Time Protocol (PTP): IEEE 1588v2 (any profile), G.8273.2 Class C, line-rate hardware timestamp (UTC format)
  • - SyncE: Meets G.8262.1 (EEC)
  • - Precise Time Measurement (PTM)
  • - Configurable pulse per second (PPS) in and out
  • - Time-triggered scheduling
  • - PTP-based packet pacing
Management and Control
  • - Network Control Sideband Interface (NC-SI)
  • - MCTP over SMBus and PCIe PLDM for:
    • • Monitor and Control DSP0248
    • • Firmware Update DSP0267
    • • Redfish Device Enablement DSP0218
    • • Field-Replaceable Unit (FRU) DSP0257
  • - Security Protocols and Data Models (SPDM) DSP0274
  • - Serial Peripheral Interface (SPI) to flash
  • - Joint Test Action Group (JTAG) IEEE 1149.1 and IEEE 1149.6
Network Boot
  • - InfiniBand or Ethernet
  • - PXE boot
  • - iSCSI boot
  • - Unified Extensible Firmware Interface (UEFI)

주문 정보 및 자세한 제품 사양은 [주]리더스시스템즈에 문의하세요.

제품문의

제품과 관련하여 궁금하신 사항을
문의하기를 통해 해결하세요.

문의 바로가기

기술지원 문의

A/S 서비스 및 기술지원 관련하여
궁금하신 사항을 문의하기를 통해 해결하세요.

문의 바로가기

교육문의

딥러닝 교육 및 트레이닝 관련하여
궁금하신 사항을 문의하기를 통해 해결하세요.

문의 바로가기
맨위로가기