
엑사스케일 AI 시대를 위한 최고의
INFINIBAND 네트워킹 솔루션
- 인-네트워크 컴퓨팅
-
NVIDIA SHARP(Scalable Hierarchical Aggregation and Reduction Protocol)™는 CPU에서 스위치 네트워크로 집합 통신 연산을 오프로드합니다. 이 혁신적인 접근 방식은 네트워크를 횡단하는 데이터의 양을 줄여주고 MPI
작업 시간을 크게 단축합니다.
- 자체 회복 네트워크
- HPC에서 클러스터는 안정적인 고속 인터커넥트에 의존합니다. NVIDIA SHIELD™는 연결 오류를 극복하여 다른 어떤 소프트웨어 기반 솔루션보다도 5,000배 더 빠른 네트워크 복구를 가능하게 합니다. SHIELD는 최신 세대의 InfiniBand 스위치에 내장된 인텔리전스를 활용합니다.
- 서비스 품질
-
InfiniBand는 고급 정체 제어 및 적응형 라우팅을 포함한 검증된 서비스 품질
기능을 지닌 유일한 고성능 인터커넥트 솔루션으로, 비할 데 없는 네트워크 효율성을 제공합니다.
- 네트워크 토폴로지
- InfiniBand는 완전한 중앙 집중식 관리를 통해 어떤 토폴로지도 지원할 수 있습니다. 인기 있는 토폴로지로는 Fat Tree, Hypercubes, 다차원 Torus 및 Dragonfly+ 등이 있습니다. 최적화된 라우팅 알고리즘은 특정 애플리케이션 통신 패턴에 대한 토폴로지 설계 시 최적화된 성능을 제공합니다.

INFINIBAND 어댑터
AI, 데이터 사이언스 및 HPC 워크로드 가속화
- Virtual Protocol Interconnect® (VPI)
- 유연성을 통해 모든 표준 네트워킹, 클러스터링, 스토리지 및 관리 프로토콜이 통합 소프트웨어 스택을 활용하는 모든 통합 네트워크에서 원활하게 작동 할 수 있습니다. 각 포트는 InfiniBand 또는 이더넷 패브릭에서 작동 할 수 있으며 IPoIB (IP over InfiniBand) 및 RoCE (RDMA over Converged Ethernet)를 지원합니다. VPI는 I/O 시스템 설계를 단순화하고 IT 관리자가 동적 데이터 센터의 과제를 해결하는 인프라를보다 쉽게 배포 할 수 있도록합니다.
- Complete End-to-End HDR InfiniBand Networking
-
Quantum™ HDR InfiniBand 스위치 및 Unified Fabric Management 소프트웨어 제품군은 네트워킹 관리 및 설치를 단순화하고 최고의 확장성과 향후 성장에 필요한 기능을 제공하는 고급 툴을 통합했습니다.
HPC-X™ 컬렉션, 메시징 및 스토리지 가속화 패키지는 궁극적인 서버 성능을 위한 추가 기능을 제공하며 HDR 동선과 광섬유 케이블 라인은 최고의 상호 연결 성능을 보장합니다.
IT 관리자는 최고의 성능과 효율성을 자랑하는 네트워크 패브릭을 확보할 수
있습니다.
- I/O Virtualization
-
NVIDIA 어댑터는 SR-IOV(Single-Root I/O Virtualization)를 통해 가상화
데이터 센터를 포괄적으로 지원하며 서버 내에서 전용 어댑터 리소스를 제공하고 VM(가상 머신)에 대한 격리 및 보호를 보장합니다. InfiniBand의 I/O 가상화를 통해 데이터 센터 관리자는 보다 나은 서버 활용률과 LAN 및 SAN 통합 기능을 제공하는 동시에 비용, 전력 및 케이블 복잡성을 줄일 수 있습니다.
- NVIDIA Multi-Host® Solution
-
고성능 데이터 센터 구축에 높은 유연성과 비용의 대폭 절감이 가능합니다.
여러 컴퓨팅 또는 스토리지 호스트를 단일 인터커넥트 어댑터에 연결하여 성능 저하 없이 어댑터 PCIe를 여러 독립 PCIe 인터페이스로 분리합니다.
이를 통해 컴퓨팅 요소, 스토리지 요소 및 네트워크 간의 직접 연결, 전력 및 성능 관리 개선,
최소 자본으로 최대의 데이터 처리 및 데이터 전송 기능을 갖춘 컴퓨팅 및 스토리지 랙을 설계하고 구축할 수 있습니다.

최적의 성능을 위한 소프트웨어
- MLNX_OFED
-
OpenFabrics Alliance (www.openfabrics.org)의 OFED는 주요 고성능
I/O 공급업체들의 공동 개발 및 테스트를 통해 입지가 확고해졌습니다. MLNX_OFED는 NVIDIA가 테스트하고 패키지화한 OFED 버전입니다.
- HPC-X
-
NVIDIA HPC-X® ScalableHPC 툴킷은 포괄적인 MPI 및 SHMEM/PGAS
소프트웨어 제품군입니다. HPC-X를 사용하면 라이선스가 있는 타사 도구 및
라이브러리 비용 없이 간단하게 신속한 배포와 최대 애플리케이션 성능 제공이 가능합니다.
- UFM
-
NVIDIA UFM® (Unified Fabric Management) 플랫폼은 AI 기반의 사이버 인텔리전스 및 분석과 향상된 실시간 네트워크 원격 분석을 결합해 OPEX를
줄이는 동시에 패브릭 리소스의 더 높은 사용률 및 경쟁 우위를 실현합니다.
- MAGNUM IO
-
NVIDIA GPU 및 NVIDIA 네트워킹 하드웨어 토폴로지가 최적의 처리량과 짧은 지연 시간을 달성할 수 있도록 지원합니다. 네트워크 IO, 인-네트워크 컴퓨팅, 스토리지 및 IO 관리를 활용하여 멀티 GPU, 멀티 노드 시스템을 위한 데이터
이동, 액세스 및 관리를 단순화하고 가속화합니다.
PARTNERS
세계 최초의 HDR 200 Gb/s InfiniBand 호스트 채널 어댑터
NVIDIA CONNECTX-6 VPI
인텔리전트 NVIDIA ® ConnectX ®-6 어댑터 카드는 고성능 컴퓨팅 (HPC), 인공 지능 (AI), 클라우드, 하이퍼 스케일 및 스토리지 플랫폼에서 효율성을 극대화하기 위한 고성능 및 NVIDIA In-Network 컴퓨팅 가속화 엔진을 제공합니다. InfiniBand 및 이더넷 연결을 위해 최대 2개의 포트 200 Gb/s 처리량을 제공하며, 대기 시간이 매우 짧고 초당 2억 1,500만 개의 메시지를 제공하며, 성능과 효율성을 높이는 혁신적인 스마트 오프로드 및 네트워크 내 컴퓨팅 가속화를 특징으로 합니다. 네트워크 내 메모리 기능, MPI(메시지 전달 인터페이스) 태그가 하드웨어 가속, 주문 외 RDMA 쓰기 및 읽기 작업, HDR, HDR100, EDR 및 FDRINI에 대한 정체 제어와 같은 혁신적인 기능을 제공합니다.


- 고성능 컴퓨팅 (HPC)
- ConnectX-5는 메시지 전달 인터페이스(MPI) 및 랑데부 태그 매칭 오프로드와 적응 라우팅, 순서 외 RDMA 데이터 전송, 동적으로 연결된 전송 및 버스트 버퍼 오프로드를 지원하여 까다로운 HPC 및 딥 러닝 워크로드를 위한 탁월한 네트워킹 성능을 제공합니다.

- NVIDIA Multi-Host®
-
ConnectX-5는 성능 저하없이 최대 4 개의 개별 호스트를 활성화 하여 NVIDIA Multi-Host® 기술을 향상시킵니다.
차세대 클라우드, 웹 2.0 및 고성능 데이터 센터에서 여러 호스트와 중앙 집중식 네트워크 컨트롤러 간의 직접 연결을 통해
새로운 확장형 이기종 컴퓨팅 및 스토리지 랙을 설계하고 구축 할 수 있습니다.
- 스토리지
- ConnectX-5는 NVMe-oF (NVMe over Fabrics) 대상 오프로드를 제공하여 성능 향상과 지연 시간 단축을 위해 CPU 개입없이 효율적인 NVMe 스토리지 액세스를 가능하게함으로써 더욱 향상된 기능을 제공합니다.
Highlights
- PORT SPEEDS
- 2x200 Gb/s
- TOTAL BANDWIDTH
- 200 Gb/s
- MESSAGE RATE
- 215 million messages/sec
- PCIe LANES
- x32 Gen3/Gen4

NVIDIA ConnectX-6 VPI
Adapter Card HDR InfiniBand and
200GbE Dual-Port QSFP56 Socket Direct
2x PCIe 3.0 x16 Tall Brackets
인텔리전트 NVIDIA®ConnectX®-6 어댑터 카드는 고성능 컴퓨팅 (HPC),
인공 지능 (AI), 클라우드, 하이퍼 스케일 및 스토리지 플랫폼에서 효율성을 극대화하기 위한 고성능 및 NVIDIA In-Network 컴퓨팅 가속화 엔진을 제공합니다.
- • 업계 최고의 처리량, 낮은 CPU 사용률 및 높은 메시지 속도
- • 컴퓨팅 및 스토리지 인프라를위한 최고의 성능과 가장 지능적인 패브릭
- • NFV (Network Function Virtualization)를 포함한 가상화 된 네트워크의 최첨단 성능
- • 경제적 인 랙 설계를위한 호스트 체인 기술
- • x86, Power, Arm, GPU 및 FPGA 기반 컴퓨팅 및 스토리지 플랫폼을위한 스마트 상호 연결
- • 새로운 네트워크 흐름을위한 유연한 프로그래밍 가능 파이프 라인
- • 효율적인 서비스 체이닝 지원
- • I / O 통합 효율성 향상, 데이터 센터 비용 및 복잡성 감소
Compatibility
PCI Express Interface
- PCIe Gen 4.0, 3.0, 2.0, 1.1 compatible
- 2.5, 5.0, 8, 16 GT/s link rate
- 32 lanes as 2x 16-lanes of PCIe
- Support for PCIe x1, x2, x4, x8, and x16 configurations
- PCIe Atomic
- TLP (Transaction Layer Packet) Processing Hints (TPH)
- PCIe switch Downstream Port Containment (DPC) enablement for
PCIe hot-plug - Advanced Error Reporting (AER)
- Access Control Service (ACS) for peer-to-peer secure communication
- Process Address Space ID (PASID) Address Translation Services (ATS)
- IBM CAPIv2 (Coherent Accelerator Processor Interface)
- Support for MSI/MSI-X mechanisms
Operating Systems/Distributions*
- RHEL, SLES, Ubuntu and other major Linux distributions
- Windows
- FreeBSD
- VMware
- OpenFabrics Enterprise Distribution (OFED)
- OpenFabrics Windows Distribution (WinOF-2)
Connectivity
- Interoperability with InfiniBand switches
(up to HDR, as 4 lanes of 50 Gb/s datarate) - Interoperability with Ethernet switches
(up to 200GbE, as 4 lanes of 50 Gb/s data rate)
- Passive copper cable with ESD protection
- Powered connectors for optical and active cable support
(*) 이 표시 에서는 하드웨어의 특징 및 기능에 대해 설명합니다. 기능 가용성은 드라이버 및 펌웨어 릴리스 정보를 참조하십시오.
Features*
InfiniBand
- HDR / HDR100 / EDR / FDR / QDR / DDR / SDR
- IBTA Specification 1.3 compliant
- RDMA, Send/Receive semantics
- Hardware-based congestion control
- Atomic operations
- 16 million I/O channels
- 256 to 4Kbyte MTU, 2Gbyte messages
- 8 virtual lanes + VL15
Ethernet
- 200GbE / 100GbE / 50GbE / 40GbE / 25GbE / 10GbE / 1GbE
- IEEE 802.3bj, 802.3bm 100 Gigabit Ethernet
- IEEE 802.3by, Ethernet Consortium 25, 50 Gigabit Ethernet,
supporting all FEC modes - IEEE 802.3ba 40 Gigabit Ethernet
- IEEE 802.3ae 10 Gigabit Ethernet
- IEEE 802.3az Energy Efficient Ethernet
- IEEE 802.3ap based auto-negotiation and KR startup
- IEEE 802.3ad, 802.1AX Link Aggregation
- IEEE 802.1Q, 802.1P VLAN tags and priority
- IEEE 802.1Qau (QCN)
- Congestion Notification
- IEEE 802.1Qaz (ETS)
- IEEE 802.1Qbb (PFC)
- IEEE 802.1Qbg
- IEEE 1588v2
- Jumbo frame support (9.6KB)
Enhanced Features
- Hardware-based reliable transport
- Collective operations offloads
- Vector collective operations offloads
- NVIDIA PeerDirect® RDMA (aka GPUDirect®) communication acceleration
- 64/66 encoding
- Enhanced Atomic operations
- Advanced memory mapping support, allowing user mode registration
and remapping of memory (UMR)
- Extended Reliable Connected transport (XRC)
- Dynamically Connected Transport (DCT)
- On demand paging (ODP)
- MPI Tag Matching
- Rendezvous protocol offload
- Out-of-order RDMA supporting Adaptive Routing
- Burst buffer offload
- In-Network Memory registration-free RDMA memory access
CPU Offloads
- RDMA over Converged Ethernet (RoCE)
- TCP/UDP/IP stateless offload
- LSO, LRO, checksum offload
- RSS (also on encapsulated packet), TSS, HDS, VLAN and MPLS tag
insertion/stripping, Receive flow steering - Data Plane Development Kit (DPDK) for kernel bypass applications
- Open vSwitch (OVS) offload using ASAP
- Flexible match-action flow tables
- Tunneling encapsulation/de-capsulation
- Intelligent interrupt coalescence
- Header rewrite supporting hardware offload of NAT router
Hardware-Based I/O Virtualization - NVIDIA ASAP
- Single Root IOV
- Address translation and protection
- VMware NetQueue support
- SR-IOV: Up to 1K Virtual Functions
- SR-IOV: Up to 8 Physical Functions per host
- Virtualization hierarchies (e.g., NPAR)
- Virtualizing Physical Functions on a physical port
- SR-IOV on every Physical Function
- Configurable and user-programmable QoS
- Guaranteed QoS for VMs
Storage Offloads
- Block-level encryption: XTS-AES 256/512 bit key
- NVMe over Fabric offloads for target machine
- T10 DIF - signature handover operation at wire speed, for ingress
and egress traffic
- Storage protocols: SRP, iSER, NFS RDMA, SMB Direct, NVMe-oF
Overlay Networks
- RoCE over overlay networks
- Stateless offloads for overlay network tunneling protocols
- Hardware offload of encapsulation and decapsulation of VXLAN, NVGRE, and GENEVE overlay networks
HPC Software Libraries
- HPC-X, OpenMPI, MVAPICH, MPICH, OpenSHMEM, PGAS and varied commercial packages
Management and Control
- NC-SI over MCTP over SMBus and NC-SI over MCTP over PCIe - Baseboard Management
Controller interface - PLDM for Monitor and Control DSP0248
- PLDM for Firmware Update DSP0267
- SDN management interface for managing the eSwitch
- I2C interface for device control and configuration
- General Purpose I/O pins
- SPI interface to flash
- JTAG IEEE 1149.1 and IEEE 1149.6
Remote Boot
- Remote boot over InfiniBand
- Remote boot over Ethernet
- Remote boot over iSCSI
- Unified Extensible Firmware Interface (UEFI)
- Pre-execution Environment (PXE)
(*) 이 표시 에서는 하드웨어의 특징 및 기능에 대해 설명합니다. 기능 가용성은 드라이버 및 펌웨어 릴리스 정보를 참조하십시오.
Adapter Card Portfolio & Ordering Information*
OPN | InfiniBand Supported Speeds (Gb/s) |
Ethernet Supported Speeds (GbE) |
Network Ports |
PCI Express Configuration |
Form Factor |
Cages |
---|---|---|---|---|---|---|
MCX653105A-ECAT | HDR100, EDR, FDR, QDR, DDR, SDR |
100 / 50 / 40 / 25 / 10 | 1 | PCIe 3.0/4.0 x16 | PCIe Standup |
QSFP56 |
MCX651105A-EDAT | 100 / 50 / 40 / 25 / 10 | 1 | PCIe 4.0 x8 | |||
MCX653106A-ECAT | 100 / 50 / 40 / 25 / 10 | 2 | PCIe 3.0/4.0 x16 | |||
MCX653105A-HDAT MCX653105A-HDAL(1) |
HDR, HDR100, EDR, FDR, QDR, DDR, SDR |
200 / 100 / 50 / 40 / 25 / 10 | 1 | PCIe 3.0/4.0 x16 | ||
MCX653105A-HDAT MCX653105A-HDAL(1) |
HDR, HDR100, EDR, FDR, QDR, DDR, SDR |
200 / 100 / 50 / 40 / 25 / 10 | 2 | PCIe 3.0/4.0 x16 | ||
MCX653105A-EFAT | HDR100, EDR, FDR, QDR, DDR, SDR |
100 / 50 / 40 / 25 / 10 | 1 | PCIe 3.0/4.0 x16 Socket Direct 2x8 in a row |
||
MCX653106A-EFAT | HDR100, EDR, FDR, QDR, DDR, SDR |
100 / 50 / 40 / 25 / 10 | 2 | PCIe 3.0/4.0 x16 Socket Direct 2x8 in a row |
||
MCX654105A-HCAT | HDR, HDR100, EDR, FDR, QDR, DDR, SDR |
200 / 100 / 50 / 40 / 25 / 10 | 1 | Socket Direct 2x PCIe 3.0 x16 | ||
MCX654106A-HCAT | 200 / 100 / 50 / 40 / 25 / 10 | 2 | Socket Direct 2x PCIe 3.0 x16 | |||
MCX654106A-ECAT | HDR100, EDR, FDR, QDR, DDR, SDR |
100 / 50 / 40 / 25 / 10 | 2 | Socket Direct 2x PCIe 3.0 x16 | ||
MCX653435A-HDAI | HDR, HDR100, EDR, FDR, QDR, DDR, SDR |
200 / 100 / 50 / 40 / 25 / 10 | 1 | PCIe 3.0/4.0 x16 | OCP 3.0 SFF |
|
MCX653436A-HDAI | 200 / 100 / 50 / 40 / 25 / 10 | 2 | PCIe 3.0/4.0 x16 | |||
MCX653435A-EDAI | HDR100, EDR, FDR, QDR, DDR, SDR |
100 / 50 / 40 / 25 / 10 | 1 | PCIe 3.0/4.0 x16 | ||
MCX653435A-HDAE | HDR, HDR100, EDR, FDR, QDR, DDR, SDR |
200 / 100 / 50 / 40 / 25 / 10 | 1 | PCIe 3.0/4.0 x16 |
1. By default, the above products are shipped with a tall bracket mounted; a short bracket is included as an accessory.
2. 100GbE can be supported as either 4x25G NRZ or 2x50G PAM4 when using QSFP56.
3. Contact NVIDIA for other supported options.