NVIDIA ConnectX-6 EN
Adapter Card 200GbE
Dual-Port
엔비디아 코리아 정품

데이터시트 다운
제품이미지 NVIDIA ELITE PARTNER

고급 하드웨어 오프로드 및 가속화를 제공하는
업계 최고의 NVIDIA ® ConnectX ®
스마트 네트워크 인터페이스 카드(SmartNIC)

소프트웨어 정의
네트워킹 가속화
ConnectX SmartNIC에 내장된 NVIDIA ASAP 기술은 CPU 패널티 없이 소프트웨어 정의 네트워킹을 가속화합니다.
엣지에서 코어까지
보안 제공
ConnectX SmartNIC는 인라인 암호화 / 복호화로 보안을 오프로드하고 가속화하는 혁신적인 하드웨어 엔진을 제공합니다.
스토리지 성능 향상
ConnectX SmartNIC는 RoCE 및 GPUDirect ® 스토리지를 통해 고성능 스토리지 및 데이터 액세스를 지원합니다. NVM Express (NVMe) 및 전송 제어 프로토콜 (TCP) 가속이 ConnectX-7에 추가되었습니다.
정밀 타이밍 활성화
ConnectX-6 Dx부터 ConnectX SmartNIC는 데이터 센터 애플리케이션 및 기본 인프라에 대해 정확한 시간 동기화 서비스를 제공합니다.

세계적 수준의 이더넷 성능

NVIDIA ASAP - 가속 스위치 및 패킷 처리® 기술, ConnectX SmartNIC는 네트워크 성능을 가속화하는 동시에 IP(Internet Protocol) 패킷 전송의 CPU 오버헤드를 줄여 애플리케이션을 실행하는 데 더 많은 프로세서 주기를 확보할 수 있습니다.

최고의 RoCE(Converged Ethernet) 성능을 갖춘 ConnectX SmartNIC는 대역폭 및 지연 시간에 민감한 애플리케이션에 효율적인 고성능 RDMA (Remote Direct-Memory Access) 서비스를 제공합니다.

ConnectX SmartNIC는 최대 400Gb/s의 속도로 암호화/암호 해독을 오프로드하고 가속화합니다.업계 최고의 DPDK(Data Plane Development Kit) 성능을 통해 CPU 주기를 줄이면서 더 많은 처리량을 제공합니다.

ConnectX SmartNIC는 하드웨어 내 신뢰 루트를 사용하여 운영 체제를 안전하게 부팅할 수 있습니다. ConnectX SmartNICS는 상위 가상화 및 컨테이너화 플랫폼뿐만 아니라 모든 주요 운영 체제에서 인증을 받았습니다.

이더넷 강화 기능

DOCA SDK
NVIDIA DOCA ™ 소프트웨어 개발 키트를 사용하면 개발자가 업계 표준 API를 활용하여 NVIDIA BlueField DPU 위에 애플리케이션과 서비스를 신속하게 만들 수 있습니다.
고급 보안
플랫폼 보안에서 가속화 된 암호화 및 분산 방화벽에 이르기까지 NVIDIA SmartNIC 및 DPU는 스택의 모든 계층에서 제로 트러스트 보호를 위해 소프트웨어 정의 하드웨어 가속화 보안 엔진을 제공합니다.
업계 최고의 RoCE
NVIDIA SmarNIC 및 DPU는 동급 최고의 엔터프라이즈 급 RoCE (RDMA over Converged Ethernet) 가속화를 제공하여 확장형 분산 애플리케이션을 위한 탁월한 처리량과 짧은 지연 시간 연결을 제공합니다.
SDN 가속
NVIDIA Accelerated Switch and Packet Processing® (ASAP) 기술은
소프트웨어 정의 네트워크 성능을 가속화하는 동시에 비즈니스 워크로드를
위해 데이터 센터 CPU를 확보합니다.
데이터 센터를위한 가장 빠르고
효율적인 이더넷 달성
업계 최고의 ConnectX 지능형 네트워크 어댑터 제품군은 가장 광범위하고 가장 진보된 하드웨어 가속 엔진을 제공합니다. 규모에 관계없이 모든 워크로드를 실행하는 ConnectX는 클라우드 데이터 센터, 엔터프라이즈 환경, 통신 회사를 위한 SDN 및 네트워크 기능 가상화 (NFV)에 대해 최고의 ROI와 최저 TCO를 지원합니다.

PARTNERS

  • DELL EMC
  • HBC
  • Hewlett Packard Enterprise
  • IBM
  • Lenovo
  • SUPERMICR

최고의 성능과 가장 유연한 솔루션 CONNECTX-6

ConnectX-6은 200 Gb/s 이더넷 연결, 800나노초 미만의 지연 시간, 초당 2억1500만 개의 메시지를 지원하는 등 까다로운 애플리케이션 및
시장에 적합한 최고의 성능과 유연한 솔루션을 제공합니다. ConnectX-6은 업계 최고의 어댑터 카드인 ConnectX 시리즈에 획기적인 추가 기능으로
성능과 확장성을 향상하고 200/100/50/40/25/10/10/1GbE 이더넷 속도 및 PCIe Gen4를 추가로 지원합니다. 또한 ConnectX-6 이더넷 카드는
최대 32개의 PCIe 레인을 연결하여 3.0세대 PCIe 시스템에서도 200 Gb/s의 대역폭을 제공할 수 있습니다.

클라우드 및 웹 2.0 환경
NVIDIA RoCE 기술은 이더넷을 통한 패킷 전송을 캡슐화하고 CPU 로드를 줄여 네트워킹 및 스토리지 집약적인 애플리케이션을 위한 ConnectX-6은 제어 플레인을 수정되지 않은 상태로 유지하면서 NIC 하드웨어에서 데이터 플레인을 처리하여 vSwitch / vRouter를 오프로드하는 NVIDIA 가속 스위칭 및 패킷 처리 (ASAP) Direct 기술을 제공합니다. 결과적으로 관련 CPU로드 없이 훨씬 더 높은 vSwitch / vRouter 성능을 얻을 수 있습니다.
기계 학습 및 빅 데이터 환경
기계 학습은 특히 높은 처리량과 짧은 지연 시간에 의존하여 심층 신경망을 훈련하고 인식 및 분류 정확도를 개선합니다. 200Gb/s 처리량을 제공하는 최초의 어댑터인 ConnectX-6은 머신 러닝 애플리케이션에 필요한 수준의 성능과 확장성을 제공하는 완벽한 솔루션입니다.
블록 수준 XTS-AES 모드 하드웨어 암호화
ConnectX-6은 블록 레벨 암호화를 제공하여 네트워크 보안에 대한 중요한 혁신을 제공합니다. 전송 중인 데이터는 저장되고 검색될 때 암호화 및 암호 해독을 거칩니다. 암호화/암호 해독은 ConnectX-6 하드웨어에 의해 오프로드 되어 대기 시간을 절약하고 CPU를 오프로드합니다. ConnectX-6 블록 레벨 암호화 오프로드를 사용하면 서로 다른 암호화 키를 사용할 수 있으므로 동일한 리소스를 공유하는 사용자 간에 보호할 수 있습니다.

Highlights

PORT SPEEDS
2x200 Gb/s
MESSAGE RATE (DPDK)
215 million msgs/sec
PCIe LANES
x32 Gen3/Gen4
ENCRYPTION
AES-XTS

NVIDIA
ConnectX-6 EN Adapter Card
200GbE Dual-Port QSFP56 Socket
Direct 2x PCIe 3.0 x16 Tall Brackets

ConnectX-6은 200 / 100 / 50 / 40 / 25 / 10 / 1GbE 이더넷 속도 및 PCIe Gen 지원과 같이 성능 및 확장성을 더욱 향상시키기위한 여러 가지 향상된 기능을 제공합니다. 4.0. 또한 ConnectX-6 이더넷 카드는 최대 32 개의 PCIe 레인을 연결하여 Gen 3.0 PCIe 시스템에서도 200Gb / s의 대역폭을 달성 할 수 있습니다.

  • • 컴퓨팅 및 스토리지 인프라를위한 가장 지능적인 고성능 패브릭
  • • NFV (Network Function Virtualization)를 포함한 가상화 된 HPC 네트워크의 최첨단 성능
  • • 블록 수준 암호화 및 체크섬 오프로드를 포함한 고급 스토리지 기능
  • • 경제적 인 랙 설계를위한 호스트 체인 기술
  • • x86, Power, Arm, GPU 및 FPGA 기반 플랫폼을위한 스마트 상호 연결
  • • 새로운 네트워크 흐름을위한 유연한 프로그래밍 가능 파이프 라인
  • • 효율적인 서비스 체이닝을위한 Enabler
  • • 효율적인 I / O 통합, 데이터 센터 비용 및 복잡성 감소

Compatibility

PCI Express Interface

  • PCIe Gen 4.0, 3.0, 2.0, 1.1 compatible
  • 2.5, 5.0, 8.0, 16.0 GT/s link rate
  • 32 lanes as 2x 16-lanes of PCIe
  • Support for PCIe x1, x2, x4, x8, and x16 configurations
  • PCIe Atomic
  • TLP (Transaction Layer Packet) Processing Hints (TPH)
  • PCIe switch Downstream Port Containment (DPC) enablement for
    PCIe hot-plug
  • Advanced Error Reporting (AER)
  • Access Control Service (ACS) for peer-to-peer secure communication
  • Process Address Space ID (PASID) Address Translation Services (ATS)
  • IBM CAPIv2 (Coherent Accelerator Processor Interface)
  • Support for MSI/MSI-X mechanisms

Operating Systems/Distributions*

  • RHEL, SLES, Ubuntu and other major Linux distributions
  • Windows
  • FreeBSD
  • VMware
  • OpenFabrics Enterprise Distribution (OFED)
  • OpenFabrics Windows Distribution (WinOF-2)

Connectivity

  • Up to two network ports
  • Interoperability with Ethernet switches
    (up to 200GbE, as 4 lanes of 50GbE data rate)
  • Passive copper cable with ESD protection
  • Powered connectors for optical and active cable support

(*) 이 표시 에서는 하드웨어의 특징 및 기능에 대해 설명합니다. 기능 가용성은 드라이버 및 펌웨어 릴리스 정보를 참조하십시오.

Features*

Ethernet

  • 200GbE / 100GbE / 50GbE / 40GbE / 25GbE / 10GbE / 1GbE
  • IEEE 802.3bj, 802.3bm 100 Gigabit Ethernet
  • IEEE 802.3by, Ethernet Consortium 25, 50 Gigabit Ethernet,
    supporting all FEC modes
  • IEEE 802.3ba 40 Gigabit Ethernet
  • IEEE 802.3ae 10 Gigabit Ethernet
  • IEEE 802.3az Energy Efficient Ethernet
  • IEEE 802.3ap based auto-negotiation and KR startup
  • IEEE 802.3ad, 802.1AX Link Aggregation
  • IEEE 802.1Q, 802.1P VLAN tags and priority
  • IEEE 802.1Qau (QCN) – Congestion Notification
  • IEEE 802.1Qaz (ETS)
  • IEEE 802.1Qbb (PFC)
  • IEEE 802.1Qbg
  • IEEE 1588v2
  • Jumbo frame support (9.6KB)

Enhanced Features

  • Hardware-based reliable transport
  • Collective operations offloads
  • Vector collective operations offloads
  • NVIDIA PeerDirect® RDMA (aka GPUDirect®) communication acceleration
  • 64/66 encoding
  • Enhanced Atomic operations
  • Advanced memory mapping support, allowing user mode registration
    and remapping of memory (UMR)
  • Extended Reliable Connected transport (XRC)
  • Dynamically Connected transport (DCT)
  • On demand paging (ODP)
  • MPI Tag Matching
  • Rendezvous protocol offload
  • Out-of-order RDMA supporting Adaptive Routing
  • Burst buffer offload
  • In-Network Memory registration-free RDMA memory access

CPU Offloads

  • RDMA over Converged Ethernet (RoCE)
  • TCP/UDP/IP stateless offload
  • LSO, LRO, checksum offload
  • RSS (also on encapsulated packet), TSS, HDS, VLAN and MPLS tag insertion/stripping, Receive flow steering
  • Data Plane Development Kit (DPDK) for kernel bypass applications
  • Open vSwitch (OVS) offload using ASAP
  • Flexible match-action flow tables
  • Tunneling encapsulation / decapsulation
  • Intelligent interrupt coalescence
  • Header rewrite supporting hardware offload of NAT router

Hardware-Based I/O Virtualization - NVIDIA ASAP

  • Single Root IOV
  • Address translation and protection
  • VMware NetQueue support
    • SR-IOV: Up to 1K Virtual Functions
    • SR-IOV: Up to 8 Physical Functions per host
  • Virtualization hierarchies (e.g., NPAR)
  • Virtualizing Physical Functions on a physical port
  • SR-IOV on every Physical Function
  • Configurable and user-programmable QoS
  • Guaranteed QoS for VMs

Storage Offloads

  • Block-level encryption : XTS-AES 256/512 bit key
  • NVMe over Fabric offloads for target machine
  • T10 DIF - signature handover operation at wire speed, for ingress
    and egress traffic
  • Storage Protocols: SRP, iSER, NFS RDMA, SMB Direct, NVMe-oF

Overlay Networks

  • RoCE over overlay networks
  • Stateless offloads for overlay network tunneling protocols
  • Hardware offload of encapsulation and decapsulation of VXLAN, NVGRE, and GENEVE overlay networks

Management and Control

  • NC-SI over MCTP over SMBus and NC-SI over MCTP over PCIe -Baseboard Management Controller interface
  • PLDM for Monitor and Control DSP0248
  • PLDM for Firmware Update DSP0267
  • SDN management interface for managing the eSwitch
  • I2C interface for device control and configuration
  • General Purpose I/O pins
  • SPI interface to Flash
  • JTAG IEEE 1149.1 and IEEE 1149.6

Remote Boot

  • Remote boot over Ethernet
  • Remote boot over iSCSI
  • Unified Extensible Firmware Interface (UEFI)
  • Pre-execution Environment (PXE)

(*) 이 표시 에서는 하드웨어의 특징 및 기능에 대해 설명합니다. 기능 가용성은 드라이버 및 펌웨어 릴리스 정보를 참조하십시오.

Standards*

  • IEEE 802.3cd, 50,100 and 200 Gigabit Ethernet
  • IEEE 802.3bj, 802.3bm 100 Gigabit Ethernet
  • IEEE 802.3by, Ethernet Consortium 25, 50 Gigabit Ethernet supporting all FEC modes
  • IEEE 802.3ba 40 Gigabit Ethernet
  • IEEE 802.3ae 10 Gigabit Ethernet
  • IEEE 802.3az Energy Efficient Ethernet (supports only “Fast-Wake” mode)
  • IEEE 802.3ap based auto-negotiation and KR startup
  • IEEE 802.3ad, 802.1AX Link Aggregation
  • IEEE 802.1Q, 802.1P VLAN tags and priority
  • IEEE 802.1Qau (QCN) Congestion Notification
  • IEEE 802.1Qaz (ETS)
  • IEEE 802.1Qbb (PFC)
  • IEEE 802.1Qbg
  • IEEE 1588v2
  • 25G/50G Ethernet Consortium “Low Latency FEC” for 50/100/200GE PAM4 links
  • PCI Express Gen 3.0 and 4.0

(*) 이 표시 에서는 하드웨어의 특징 및 기능에 대해 설명합니다. 기능 가용성은 드라이버 및 펌웨어 릴리스 정보를 참조하십시오.

Adapter Card Portfolio & Ordering Information*

information
Max. Network Speed Interface Type Supported Ethernet Speed [GbE] Host Interface [PCIe] OPN
2x 100 GbE QSFP56 1002 / 50 / 40 / 25 / 10 / 1 Gen 3.0 2x16 Socket Direct MCX614106A-CCAT
SFP-DD Gen 4.0 x16 Contact
1x 200 GbE QSFP56 200 / 1002 / 50 / 40 / 25 / 10 / 1 Gen 3.0 2x16 Socket Direct MCX614105A-VCAT
Gen 4.0 x16 Contact
2x 200 GbE QSFP56 200 / 1002 / 50 / 40 / 25 / 10 / 1 Gen 3.0 2x16 Socket Direct MCX614106A-VCAT
Gen 4.0 x16 MCX613106A-VDAT

1. By default, the above products are shipped with a tall bracket mounted; a short bracket is included as an accessory.
2. 100 GbE can be supported as either 4x25G NRZ or 2x50G PAM4 when using QSFP56.
3. Contact NVIDIA for other supported options.