제품문의
제품과 관련하여 궁금하신 사항을
문의하기를 통해 해결하세요.
AI and Data Science
Data Center &
Cloud Computing
Design and
Visualization
Robotics &
Edge Computing
HPC-Performance
Computing
Self-Driving Vehicles
Data Rate: NDR/400GbE
Ports: 1, 2, or 4
PCIe: PCIe 5.0
Network Interface: NRZ/PAM4
NVIDIA® ConnectX®-7 SmartNIC은 최신 클라우드, 인공 지능 및 기존 엔터프라이즈 워크로드를 위한 가속화된 네트워킹을 제공하도록 최적화되었습니다. ConnectX-7은 조직이 IT 인프라를 현대화하고 보안할 수 있도록 하는 광범위한 소프트웨어 정의, 하드웨어 가속 네트워킹, 스토리지 및 보안 기능을 제공합니다.
NVIDIA 업계 최고의 네트워킹 혁신인 ConnectX-7의 전통을 확장하여 1, 2 또는 4 포트 구성으로 제공하며 최대 400Gb/s의 대역폭을 제공합니다. NVIDIA ASAP2 - Accelerated Switching and Packet Processing®, 고급 RoCE, NVIDIA GPUDirect® Storage, TLS/IPSec/MACsec 암호화/decry 암호화를 위한 인라인 하드웨어 가속 등의 기능을 갖춘 ConnectX-7은 엣지에서 코어 데이터 센터, 클라우드에 이르기까지 민첩하고 고성능 솔루션을 제공하는 동시에 네트워크 보안을 강화하고 총 소유 비용을 절감합니다.
PCIe 카드 및 OCP3.0 폼 팩터로 제공되는 ConnectX-7은 클라우드, 하이퍼스케일 및 엔터프라이즈 네트워킹을 위한 솔루션을 제공합니다.
보다 빠른 속도와 혁신적인 인-네트워크 컴퓨팅 활용하는 NVIDIA ConnectX InfiniBand 스마트 어댑터는 뛰어난 성능 및 확장성을 달성합니다. NVIDIA ConnectX는 작업당 비용을 낮춰 고성능 컴퓨팅(HPC), 머신 러닝, 고급 스토리지, 클러스터형 데이터베이스, 저지연 임베디드 I/O 애플리케이션 등의 ROI를 높입니다.
복잡한 워크로드에는 고해상도 시뮬레이션, 초대규모 데이터세트, 고도로 병렬화된 알고리즘의 초고속 처리가 필요합니다. 이러한 컴퓨팅 요구 사항이 계속 증가함에 따라, 세계 유일의 완전 오프로드형 인-네트워크 컴퓨팅 플랫폼인 NVIDIA Quantum InfiniBand는 비용과 복잡성이 적은 고성능 컴퓨팅(HPC), AI 및 하이퍼스케일 클라우드 인프라에서 최고의 성능을 달성하는 데 필요한 극적인 성능 향상을 가져다줍니다.
NVIDIA® ConnectX®-7 계열의 RDMA(Remote Direct Memory Access) 네트워크 어댑터는 InfiniBand 및 이더넷 프로토콜과 최대 400Gb/s의 다양한 속도를 지원합니다. 이를 통해 전통적인 기업의 요구사항을 해결하는 광범위한 스마트하고 확장 가능하며 기능이 풍부한 네트워킹 솔루션을 사용할 수 있으며, 이 솔루션은 세계에서 가장 까다로운 AI, 과학 컴퓨팅 및 하이퍼스케일 클라우드 데이터 센터 워크로드까지 지원합니다.
ConnectX-7은 조직이 IT 인프라를 현대화하고 보안할 수 있도록 지원하는 광범위한 소프트웨어 정의, 하드웨어 가속 네트워킹, 스토리지 및 보안 기능을 제공합니다. 또한 ConnectX-7은 엣지에서 핵심 데이터 센터, 클라우드에 이르기까지 민첩하고 고성능 솔루션을 제공하는 동시에 네트워크 보안을 강화하고 총 소유 비용을 절감합니다.
ConnectX-7은 초저지연, 최고의 처리량 및 혁신적인 NVIDIA In-Network Computing 엔진을 제공하여 오늘날의 현대 과학 컴퓨팅 워크로드에 필요한 가속화, 확장성 및 풍부한 기술을 제공합니다.
NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol(SHARP)™은 집단 통신 작업을 스위치 네트워크로 오프로드하여 네트워크를 통과하는 데이터의 양을 줄이고 MPI(메시지 전달 인터페이스) 작업 시간을 단축하며 데이터 센터 효율성을 높입니다.
자가 치유 네트워크 기능을 갖춘 NVIDIA InfiniBand는 링크 장애를 극복하여 다른 소프트웨어 기반 솔루션보다 5,000배 빠른 네트워크 복구를 가능하게 합니다. 이러한 기능은 최신 세대의 InfiniBand 스위치에 내장된 인텔리전스를 활용합니다.
InfiniBand는 고급 정체 제어 및 적응형 라우팅을 포함하여 입증된 서비스 품질 기능을 갖춘 유일한 고성능 상호 연결 솔루션으로 탁월한 네트워크 효율성을 제공합니다.
InfiniBand는 중앙 집중식 관리를 제공하고 Fat Tree, Hypercubes, 다차원 Torus 및 Dragonfly+를 포함한 모든 토폴로지를 지원합니다. 라우팅 알고리즘은 특정 애플리케이션 통신 패턴에 대한 토폴로지를 설계할 때 성능을 최적화합니다.
OpenFabrics Alliance의 OFED는 고성능 입출력(IO) 제조업체가 공동으로 개발하고 테스트했습니다. NVIDIA MLNX_OFED는 NVIDIA에서 테스트한 OFED 버전입니다.
NVIDIA HPC-X®는 포괄적인 MPI 및 SHMEM/PGAS 소프트웨어 제품군입니다. HPC-X는 InfiniBand 네트워크 내 컴퓨팅 및 가속 엔진을 활용하여 연구 및 산업 애플리케이션을 최적화합니다.
NVIDIA Unified Fabric Manager (UFM®) 플랫폼은 데이터 센터 관리자가 InfiniBand 네트워크 인프라를 효율적으로 프로비저닝, 모니터링, 관리하고 사전에 문제를 해결할 수 있도록 지원합니다.
NVIDIA Magnum IO™는 네트워크 IO, 네트워크 내 컴퓨팅, 스토리지 및 IO 관리를 활용하여 다중 GPU, 다중 노드 시스템에 대한 데이터 이동, 액세스 및 관리를 단순화하고 속도를 높입니다.
Smart, Accelerated Networking for Modern Data Center Infrastructure
NVIDIA Quantum-2 InfiniBand 아키텍처 기반의 ConnectX-7 스마트 호스트 채널 어댑터(HCA)는 최고의 네트워크 성능을 제공하여 세계에서 가장 까다로운 워크로드를 처리할 수 있습니다. ConnectX-7은 매우 짧은 지연 시간, 400Gb/s 처리량, 혁신적인 NVIDIA 인-네트워크 컴퓨팅 가속화 엔진을 통해 슈퍼컴퓨터, 인공지능, 하이퍼스케일 클라우드 데이터센터에 필요한 확장성과 다기능 기술을 더욱 빠르게 제공합니다.
NVIDIA® ConnectX®-7 계열의 RDMA(Remote Direct Memory Access) 네트워크 어댑터는 InfiniBand 및 이더넷 프로토콜과 최대 400Gb/s의 속도를 지원합니다. 이 제품은 세계에서 가장 demanding이 높은 AI, 과학 컴퓨팅 및 하이퍼스케일 클라우드 데이터 센터 워크로드까지 기존 기업의 요구를 해결하는 광범위한 스마트하고 확장 가능하며 기능이 풍부한 네트워킹 솔루션을 지원합니다.
Supported network protocols | InfiniBand, Ethernet | Host interface | PCIe Gen5, up to x32 lanes |
---|---|---|---|
Number of network port | 1, 2, 4 | Form factors | PCIe HHHL, FHHL, OCP3.0 TSFF, SFF |
InfiniBand speeds | NDR 400Gb/s, HDR 200Gb/s, EDR 100Gb/s | Interface technologies | NRZ (10G, 25G), PAM4 (50G, 100G) |
Ethernet speeds | 400GbE, 200GbE, 100GbE, 50GbE, 25GbE, 10GbE |
Network Interface |
- InfiniBand Trade Association Spec 1.5 compliant - RDMA, send/receive semantics - 16 million input/output (IO) channels - 256 to 4Kbyte maximum transmission unit (MTU), 2Gbyte messages |
---|---|
Enhanced Features |
- Up to 4 network ports supporting NRZ, PAM4 (50G and 100G), in various configurations - Up to 400Gb/s total bandwidth - RDMA over Converged Ethernet (RoCE) |
Enhanced Ethernet Networking |
- Hardware-based reliable transport - Extended Reliable Connected (XRC) - Dynamically Connected Transport (DCT) - GPUDirect® RDMA - GPUDirect Storage - Adaptive routing support - Enhanced atomic operations - Advanced memory mapping, allowing user mode registration (UMR) - On-demand paging (ODP), including registration-free RDMA memory access - Enhanced congestion control - Burst buffer offload - Single root IO virtualization (SR-IOV) - Optimized for HPC software libraries including : NVIDIA HPC-X®, UCX®, UCC, NCCL, OpenMPI, MVAPICH, MPICH, OpenSHMEM, PGAS - Collective operations offloads - Support for NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ - Rendezvous protocol offload - In-network on-board memory |
Enhanced Ethernet Networking |
-Zero-Touch RoCE
-
- Single Root I/O Virtualization (SR-IOV)
ASAP² Accelerated Switch and Packet Processing™ for SDN - VirtIO acceleration - Overlay network acceleration: VXLAN, GENEVE, NVGRE - Programmable flexible parser - Connection tracking (L4 firewall) - Flow mirroring, sampling and statistics - Header rewrite - Hierarchical QoS - Stateless TCP offloads |
Storage Accelerations |
- Block-level encryption: XTS-AES - 256/512-bit key - NVMe over Fabrics (NVMe-oF) - NVMe over TCP (NVMe/TCP) - T10 Data Integrity Field (T10-DIF) signature handover - SRP, iSER, NFS over RDMA, SMB Direct |
Management and Control |
- NC-SI, MCTP over SMBus, and MCTP over PCIe - PLDM for Monitor and Control DSP0248 - PLDM for Firmware Update DSP0267 - PLDM for Redfish Device Enablement DSP0218 - PLDM for FRU DSP0257 - SPDM DSP0274 - Serial Peripheral Interface (SPI) to flash - JTAG IEEE 1149.1 and IEEE 1149.6 |
Remote Boot |
- Remote boot over InfiniBand - Remote boot over Internet Small Computer Systems Interface (iSCSI) - Unified Extensible Firmware Interface (UEFI) - Preboot Execution Environment (PXE) |
Cybersecurity |
- Inline hardware IPsec encryption and decryption: AES-GCM 128/256-bit key, IPsec over RoCE - Inline hardware TLS encryption and decryption: AES-GCM 128/256-bit key - Inline hardware MACsec encryption and decryption: AES-GCM 128/256-bit key - Platform security: secure boot with hardware root-of-trust, secure firmware update, flash encryption, and device attestation |
Advanced Timing and Synchronization |
- Advanced PTP: IEEE 1588v2 (anyprofile), G.8273.2 Class C,
12 nanosecond accuracy, line-rate hardware timestamp (UTC format) - SyncE: Meets G.8262.1 (eEEC) - Configurable PPS In and Out - Time-triggered scheduling - PTP-based packet pacing |
주문 정보 및 자세한 제품 사양은 [주]리더스시스템즈에 문의하세요.
PCI Express Interface |
- PCIe Gen 5.0 compatible, 32 lanes - Support for PCIe bifurcation - NVIDIA Multi-Host™ supports connection of up to 4x hosts - Transaction layer packet (TLP) processing hints (TPH) - PCIe switch Downstream Port Containment (DPC) - Support for MSI/MSI-X mechanisms - Advanced error reporting (AER) - Access Control Service (ACS) for peer-to-peer secure communication - Process Address Space ID (PASID) - Address translation services (ATS) - Support for SR-IOV |
---|---|
Operating Systems / Distributions |
- In-box drivers for major operating systems : Linux: RHEL, Ubuntu / Windows - Virtualization and containers VMware ESXi (SR-IOV) / Kubernete |
SKU | OPN | Data Rate | Network Interface | Ports | PCIe | Technology | Crypto |
---|---|---|---|---|---|---|---|
900-9X766-003N-ST0 | MCX75310AAS-HEAT | 200GbE/NDR200 | OSFP | Single | PCIe 5.0 x16 | VPI | Disabled |
900-9X766-003N-SQ0 | MCX75310AAS-NEAT | 400GbE/NDR | OSFP | Single | PCIe 5.0 x16 | VPI | Disabled |
900-9X760-0018-MB2 | MCX753436MC-HEAB | 200GbE/NDR200 | QSFP112 | Dual | PCIe 5.0 x16 | VPI | Enabled |
900-9X760-0078-MB0 | MCX753436MS-HEAB | 200GbE/NDR200 | QSFP112 | Dual | PCIe 5.0 x16 | VPI | Disabled |
900-9X7AH-0079-DTZ | MCX755106AC-HEAT | 200GbE/NDR200 | QSFP112 | Dual | PCIe 5.0 x16 | VPI | Enabled |
900-9X7AH-0078-DTZ | MCX755106AS-HEAT | 200GbE/NDR200 | QSFP112 | Dual | PCIe 5.0 x16 | VPI | Disabled |
900-9X721-003N-DT1 | MCX75510AAS-HEAT | 200GbE/NDR200 | OSFP | Single | PCI e 5.0 x16 | VPI | Disabled |
900-9X721-003N-DT0 | MCX75510AAS-NEAT | 400GbE/NDR | OSFP | Single | PCIe 5.0 x16 | VPI | Disabled |
900-9X766-003N-SR0 | MCX75310AAC-NEAT | NDR/400GbE | OSFP | Single | PCIe 5.0 x16 | VPI | Enabled |
900-9X7AX-004NMC0 | MCX75343AMC-NEAC | NDR/400GbE | OSFP | Single | PCIe 5.0 x16 | VPI | Enabled |
900-9X7AX-003NMC0 | MCX75343AMS-NEAC | NDR/400GbE | OSFP | Single | PCIe 5.0 x16 | VPI | Disabled |